研究人员不仅制造了一个人工智能孩子,而且现在还使用人类婴儿的头戴摄像头镜头来训练人工智能。
在一份新闻稿中,纽约大学(New York University)宣布,该校的数据科学研究人员将一个摄像头绑在一个真实的、活生生的人类幼儿的头上,为期18个月,以观察人工智能模型能从中学到多少东西。
大多数大型语言模型(llm),如OpenAI的GPT-4及其竞争对手,都是在“天文数字的语言输入”上进行训练的,这比婴儿在生命的头几年学习说一门语言时所接受的语言输入要大很多倍。
尽管存在数据差距,纽约大学的科学家们在婴儿摄像头数据上训练的系统实际上能够学习“大量的单词和概念”——而且这些都是在孩子6个月到2岁之间醒着的总时间的1%左右完成的。
换句话说:只需要训练人工智能模型所需的一小部分数据,这些研究人员就能教会他们的系统像婴儿一样学习。这样的事情足以让大多数硅谷人垂涎欲滴,他们对训练人工智能模型所需的大量能源、水和数据感到担忧,这是可以理解的。
据报道,这名婴儿名叫山姆,他和父母以及两只猫住在澳大利亚。这个项目产生了大约61个小时的镜头,山姆在一年半的时间里断断续续地戴着这个轻便的相机耳机,最终在上周的杂志上发表了一项研究。
“这个数据集完全是独一无二的,”计算认知科学家布兰登·莱克(Brandon Lake)说。“这是我们了解一个孩子能接触到什么的最好窗口。”
在将婴儿摄像机的镜头输入人工智能后,研究人员发现,它能够执行人类认知的壮举:将单词与它们所代表的物体相匹配——正如报道的那样,这是一项混乱的任务,因为即使可以听到说话者提到一个特定的物体,视频中也经常混杂着许多物体。
奇怪的是,印第安纳大学的研究人员对一个戴着头戴摄像头的婴儿进行了非常相似的实验,并于去年秋天公布了初步结果——尽管在这种情况下,他们对孩子的学习以及人工智能如何帮助理解孩子更感兴趣,而不是孩子的语言处理。
更奇怪的是,纽约大学似乎利用五角大楼国防高级研究计划局(DARPA)的拨款资助了婴儿人工智能学习的研究,DARPA已经在人工智能领域投入了数十亿美元。
事实上,纽约大学坦顿工程学院并没有参与婴儿摄像头的研究,但在2021年,它获得了一份价值500万美元的合同,帮助DARPA开发一款“人工智能驱动的增强现实助手”。
目前尚不清楚DARPA(或美国国家科学基金会,也帮助资助了人工智能婴儿摄像头)为纽约大学的这项具体实验提供了多少资金。
总而言之,这是一项相当引人入胜的研究——尽管一位研究人员确实指出了一个重要的警告:即使人工智能成功地分析了山姆努力理解世界的镜头,视频本身也是他小小的人类大脑的产物。
斯基德莫尔发展心理学家杰斯·沙利文(Jess Sullivan)帮助安排了数据收集,他说:“我认为,如果婴儿没有创造出神经网络学习的数据集,这项研究就不会成功。”