许多人工智能系统都是通过与人类行为和人类创造的信息互动来“训练”的。现在,华盛顿大学的研究人员发现,当人类知道自己的行为被用来训练人工智能时,他们会改变自己的行为。
不仅人们会改变,而且这些变化会持续到未来——在人类训练员身上形成新的习惯。一个人的行为倾向或偏见,包括那些他甚至没有意识到的,也会改变。
那么,是谁在训练谁呢?
“这项研究清楚地告诉我们,我们需要了解人们与人工智能互动的这些行为,特别是当他们帮助训练这些工具时,这样我们就可以衡量这种偏见并减轻它,”华盛顿大学信息学研究所所长、医学教授菲利普·r·o·佩恩博士说。
但是,如果人们的行为被用来训练人工智能,那么改善他们的行为可能会有不利的一面。首席研究员、华盛顿大学研究生劳伦·特雷曼(Lauren Treiman)表示,例如,如果人们帮助训练自动驾驶汽车的人工智能,他们可能会特别小心驾驶。这可能会使人工智能成为一个完美的司机。
然而,在圣路易斯这样的地方,人们经常闯黄灯,自动驾驶汽车试图成为完美的司机可能会更危险。
她说:“人工智能可能需要学会看黄牌,如果这是人们倾向于做的事情的话。”
特雷曼说,她第一次开始思考人工智能训练方式的影响,以及决定我们在网上看到什么的算法,是在她浏览社交媒体动态的时候。
“当你得到‘推荐’视频时,算法可能会超级敏感,”她说。“坐在某个东西上几秒钟,你就会看到一遍又一遍这样的内容。”
她说,她会故意快速扫过一些内容,或者根本不点它,这样社交媒体算法就会学会减少向她展示这类内容。
这种改变自己行为以应对AI的经历激发了她的实验灵感。
华盛顿大学心理学和脑科学助理教授沃特·库尔说,研究人员使用了最后通牒游戏——一种“经典的学术方法”。
最后通牒游戏有两个玩家:一个决定如何在两人之间分配10美元(RM43),并提出一个对方可以接受或拒绝的提议。如果这个提议被接受,每个玩家都能得到他们同意分享的钱。但如果被拒绝,双方都拿不到钱。
在研究中,一些玩家被告知他们玩游戏的方式将被用来教AI玩游戏。在他们的屏幕角落有一个小的网络摄像头图标,上面写着“用于训练人工智能的报价”,提醒他们这一点。
研究人员发现,为了训练人工智能而玩游戏的人往往会拒绝更多不公平的提议。在游戏结束时,拒绝一个提议会降低玩家的经济收益,但那些为了训练AI而玩游戏的人比那些没有这样做的人更经常拒绝。人们似乎希望训练AI公平竞争,并改变它们的行为来满足这一愿望。
然而,参与者被告知他们随后将与AI进行最后通牒游戏——那么他们是为了公平而公平地训练它,还是为了在下一轮中获得更好的运气?
为了回答这个问题,研究人员设置了相同的实验,但这次告诉参与者,他们将训练一个人工智能,而其他人将在下一轮面对这个人工智能。结果是一样的:人们训练AI公平地比赛,即使这需要花费他们一些钱——即使他们将来不会与AI对抗。
最后,研究人员检查了被观察的感觉是否会促使参与者公平竞争。
“这是研究中的一个老问题,”佩恩说。“人们知道他们正在被观察,这影响了(研究人员)正在观察的内容。”
因此,研究人员从人工智能训练组的屏幕上删除了网络摄像头图标,让人们感觉自己被监视的感觉不那么强烈。
尽管如此,“人们还是愿意牺牲奖励来让人工智能更公平,”华大计算机科学与工程学院研究员兼助理教授何建柱(Chien-Ju Ho)说。
所有这些实验都有力地证明了人类在训练人工智能时改变自己的行为,但三位研究人员一致认为,最有趣的是这种行为改变持续了多长时间。
库尔说,最初的实验只花了大约5分钟。参与者在两三天后回到游戏中,并以与第一次相同的方式进行游戏,即使他们被明确告知不再训练AI。
库尔说:“观察第二阶段的行为,我们看到了这些非常美丽、清晰的行为持续模式。”
特雷曼表示,这些发现有可能影响人工智能的训练方式,并引发其他问题。
“在最后通牒博弈中,公平有一个明确的定义。但是,在许多其他情况下,并没有一个明确的定义。”“你总是希望得到最公平、最诚实的人工智能。但在其他情况下,什么是公平?特别是因为人们会将自己的偏好、偏见或信念灌输到他们正在训练的人工智能系统中。——圣路易斯邮报/论坛报新闻社
×