二维码
文文衫

扫一扫关注

当前位置: 首页 » 新闻资讯 » 企业新闻 » 正文

在AI镜像中看到我们的倒影

放大字体  缩小字体 发布日期:2025-05-05 08:38:21    来源:本站    作者:admin    浏览次数:94    评论:0
导读

  将人类特征归因于机器并不是什么新鲜事,但随着生成式人工智能的兴起,拟人化正呈现出一个新的维度。这一趋势引发了重要的哲

  将人类特征归因于机器并不是什么新鲜事,但随着生成式人工智能的兴起,拟人化正呈现出一个新的维度。这一趋势引发了重要的哲学和伦理问题,同时重新定义了我们与技术的关系。

  如果你曾经在ChatGPT中输入过“你好”或“谢谢”,那么你就犯了拟人化——一个在关于人工智能(AI)的讨论中越来越多出现的令人费解的词。但这到底是什么意思呢?

  从广义上讲,拟人化是将人类的特征归因于动物和物体等非人类实体。这一概念也被应用于人形机器人,以及最近的人工智能——尤其是生成式人工智能。与专门用于面部识别等特定目的的人工智能不同,生成式人工智能(包括ChatGPT)可以根据提示生成文本、图像和其他类型的内容。

  虽然基因人工智能系统的人性化几乎没有引起人们的注意,但这一趋势提出了关于人性和智能的定义,以及我们与这些新技术的关系的问题。像对待人一样对待机器有风险吗?

  从一开始就是拟人化的

  机器的拟人化并不是什么新鲜事。早在1950年,英国数学家和计算机科学家艾伦·图灵(Alan Turing)就提出了一种思考机器智能的激进方式。在他的图灵测试中,一个人类评估者被要求确定通过书面文本与他交谈的实体是人还是机器。这个想法是为了评估机器展示类人智能的能力。

  图灵的这项开创性工作表明,我们倾向于把人类的特征归因于机器,它为进一步探索拟人化奠定了基础。

  麻省理工学院苏世民计算机学院院长、2024年获得EPFL荣誉博士学位的丹尼尔·胡滕洛彻说:“我们通常期望一项技术或一台机器比我们精确、具体、更快、更高效。”“基因人工智能的结果让人感觉像人类,因为它们展示了类似人类的特征。它们是不精确的、适应性强的、令人惊讶的。”

  看起来像我们的技术

  AI这个缩写词当然包含了“智能”这个词,但更重要的是包含了“人工”这个词。然而,EPFL讲师、创新伦理与法律研究员约翰?罗切尔(Johan Rochel)解释说:“人工智能系统基于庞大的数据集,反映了开发人员教它们做出的决定,传达了开发人员自己的价值观、信仰和道德。”

  通常,拟人化始于人工智能系统界面的设计。换句话说,用户之所以将人工智能机器拟人化,是因为这些机器从一开始就被设计为展示人类的特征。例如,亚马逊的Alexa有一个温暖的声音和一个人类的名字,ChatGPT就像一个人一样礼貌友好。这些特点都包括在内,使机器易于使用和愉快。“最好的数字系统是在设计和建造时考虑到用户的,”罗切尔说。“与它们互动越直观,它们就越容易被采用。”

  然而,让机器看起来像人类并不是那么简单。“这是一项真正的技术挑战,”EPFL人工智能中心联席主管马塞尔·萨拉瑟尔说。“一个完美的拟人化人工智能系统需要完全掌握人类语言,包括所有的细微差别,能够识别情绪并做出适当的反应,实时处理信息,适应个人用户,等等。”

  形成债券

  当ChatGPT在你提示它给你一个活动名称后祝你活动好运时,这会让互动更吸引人,更有情感——给人一种友好关系的印象。这种拟人化是系统开发人员用来让用户与机器建立联系的一种策略。

  根据EPFL副教授Robert West最近的一项研究,当用户与人工智能系统就给定问题进行交互时,系统可以访问用户的个人信息,系统实际上可以改变他们的观点。这引发了关于人工智能社会影响的问题,因为它不仅可以用作增强的数字技术,还可以用于产生能够影响我们决策的对话。

  我们能信任这些虚拟伙伴吗?

  在医疗保健行业,越来越多的拟人化系统正在被开发,包括人形机器人和道德支持聊天机器人,以服务和帮助病人。这种人性化、个性化的虚拟系统旨在建立信任和形成纽带。

  “今天的用户越来越了解和意识到使用数字技术的潜力,”罗切尔说。对他们可以信任的系统的需求正在增长。这也反映在立法中。虽然“信任”的确切定义可以有所不同,但一个关键方面是它是通过人与人之间的关系发展起来的。然而,在这种情况下,我们处理的是人机关系。所有让用户觉得他们在与人互动的功能都是为了建立信任,但这些功能并不总是明确的。”例如,ChatGPT发送回复的方式,“就像有人在输入回复,就像在消息传递应用程序中一样,”罗切特说。“用户显然知道ChatGPT不是人类,但这种模拟与人类对话的隐蔽方式鼓励用户与机器建立一种关系——一台假装像我们一样的机器。”

  这种与机器的模拟关系可以超越闲聊和亲切的回答。在2013年上映的电影《她》中,杰昆·菲尼克斯饰演的男主角爱上了斯嘉丽·约翰逊饰演的语音助手。这部电影提出了关于人际关系的问题,以及生成式人工智能如何影响我们的行为。“信任通常是通过分享个人和机密信息建立起来的——如果这些信息落入坏人之手,可能会造成极大的破坏,”salath

  说。“用户的隐私受到威胁。”

  这是安全和问责的问题

  如果我们认为人工智能系统与我们平等,那么,如果我们提交的一篇论文有错误,它们应该受到指责吗?罗切尔说:“这意味着人工智能系统可以像个人一样承担责任。”“但我们不应该忘记,它们的智能只是人造的。机器永远不会被追究责任,因为它们不是完全自主的。他们无法做出脱离程序设定之外的决定。我们得找出机器背后的人。但是责任在哪里呢?是开发者还是用户?”

  

  通用电气D-12型烤面包机,来自1910年代

  “我喜欢用烤面包机里的叉子来比喻,”Huttenlocher说。“如果你看看20世纪初第一批烤面包机的照片,你很快就会发现,用叉子把自己电死是很容易的。标准和保障措施最终被引入,以确保烤面包机的安全,并防止这种滥用成为标准做法。我们需要对人工智能做同样的事情。我们需要引入防止滥用技术的保障措施,建立法律责任,并采用人人都能理解的标准。”

  根据Rochel的说法,“透明度将是最重要的。我们需要提醒人们,这些只是机器,也会犯错误。这将有助于降低滥用的风险。”

  立法者仍在讨论如何在人工智能系统中建立透明度和可解释性。欧盟的人工智能法案非常明确:生成式人工智能系统的设计和呈现方式必须明确表明它们不是人类。用户必须充分意识到他们正在与一台机器进行交互。

  人工智能与人类:打造深思熟虑、眼光敏锐的伙伴关系

  “我们可以从人工智能中学到很多东西,”Huttenlocher说。例如,AlphaGo为围棋设计出了连最优秀的棋手都未曾想到的策略,为围棋带来了一个全新的维度。我认为人工智能是一种可以增强而不是取代人类能力的发明。”

  salath

  指出:“通过将人工智能系统拟人化,我们可以加快技术的采用,但这也提出了一个根本性的问题,即在一个越来越难以区分人类和机器的世界里,人类的角色是什么。随着人工智能的进一步发展,我们需要确保我们与机器的互动——尽管它们看起来很自然——不会让我们忘记我们之所以为人的原因。”

  对于Rochat来说,“人工智能系统开发者、利益相关者、立法者和用户必须共同努力,确保这项技术仍然是人类手中的工具,而不是取代或操纵人类的力量。”

 
(文/admin)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.whsdu.com All Rights Reserved

赣ICP备16007947号-10