随着科技行业竞相开发和部署一系列功能强大的新型人工智能聊天机器人,它们的广泛采用在一些公司、监管机构和行业观察人士中引发了一系列新的数据隐私担忧。
包括摩根大通(JPMorgan Chase)在内的一些公司,出于与员工使用第三方软件相关的合规担忧,已限制员工使用ChatGPT。ChatGPT是一款病毒式人工智能聊天机器人,首次开启了大型科技公司的人工智能军备竞赛。
开发ChatGPT的OpenAI公司披露,它不得不在3月20日暂时关闭该工具,以修复允许一些用户从其他用户的聊天记录中查看主题行的错误,这加剧了人们对隐私的担忧。
OpenAI在一篇博客文章中表示,这个现已修复的漏洞还使“一些用户可以看到另一个活跃用户的姓和名、电子邮件地址、支付地址、信用卡号的后四位数字以及信用卡到期日期”成为可能。
就在上周,意大利监管机构在OpenAI披露了这一漏洞后,以隐私问题为由,发布了ChatGPT在该国的临时禁令。
福克斯·罗斯柴尔德律师事务所隐私和数据安全业务联合主席马克·麦克里告诉CNN:“像ChatGPT这样的软件对隐私的考虑怎么说都不为过。”“它就像一个黑盒子。”
在11月底向公众推出的ChatGPT中,用户只需输入提示就可以生成文章、故事和歌词。
谷歌和微软后来也推出了人工智能工具,它们的工作方式相同,由基于大量在线数据训练的大型语言模型提供支持。
麦克里说,当用户向这些工具输入信息时,“你不知道这些信息将被如何使用。”这引起了企业的高度关注。麦克里说,随着越来越多的员工随意地使用这些工具来帮助处理工作邮件或会议记录,“我认为公司商业机密被这些不同的人工智能泄露的机会只会增加。”
波士顿咨询集团(Boston Consulting Group)首席人工智能道德官史蒂夫·米尔斯(Steve Mills)同样告诉CNN,大多数公司对这些工具最大的隐私担忧是“无意中泄露敏感信息”。
米尔斯说:“你让所有的员工做一些看起来非常无伤大雅的事情,比如,‘哦,我可以用这个来总结会议笔记。’”“但把会议笔记粘贴到提示符中,你可能会突然泄露一大堆敏感信息。”
米尔斯补充说,如果人们输入的数据被用于进一步训练这些人工智能工具,就像这些工具背后的许多公司所说的那样,那么你就“失去了对这些数据的控制,而其他人掌握了这些数据”。
ChatGPT背后的微软支持公司OpenAI在其隐私政策中表示,它会从使用其服务的人那里收集各种个人信息。该公司表示,它可能会使用这些信息来改进或分析其服务,进行研究,与用户沟通,以及开发新的程序和服务等。
隐私政策规定,除非法律要求,它可以在不另行通知用户的情况下向第三方提供个人信息。如果这份2000多字的隐私政策看起来有点晦涩难懂,那很可能是因为这在互联网时代几乎已经成为了行业规范。OpenAI还有一个单独的使用条款文档,它将大部分责任放在用户身上,让他们在使用OpenAI的工具时采取适当的措施。
OpenAI周三还发表了一篇新的博客文章,概述了其人工智能安全的方法。“我们不使用数据来销售我们的服务,做广告,或者建立人们的个人资料——我们使用数据来让我们的模型对人们更有帮助,”该博客帖子写道。“例如,ChatGPT通过进一步训练人们与它的对话来改进。”
谷歌的隐私政策,包括它的Bard工具,同样是冗长的,它还为其生成式人工智能用户提供了额外的服务条款。该公司表示,为了在保护用户隐私的同时帮助改进Bard,“我们选择了一部分对话,并使用自动化工具帮助删除个人身份信息。”
“这些对话样本可以由训练有素的审查人员审查,并与您的谷歌帐户分开保存3年,”该公司在巴德的一个单独的常见问题解答中表示。该公司还警告说:“不要在你的对话中包含可以用来识别你或其他人身份的信息。”FAQ还指出,巴德对话不会被用于广告目的,并且“我们将在未来明确传达这种方法的任何变化。”
谷歌还告诉CNN,用户可以“轻松选择使用Bard,而无需将对话保存到谷歌账户。”巴德用户还可以通过这个链接查看他们的提示或删除巴德对话。谷歌表示:“我们还设置了护栏,旨在防止巴德在回复中包含个人身份信息。”
米尔斯在接受CNN采访时表示:“我们仍在了解这一切究竟是如何工作的。”“你只是不完全知道你输入的信息是如何的,如果它被用于重新训练这些模型,它是如何在某些时候表现为输出的,或者如果它确实如此。”
Mills补充道,有时候用户和开发人员甚至没有意识到新技术隐藏的隐私风险,直到为时已晚。他引用的一个例子是早期的自动完成功能,其中一些功能最终产生了一些意想不到的后果,比如用户开始输入一个社会安全号码,这经常让用户感到震惊和惊讶。
最后,米尔斯说:“我现在的观点是,你不应该在这些工具中加入任何你不想与他人共享的东西。”