我们的研究得出的结论是,一旦数字产品成为数百万企业和日常生活中不可或缺的一部分,它们就会成为平台、人工智能公司和大型科技公司预测和反击政府的工具。
考虑到这一点,对埃隆·马斯克(Elon Musk)和萨姆·奥特曼(Sam Altman)等科技领袖早期提出的监管生成式人工智能的呼吁持怀疑态度是正确的。
随着人工智能对我们的生活和在线内容的影响,这样的呼吁已经消失了。
挑战在于变化的速度如此之快,以至于还没有建立起减轻对社会潜在风险的保障措施。
因此,世界经济论坛的《2024年全球风险报告》预测,错误和虚假信息是未来两年最大的威胁。
通过生成式人工智能创造多媒体内容的能力,问题变得更糟。
根据目前的趋势,我们可以预计深度造假事件会增加,尽管Facebook等社交媒体平台正在对这些问题做出回应。他们的目标是自动识别和标记人工智能生成的照片、视频和音频。
澳大利亚安全专员正在研究如何监管和减轻生成式人工智能造成的潜在危害,同时平衡其潜在机会。
一个关键理念是“设计安全”,这要求科技公司将这些安全考虑置于其产品的核心。
美国等其他国家在人工智能监管方面走在了前面。
例如,美国总统乔·拜登最近发布的关于安全部署人工智能的行政命令要求公司与政府分享安全测试结果,规范红队测试(模拟黑客攻击),并指导内容的水印。
我们呼吁采取三个步骤来帮助防范生成式人工智能与虚假信息相结合的风险。
监管机构需要制定明确的规则,而不允许模糊的“尽力而为”目标或“相信我们”方法。
为了防止大规模的虚假信息操作,我们需要像教授数学一样教授媒体素养。
安全技术或“设计安全”需要成为每个产品开发战略中不可谈判的一部分。
人们意识到人工智能生成的内容正在增加。
理论上,他们应该相应地调整自己的信息习惯。
然而,研究表明,与他人的感知风险相比,用户通常倾向于低估自己相信假新闻的风险。
寻找值得信赖的内容不应该通过筛选人工智能生成的内容来理解什么是事实。
Stan Karanasios是昆士兰大学副教授,Marten Risius是昆士兰大学商业信息系统高级讲师。本文最初发表于The Conversation网站。