华盛顿:周四,几家领先的人工智能公司承诺从他们用来训练人工智能产品的数据源中删除裸体图像,并承诺采取其他保障措施来遏制有害的深度色情图像的传播。
在拜登政府的斡旋下,Adobe、Anthropic、Cohere、微软和OpenAI等科技公司表示,他们将自愿承诺“在适当的时候,根据模型的目的”,从人工智能训练数据集中删除裸照。
白宫的声明是一场更广泛的运动的一部分,该运动反对基于图像的儿童性虐待,以及未经成人同意创建亲密的人工智能深度假图像。
白宫科技政策办公室的一份声明称,这类图像“飙升,不成比例地针对妇女、儿童和LGBTQI+人群,并成为迄今为止人工智能增长最快的有害用途之一”。
Common Crawl是一个不断从开放的互联网上搜罗数据的存储库,是用于训练人工智能聊天机器人和图像生成器的关键来源。它更广泛地承诺负责任地采购其数据集,并保护它们免受基于图像的性虐待。
在周四的另一项承诺中,另一组公司——其中包括Bumble、Discord、Match group、meta、微软和TikTok——宣布了一套自愿原则,以防止基于图像的性虐待。这一宣布与《反妇女暴力法》颁布30周年有关。——美联社
×