二维码
文文衫

扫一扫关注

当前位置: 首页 » 新闻资讯 » 生活日常 » 正文

人工智能工具正在非法训练真实的儿童,包括制作露骨的材料

放大字体  缩小字体 发布日期:2025-08-06 12:14:03    来源:本站    作者:admin    浏览次数:94    评论:0
导读

    研究人员发现,人工智能对训练数据的不可阻挡的追求正在吞噬越来越多的越来越有问题的内容——包括人工智能使用儿童违法

  

  研究人员发现,人工智能对训练数据的不可阻挡的追求正在吞噬越来越多的越来越有问题的内容——包括人工智能使用儿童违法的细节。

  人权观察组织在本周的一份报告中表示,在未经父母同意或不知情的情况下,巴西至少有170个儿童照片和个人信息链接被从互联网上删除,并用于训练人工智能系统。人权观察表示,其中一些人工智能系统生成了露骨和暴力的儿童图像。

  该报告的作者、儿童技术权利研究员韩慧贞在接受《财富》杂志采访时表示,巴西法律禁止在未经儿童监护人同意的情况下处理儿童的个人数据。

  这些照片的链接是从个人博客和社交媒体网站上收集来的,形成了一个名为Laion-5B的大型数据集,该数据集已被用于训练流行的图像生成器,如Stable Diffusion。人权观察表示,这170张儿童照片可能“严重低估”,因为该组织只审查了laon - 5b上拍摄的58亿张照片中的0.0001%。

  “我更担心的是,这只是冰山一角,”韩告诉《财富》杂志。“数据集中可能有更多的儿童和更多的巴西儿童图像。”

  “Laion-5B”从1994年就开始收集儿童的照片,这些照片显然是出于对隐私的期望而发布的,韩说。其中一张照片是一个两岁的女孩和她刚出生的妹妹在一起,照片的标题不仅包括两个女孩的名字,还包括婴儿出生的医院的名称和地址。

  这类信息可以从许多照片的url或元数据中获得,韩说。儿童的身份通常很容易从照片中追踪到,要么从照片的标题,要么通过照片拍摄时他们的行踪信息。

  孩子们穿着内衣在家里跳舞,学生们在学校做报告,高中生们在嘉年华上,这些只是个人照片被刮掉的几个例子。她说,其中很多都是来自妈妈们的博客,或者是来自个人家庭YouTube视频的截图,这些视频的浏览量很小。报告发现,这些照片“涵盖了整个童年”。

  “很有可能这些都是个人账号,(上传图片的人)只是想把这些视频分享给家人和朋友,”韩补充说。

  去年12月,斯坦福大学(Stanford)的一项调查发现,Laion 5B的所有公开版本都被删除了,因为它删除了儿童性虐待的图像。管理数据集的非营利组织Laion的发言人内特·泰勒(Nate Tyler)说,该组织正在与互联网观察基金会、加拿大儿童保护中心、斯坦福大学和人权观察组织合作,从Laion 5B中删除所有已知的涉及非法内容的内容。

  泰勒说:“我们非常感谢他们的支持,并希望尽快重新发布修订后的Laion 5B。”

  他补充说,由于Laion 5B是通过URL链接而不是直接的照片建立的,所以简单地从Laion数据集中删除URL链接不会从网络上删除任何非法内容。

  然而,链接中仍然存在未成年人的识别信息,韩说。她告诉《财富》杂志(Fortune),她要求莱昂做两件事:第一,防止未来儿童数据被获取;第二,定期从数据集中删除他们的数据。

  “(里昂)没有对这两件事做出回应或承诺,”韩说。

  泰勒没有直接回应这一批评,但强调了该非营利组织致力于解决数据库中非法材料的问题。

  泰勒说:“这是一个更大、更令人担忧的问题,作为一个非营利性志愿者组织,我们将尽自己的一份力量来提供帮助。”

  Laion-5B的大部分数据来自Common Crawl,这是一个数据存储库,它复制了开放互联网的大量数据。然而,Common Crawl的执行董事里奇·斯克伦塔(Rich Skrenta)此前告诉美联社,在使用它之前,过滤它所需要的内容是Laion的责任。

  潜在危害

  一旦他们的照片被收集,孩子们的隐私就会面临真正的威胁,韩说。众所周知,人工智能模型,包括那些接受过Laion-5B数据训练的模型,会在提示时反刍私人信息,比如医疗记录或个人照片。

  报告写道,人工智能模型现在只需一两张图片就能生成令人信服的儿童复制品。

  韩说:“可以肯定地说,我发现的照片绝对有助于模特制作巴西孩子的真实图像,包括露骨的性图像。”

  更恶意的是,一些用户使用文字到图像的人工智能网站生成儿童色情内容。其中一个名为Civiai的网站,从Laion-5B中获取数据,并被要求提供露点内容的请求所淹没——该平台上生成的60%的图像被认为是淫秽的。科技新闻公司404Media的一项调查发现,一些用户要求提供“非常年轻的女孩”和其他露相行为的图片,并获得了这些图片。

  404媒体透露,根据要求,civai甚至生成了一些看起来不“成人”或“老”的女孩的淫秽图片。

  调查结果公布后,civai的云计算提供商OctoML终止了与该公司的合作关系。据404Media报道,现在,civai包含了一个NSFW过滤器,这让一些用户非常沮丧,他们说这个平台现在就像“其他任何平台”一样。

  civil ai的一位发言人告诉《财富》杂志,该公司立即禁止任何制作涉及未成年人的NSFW内容的人,并引入了一种“半透膜”,指的是过滤不适当内容的过滤器。

  深度造假技术已经开始影响年轻女孩,韩说。报告称,至少有85名巴西女孩遭到了同学的骚扰,这些同学利用人工智能根据她们社交媒体上的个人资料拍摄的照片,对她们进行了深度色情模仿。韩说,由于这些深度造假的一致性和真实性,她开始调查这个话题。

  韩补充说:“我开始研究这项技术是如何产生如此逼真、可怕的巴西孩子图像的,这项研究让我想到了训练数据集。”

  美国已经发生了多起类似事件。至少有两所高中面临着男生为数十名女同学制作深度假裸照的丑闻。

  包括佛罗里达州、路易斯安那州、南达科他州和华盛顿州在内的一些州已经开始禁止制作未成年人的深度假裸照,其他州也在考虑类似的法案。然而,韩认为立法者应该更进一步,保护儿童的数据不被完全抓取到人工智能系统中,作为“面向未来的”。

  “不应该把责任的负担放在孩子和父母身上,让他们试图保护孩子免受一种根本不可能保护的技术的侵害,”韩说。“父母应该能够上传孩子的照片与家人和朋友分享,而不必生活在恐惧中,担心这些照片有一天会被用来对付他们。”——Fortune.com/The纽约时报

  ×

 
(文/admin)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.whsdu.com All Rights Reserved

赣ICP备16007947号-10