有人说,我们正站在“第四次工业革命”的风口浪尖上。人工智能(AI)和机器学习的出现和扩散,将在公共和私营部门开创一个生产力、效率和治理的新时代。
为了认识到这种潜力,信息技术和通信部去年制定了《国家人工智能政策》草案,据报道,该草案将于本月提交给内阁。该政策为人工智能的使用、扩展和扩散设定了雄心勃勃的目标,同时承认(尽管几乎是漫不经心地)有必要确保人工智能的道德和负责任使用,这将维护用户的基本权利和隐私。鉴于政府在网络安全(尤其是女性网络安全)方面的现有表现,这些保证似乎不现实。
人工智能是一个广泛的领域,包括能够模拟人类学习、理解、解决问题、决策和创造力的计算机系统的发展。它使用机器学习和深度学习等工具来分析数据(包括文本和图像),以识别模式、做出预测并生成类似人类的语音。
ChatGPT可能是最常遇到/使用的生成人工智能工具。生成式人工智能根据用户提交的命令或提示生成文本和图像。这项技术在商业环境中得到了有益的应用,例如,通过简单任务的自动化来提高效率,综合和分析数据以加强商业决策,并协助创造性的事业。
然而,也有不好的一面。Deepfake技术是一种生成式人工智能,它可以通过分析现有的视听数据,创造出逼真但完全虚假的人物图像和视频。
我们中的许多人都在网上遇到过一些名人的视频剪辑——一些是滑稽的,另一些在意图和性质上更有害。事实上,后者在网络上占主导地位:98%的深度造假视频本质上是色情内容;99%的目标是女性或女孩。这些统计数据并不令人惊讶。最近,针对女记者和女政治家的深度假视频(通常是性视频)在巴基斯坦成为头条新闻。
技术促进的基于性别的暴力(TFGBV),如深度虚假内容,还表现为基于图像的虐待和勒索、错误信息/诽谤、冒充、网络跟踪和暴力威胁。虽然男性也会遭受网络暴力,但这是一种全球性的性别现象。在巴基斯坦,女性是网络骚扰的最大受害者。根据皮尤研究中心的一项研究,年龄在1824岁的女性中有26%经历过网络跟踪,而在同一年龄段的男性中只有7%经历过。对于世界各地的女性来说,网络空间是一个更加不安全的地方。
人工智能现在已经改变了TFGBV的舞台,极大地增强了互联网上传播的错误信息和假新闻的表面真实性和可信度。这不仅仅是因为深度造假技术。生成式人工智能不仅可以用来创建网络骚扰模板,还可以用来生成和修改虚假但令人信服的女性个人历史,使错误信息和假新闻的循环永久化。
性别歧视侵犯了妇女的尊严、隐私权和不受歧视的权利。很多时候,它以身体暴力告终。人工智能技术(通常)在未经同意的情况下使用受版权保护的数据,也会引发同意和知识产权问题——去年好莱坞针对电影公司未经许可使用演员的人工智能复制品的罢工中,这一问题引起了人们的关注。
人工智能监管是一个不断发展的领域。鉴于随着人工智能技术的部署和获取的增加而出现的风险,世界各地一直在努力规范其使用。
2024年《欧盟人工智能法案》率先采取以人权为中心的人工智能监管方法,将安全和与基本权利和自由的兼容性作为人工智能监管的指导原则。禁止将人工智能用于生物特征监控和面部识别数据库的编制(第5条),并规定,如果使用深度伪造技术制作视频、音频或图像内容,则应披露人工生成/操纵的相关信息(第52条)。
联合国教科文组织《关于人工智能使用伦理的建议》(2023年)也规定,保护人权和自由是人工智能监管的首要指导“价值”。白宫发布的白皮书《美国人工智能权利法案蓝图》阐明了在自动化系统的建设、部署和治理中保护公民权利和民主价值观的某些原则。
巴基斯坦的人工智能政策也认识到人工智能创造“文本、图像和视频等虚假内容”的特殊危险,并设想人工智能监管局(ARD)将发布指导方针,以解决“虚假信息、数据隐私泄露和假新闻可能的传播”。这种监管的确切机制可能会在最终通过的任何人工智能立法中得到更详细的说明。
目前,国际汽联网络犯罪部门的现有机制在处理2016年《防止电子犯罪法》下妇女对性别歧视的无数投诉方面基本上是无效的,该法案将通过电子系统传播虚假和诽谤信息、扭曲一个人的照片以显示她/他处于性暴露的位置以及网络跟踪定为刑事犯罪。然而,正如信德省高等法院去年严厉指出的那样,网络犯罪部门没有“有效调查网络犯罪的能力,更不用说打击这些罪行了”。
封锁互联网上的信息流和流量不会是一个解决方案。国家必须确保未来对人工智能主导的TFGBV的任何监管——由ARD制定或由新成立的国家网络犯罪调查机构执行——都是有效的,并坚持其人工智能政策所支持的道德和人权标准。
作者是一名律师。