二维码
文文衫

扫一扫关注

当前位置: 首页 » 新闻资讯 » 工程百科 » 正文

活动人士敦促,控制人工智能

放大字体  缩小字体 发布日期:2025-08-23 01:06:07    来源:本站    作者:admin    浏览次数:72    评论:0
导读

    一名法律顾问表示,人工智能应该受到监管,以确保其使用不会侵犯消费者的权利,因为消费者是生活将受到该技术影响的最大

  

  一名法律顾问表示,人工智能应该受到监管,以确保其使用不会侵犯消费者的权利,因为消费者是生活将受到该技术影响的最大群体。

  马来西亚消费者协会联合会(Fomca)副主席兼法律顾问拿督Indrani Thuraisingham表示,马来西亚国家人工智能路线图2021-2025于2021年启动,在咨询过程中忽视了消费者群体。

  她表示,尽管消费者群体代表了生活将受到包括人工智能开发和部署在内的技术创新影响的最大群体。

  “人工智能将对人们的生活产生巨大影响,包括我们的工作、沟通、收集信息等方式。它对消费者的幸福、自主、自决、隐私、安全、公平和保障具有重大影响。

  她在接受采访时表示:“这也引发了一个问题,即如果人工智能系统的输出对消费者产生不利影响,谁应该承担责任。”

  因此,她表示,Fomca呼吁政府从消费者权利的角度对人工智能进行监管。

  鉴于3月15日是世界消费者权益日,印度国家消费者投诉中心首席执行官英德拉尼表示,在数字世界,消费者的声音必须被听到。

  “为了确保生成式人工智能的开发和使用符合消费者的权利和社会福祉,仅仅依靠企业自我监管,希望这种效果能渗透到消费者层面是不够的。”

  引用Adobe最新的数字客户体验报告,她说,在马来西亚,许多品牌还没有调整人工智能指导方针来满足消费者的信任需求。

  只有10%有内部使用策略。

  政策制定者和执法机构应该为如何开发、部署和使用技术设定界限。

  “政策制定者必须通过必要的法律法规,在未来几年提供安全和以消费者为中心的技术,”她说。

  为了确保生成式人工智能安全、可信、公平、公正和负责,Indrani指出了几项原则,为政策制定者和执法机构提供了基础,帮助他们通过消费者权利原则来处理生成式人工智能的机会和陷阱。

  这包括当算法使用个人数据时的信息权、反对和接受解释的权利、删除个人数据的权利、与人类而不是人工智能互动的权利、获得补救和赔偿的权利、集体补救的权利以及开发人员建立保障这些权利的制度的责任。

  生成式人工智能模型通过大量数据来识别模式和结构,从而使它们能够生成新的内容,这些内容可以是类似于人造内容的文本、图像、音频或视频。

  ChatGPT、Midjourney、Stable Diffusion和DALL-E是生成式人工智能驱动的服务。

  虽然技术不是一种不可控制的力量,但因陀罗尼声称,基本权利、法律和社会价值观必须适应并塑造它。

  “如果我们愿意,我们就在驾驶座上。其中许多挑战都可以通过法律来解决。”

  她说,通过优先考虑消费者保护和应用消费者权利原则,政府建立了一个前瞻性的监管框架,确保人工智能技术的安全性、可靠性和公平性。“我们应该防止消费者被当作新技术的实验对象,”她补充说。

  ×

 
(文/admin)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.whsdu.com All Rights Reserved

赣ICP备16007947号-10