二维码
文文衫

扫一扫关注

当前位置: 首页 » 新闻资讯 » 企业新闻 » 正文

算法是如何毁了你最喜欢的酒吧的:所有东西最终看起来都一样吗?

放大字体  缩小字体 发布日期:2025-05-11 19:23:07    来源:本站    作者:admin    浏览次数:77    评论:0
导读

    20世纪80年代,未来学家汉斯·莫拉维克(Hans Moravec)警告说,自相矛盾的是,对人类来说最容易的动作(比如用两根筷子

  

  20世纪80年代,未来学家汉斯·莫拉维克(Hans Moravec)警告说,自相矛盾的是,对人类来说最容易的动作(比如用两根筷子夹一块寿司)将给机器人和计算机带来最大的困难。另一方面,一些非常复杂的任务,比如发现医疗处方中的错误,分辨太空望远镜什么时候探测到有趣的东西,或者为全家选择圣诞礼物,对算法来说都变得非常简单。

  “人工智能已经做到了这一点,”我们越来越频繁地争论。但根据成千上万的科学家和哲学家的说法,这个标签并不完全合适。“这两个词(人工和智能)都是有争议的,而且非常可疑。我更喜欢机器学习这个词,因为它更容易理解我们在谈论什么:允许机器学习模式或相关性并将其应用于新情况和数据的系统,”贾斯汀·乔克解释说,他在密歇根大学任教,是《革命数学:人工智能、统计学和资本主义逻辑》的作者。

  “公众中有一些困惑是合理的,因为这些概念对于没有数学背景的人来说很难理解。空间科学研究所(Institute of Space Sciences)的数学家塞尔萨·帕尔多·阿劳霍(Celsa Pardo-Araujo)的研究重点是机器学习在天体物理学中的应用,他解释说:“围绕人工智能有很多神秘主义,就像在任何其他科学领域一样:对癌症的研究,当我们谈论不明飞行物时的天文台……这些都是有趣的问题,它们被广泛宣传,所以总有一些人会对它们产生病态的好奇心。”她补充说:“同样清楚的是,b谷歌、DeepMind和微软正在创造算法,解决以前无法解决的问题。”

  但影响我们的部分来了:除了解决某些问题和在科学研究中非常有用之外,算法还生成内容,最重要的是,对我们自己创造的一切进行排序和分层。这既包括世界文化的多样性,也包括我们吃早餐时拍的最后一张照片。他们使用什么标准?这些作品是什么样的?这是最令人担忧的部分,因为正如凯尔·查卡(Kyle Chayka)在2024年出版的《过滤世界:算法如何使文化扁平化》(Filterworld: How Algorithms flat Culture)一书中所指出的那样,地图(即奖励某些内容的算法)已经在影响领域(即内容本身的形式和我们移动的现实,尤其是在城市中)。

  Yellow Coffee Cup pop art pattern on a pink background

  Chayka举了一个想要显得老练的互联网咖啡馆的例子:如果他们都提供同样的产品,他们的装饰如此相似,如果访问他们的公众在世界各地看起来也如此相似,那是因为他们的经理正在遵循Instagram强加的模式,即优先考虑某些图像而不是其他图像。Instagram只吸引观众的地方上传照片适合它的算法,这是发生在所有领域:已经有音乐家教如何写歌,以便他们将病毒TikTok(例如,合唱非常接近一开始)和许多插图画家模仿皮克斯风格无论它刺激他们(这也是许多自动图像生成器),因为他们发现,这有助于他们去病毒。

  社会学家皮埃尔·布迪厄(Pierre Bourdieu)通过20世纪60年代在法国进行的实证研究,研究了“品味的社会基础”,并发现了教育程度、就业类型或可支配收入(即社会阶级因素)等问题与审美偏好之间的数十种相关性。如今,当算法对我们的品味有了更精确、更个性化的信息(我们一直在向它们提供这些信息),而且它们的一些建议让我们满意(Spotify在为我们设计播放列表时很少出错),我们仍然觉得,许多平台只放大最糟糕的内容、最煽情的内容或最具误导性的内容。

  Pardo-Araujo解释说:“例如,YouTube的推荐系统将有一个核心,最初由一定数量的用户训练,然后它会收到反馈,并根据每个流重新训练自己。”“的确,算法会重现许多偏差,因为你永远无法用整个人群来训练它们,你必须非常小心地处理这个过程:分布必须代表现实。但有趣的是,算法中的偏见会产生如此多的警报,而我们自己也有如此多的偏见,我们也应该从我们的良心中消除。在算法中识别它们可能比在我们自己身上更容易,”这位数学家补充道,他相信算法反映了社会中已经发生的事情。

  different choices of tea and coffee

  但在算法方面,适应用户口味与塑造和指导用户口味之间的界限非常模糊。这就是感觉出现的地方,我们被一次又一次地展示和推荐相同事物的变化。例如,有些人指责比莉·艾莉什(Billie Eilish)在写歌时考虑到了TikTok,但我们不是更容易相信,在无意中,这些歌是这样写出来的,因为在她这个年龄,她花了好几个小时接触TikTok?这种对已有趋势的算法反馈是文化界最令人担忧的。事实上,这就是像Chayka这样的作家所说的“文化的扁平化”的过程,这导致了越来越保守的作品。创作者有意无意地复制了算法的偏见(反过来,这些偏见是以前的艺术家和用户的偏见)。

  在技术层面上,将越来越多的相似样本(或由以前的算法直接产生)引入系统对其进化构成了主要威胁。他指出,经过几代人工智能输出训练的系统很快就会变得荒谬,并补充说,高质量的人工生成内容可能成为石油或煤炭等资源的风险是真实存在的。

  在艺术层面上,算法“不断地反馈到当前的循环趋势中”,Luis Demano说,他是一位插画家,也是一位反对在他的领域滥用生成人工智能的活动家。他已经确定了哪些图像最受自动系统的奖励和复制:“它们往往是接近照片侧面的现实表现,并采用非常有特色的色彩处理,在暖色调和冷色调之间形成大量的照明对比。”除了有助于降低成本外,Demano还认识到,“进入算法的游戏”对那些使用它们的人来说是一种奖励:“它奖励了我们,让我们觉得自己受到了关注。自我是一种非常强大的**。”

  在启蒙运动之后,当作者和原创性的概念发展起来时,艺术成为一种新型个人的最典型的实践:创造性的,自主的,自由选择自己的规则和他们将适用于他们作品的规则。生成式人工智能在制作作品时使用的规则与此无关:它们是一种统计近似,利用了它所训练的作品的特征,以及关于注意力市场功能的数据。

  迪莫抱怨说:“我坚决认为,科技公司窃取受版权保护的作品来训练他们的模型。”虽然原创性是一种难以定义的属性,但哲学家们很清楚:它不可能在人工智能产品中找到。Joque解释道:“创意不仅是艺术作品本身的问题,也是创作过程的问题。“最近,我让学生们读博尔赫斯的短篇小说《堂吉诃德》的作者皮埃尔·梅纳德。这个故事描述了古怪的作家梅纳德,他的秘密工作是逐字逐句地重写《堂吉诃德》。博尔赫斯认为,在20世纪写同样的词完全改变了作品,因为梅纳德赋予了它们不同于塞万提斯在17世纪早期写这些词时赋予它们的含义。虽然博尔赫斯这样写有点开玩笑,但我认为他是在暗示,艺术创造的条件影响着我们如何理解它,以及我们是否觉得它有趣。即使人工智能可以创作出罗斯科风格的作品,在21世纪自动完成它也永远无法与罗斯科在20世纪所做的相比,”这位教授和哲学家解释道。

  那么,人工智能到底是做什么的,为什么它的所有作品或产品看起来都如此相似?Demano回答说:“它们不是用来创造艺术的,而是用来产生内容的。这两项之间的差异是由它们所完成的功能决定的。内容作为一项业务服务于制作互联网的无限广告牌。生成式人工智能是科技行业的解决方案,可以尽可能快速有效地满足这一需求。它最大的成功在于让我们相信,使用它可以让我们立即成为艺术家,而实际上我们是内容需求服务的客户。”因此,当我们在算法生成或提供给我们的所有东西中发现家族相似性时,我们面临的不是恶意偏见或风格问题:这只是市场强加给我们的。

  了解算法的工作原理有助于我们理解,它们没有**倾向,而是在循环那些能激起我们最激烈反应的东西,那些不需要集中注意力的东西,或者那些能更快被消化的东西。当算法被神化时,我们忘记了它是一种简单的机制,它的开发和操作涉及到许多人类主体:命令编程以实现利润最大化的人,作为一份有偿工作编写代码的人(肯定是一名薪水微薄的自由职业者),用他们的创作训练它的人(在许多情况下是不自觉的),以及在他们的电脑或手机上运行它并同时提供它的人。

  当然,我们不应该责怪用户,但我们也不应该责怪整个过程的真正操纵者背后隐藏的机制:一个不关心他的平台复制的内容类型的商人;换句话说:亚马逊不区分发行陀思妥耶夫斯基的《卡拉马佐夫兄弟》还是社交媒体明星埃尔·鲁比乌斯的《巨魔书》。马克思写道,我们常常认为社会结构是不可移动的物体或无可争辩的自然规律。这是一种错觉:所有的社会结构、科学和工业结构(人工智能是其中之一)都是我们的行为和关系的结果,只要有足够的集体力量,它们是可以被修改的。

 
(文/admin)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.whsdu.com All Rights Reserved

赣ICP备16007947号-10