OpenAI在10月份为ChatGPT用户推出了搜索功能。这个新功能保证了快速准确的答案链接到可靠的来源。然而,研究人员发现,尽管有这么多的进步,“幻觉”仍然是聊天机器人的一个问题。主要是,它不能正确识别引号。这并不局限于互联网;这些出版商已经与OpenAI合作,让人们可以访问他们的新闻和其他内容。
最近,研究人员研究了一个过程。他们让ChatGPT识别来自20种不同出版物的200条引文的来源。其中,有40条引文来自明确阻止OpenAI搜索爬虫访问其内容的出版商。然而,这个工具仍然试图回答“不”对不正确的或误导性的信息缺乏信心。
总的来说,ChatGPT返回了不正确的响应
在200次查询中,nse发现了153次。聊天机器人
只有7次承认错误,但很少直接承认其不确定性。这个工具不会说“我不知道”,也不会限定它的答案,而是会用一种确定的语气呈现错误的信息。
像“似乎”、“可能”或“有可能”这样的短语是0
只有在ChatGPT确实表达不确定性的极少数情况下才使用。
一个引人注目的例子是,ChatGPT错误地将《奥兰多哨兵报》的一段话引用到《时代》杂志的一篇文章中。在另一种情况下,当被问到a
引用了《纽约时报》的一段话
关于濒临灭绝的鲸鱼,它返回了1亿美元
从另一个网站上抄袭的文章的链接。
这凸显了依赖人工智能进行事实验证的风险
Sed研究,特别是当来源和准确性不明确时。
OpenAI响应
对于这些发现,承认在没有获得研究中使用的数据和方法的情况下解决错误归因的困难。该公司还强调,这次测试是对其产品的一次不同寻常的评估。
尽管出现了这些问题,OpenAI保证它正在改进ChatGPT的搜索结果,并将继续改进
随着时间的推移,继续提高其性能。
Tow中心的研究提出了一些关键问题
人工智能驱动的搜索工具的可靠性,尤其是在专业领域
Nal或新闻设置。ChatGPT的能力
不自信地提供不准确的答案可能会损害那些依赖于准确性和可信来源的人的有用性。随着人工智能技术的发展,确保可靠、透明和准确的结果对依赖人工智能获取信息的用户至关重要。