solidot新版网站常见问题,请点击这里查看。
消息
本文已被查看 5905 次
研究发现 AI 的新闻摘要会经常性的扭曲事实
BBC 研究发现,AI 新闻摘要工具会经常生成不准确或误导性的摘要。生成式 AI 生成内容并非是基于事实而是基于统计概率,最新研究只是再次确认了这一点。研究使用了 OpenAI 的 ChatGPT、微软的 Copilot、Google 的 Gemini,以及 Perplexity 公司的 AI 助手。结果显示,51% 的 AI 答案存在严重问题; 19% 的 AI 新闻引用存在事实错误;13% 的 AI 引文要么改变了原文要么根本不存在。Google Gemini 表现最差,34% 的回答存在严重问题,相比下 Copilot 是 27%,Perplexity 是 17%,ChatGPT 是 15%。BBC News and Current Affairs CEO Deborah Turness 对 AI 工具可能进一步扭曲事实表达了担忧,认为开发生成式 AI 工具的公司在玩火,“我们生活在一个问题丛生的年代。需要等多久 AI 扭曲的新闻头条会对现实世界造成重大伤害?”
/.:AI Summaries Turn Real News Into Nonsense
/.:AI Summaries Turn Real News Into Nonsense