solidot新版网站常见问题,请点击这里查看。
消息
本文已被查看 5344 次
研究显示大模型生成虚假临床信息的可能性高于五成
根据发表在《Communications Medicine》期刊上的一项研究,纽约西奈山医疗中心的研究人员在三种条件下测试了六种大模型,其中一种条件是温度 0。结果显示,不同模型和提示方法的幻觉率在 50% 到 82% 之间。所谓幻觉就是生成了虚假信息。研究人员使用了基于提示词的缓解措施,幻觉率从 66% 降低到 44%,其中表现最佳的是 OpenAI 的 GPT-4o,其幻觉率从 53% 降至 23%。调正温度对减少幻觉率没什么帮助。
www.nature.com/articles/s43856-025-01021-3
www.nature.com/articles/s43856-025-01021-3