研究人员评估大模型识别假新闻的能力


威斯康星大学斯托特分校的研究员 Kevin Matthe Caramancion 评估了流行大语言模型识别假新闻的能力。他评估了四个大模型,包括 Open AI 的 Chat GPT-3.0 和 Chat GPT-4.0,Google 的 Bard/LaMDA 以及微软的 Bing AI。他向这些模式输入了已经过人类事实核查的新闻。结果显示,OpenAI 的 GPT-4.0 表现最出色。但所有四种大模型都落后于人类事实核查人员,突出了人类认知的不可替代价值。研究报告发表在预印本平台 arxiv 上。


© 版权声明
文章版权归作者所有,未经允许请勿转载。

前一篇:

后一篇:

发表回复