法国 AI 测试公司 Giskard 发现,要求 AI 聊天机器人给出简洁答案会显著增加幻觉的可能性。研究显示,包括 OpenAI 的 GPT-4o(ChatGPT 默认模型)、Mistral Large 和 Anthropic 的 Claude 3.7 Sonnet 在内的先进模型,在被要求给出简短答案时,其事实准确性都会下降。研究人员猜测,在要求简洁答案时,AI 模型会优先选择简洁而不是准确性。简洁之类看似无害的提示词会削弱模型揭穿错误信息的能力。
前一篇:避开 AI 日益困难,但退出的自由必须被保护
后一篇:xAI 的 Grok 突然不停的说南非“白人种族灭绝””
要发表评论,您必须先登录。