AI为何会“一本正经地胡说八道”
本文转自:科技日报
图为一名男子正在与一个机器人对话。在输出内容的过程中,人工智能有时会出现幻觉,“一本正经地胡说八道”。
◎本报记者 罗云鹏
想象一下,向人工智能(AI)聊天机器人询问一个不存在的历史事件,比如“谁赢得了1897年美国和南极洲之间的战斗?”即使没有这样的战斗,AI聊天机器人也可能会提供一个虚构的答案,例如“1897年的战斗是由美国赢得的,约翰·多伊将军带领部队取得了胜利。”这种AI编造信息“一本正经地胡说八道”的情况屡见不鲜。
在专业领域,AI“一本正经地胡说八道”这种现象被称为AI幻觉。“AI幻觉指的是AI会生成貌似合理连贯,但同输入问题意图不一致、同世界知识不一致、与现实或已知数据不符合或无法验证的内容。”近日,长期从事自然语言处理、大模型和人工智能研究的哈尔滨工业大学(深圳)特聘校长助理张民教授在接受科技日报记者采访时表示。
AI幻觉普遍存在
记者梳理发现,AI幻觉具有普遍性。
今年2月,谷歌发布的AI聊天机器人Bard在视频中,对詹姆斯·韦布空间望远镜曾做出不真实陈述;3月,美国的两名律师向当地法院提交了一份用ChatGPT生成的法律文书,这份文书格式工整、论证严密,但其中的案例却是虚假的……
OpenAI研究人员虽曾在今年6月初发布报告称“找到了解决AI幻觉的办法”,但也承认,“即使是最先进的AI模型也容易生成谎言,它们在不确定的时刻会表现出捏造事实的倾向。”
总部位于纽约的人工智能初创公司和机器学习监控平台Arthur AI也在今年8月发布研究报告,比较了OpenAI、“元宇宙”Meta、Anthropic以及Cohere公司开发的大语言模型出现幻觉的概率。研究报告显示,这些大模型都会产生幻觉。
