斯坦福大学的社会媒体实验室创始人、错误信息专家杰夫·汉考克在一份法庭文件中承认,他曾使用人工智能工具ChatGPT来整理引用文献,但这一过程导致了一些错误信息,即所谓的“幻觉”。批评者认为,这些错误严重影响了文件的可信度。
汉考克向法庭提交了一份宣誓证词,旨在支持明尼苏达州关于“使用深度伪造技术影响选举”的法案。然而,有人发现他的证词中存在一些不存在的引文,因此认为该文件“不可靠”。
面对质疑,汉考克承认确实使用了ChatGPT,但他强调自己并未借助它来撰写内容。他表示,所有的内容都是他自己撰写并经过仔细审查的,并且每一条主张都有坚实的学术研究作为支撑。汉考克还提到,为了找到相关文献,他使用了Google Scholar和GPT-4来生成引文列表。不幸的是,GPT-4生成的两个引文出现了错误,即所谓的“幻觉”,另外还有一个引文被错误地标记了作者。
汉考克表示,他对由此造成的混淆感到抱歉,但他仍然坚持宣誓证词中的主要观点。这一事件提醒我们,在使用AI辅助工作时,人工审核和验证仍然是非常重要的步骤。