世界卫生组织于2024年4月2日推出了一款名为“智能AI健康资源助理”(SARAH)的聊天机器人,旨在利用GPT-3.5的强大功能,以多语种服务全球民众,提供饮食、戒烟、减压等全方位健康建议。然而,如同众多AI助手面临的挑战,SARAH并非完美无缺,它也未能幸免于提供错误信息的问题。
在一次使用过程中,用户发现SARAH提供了关于美国旧金山不存在的诊所名称和地址,这一失误揭示了AI在信息准确性方面的局限性。世卫组织在其官方声明中明确指出,SARAH提供的信息可能并非始终准确可靠。
深入理解AI助手的工作原理,我们发现它们并非简单的信息检索工具。当用户提出问题时,AI助手依据预先训练的大规模语言模型进行响应,而非直接从数据库或网络搜索结果中提取答案。这一模型内部运作机制宛如一个庞大的电子表格,记录着不同词汇组合出现的概率。通过预测下一个最可能出现的词汇,AI助手生成文本,从而创造出看似合理但实际上源自概率推断的回复。
AI助手之所以产生“幻觉”,源于其设计目标就是模拟人类语言的生成,通过学习大量文本数据中的模式和关联,生成看似自然流畅的回复。尽管这种技术在大部分情况下表现得相当出色,但在特定情境下也可能产生误导性的信息。目前,控制AI助手生成准确无误内容的技术挑战主要在于模型的复杂性和不可控性。研究人员正探索通过增加训练数据量、引入事实验证机制等方法来提升AI的可靠性,但实现全面的误差校正仍面临技术难题。
未来,随着AI技术的发展,我们期待AI助手能够具备更强大的自我校准与事实核查能力,逐步减少生成错误信息的风险。通过逐步验证、反馈循环等机制,AI系统有望在生成文本时进行更加精准的事实核查,甚至在必要时回溯纠正已生成内容,从而提高其整体可信度和实用性。然而,当前阶段,AI的“幻觉”现象仍是其发展道路上的一大挑战,需要持续的技术创新和应用实践来克服。
面对AI助手的局限性,重要的是建立合理的预期,认识到AI在提供信息时的潜在偏差。通过教育用户了解AI技术的边界,以及在使用过程中保持批判性思考,我们可以更有效地利用AI助手提供的资源,同时避免因误解或忽视其可能存在的错误而导致的不利后果。
《麻省理工科技评论》人工智能栏目高级编辑,专注于报道前沿研究、新兴趋势及其背后的影响。此前担任BBC科技与地缘政治网站Future Now的创始编辑,以及New Scientist杂志的首席技术编辑。威尔拥有英国伦敦帝国理工学院计算机科学博士学位,对AI与人类协作领域有着深入的理解和经验。