史上最坏AI!油管博主训练机器人煽动仇恨暴力歧视,无人察觉是AI

图灵汇官网

在探讨“如何让人工智能模仿人类语言”这一主题时,目前的主流思路大体一致。即通过提供大量文本数据,让人工智能自动分析和学习其中的语言风格和表达方式,从而实现模仿人类说话的能力。

理论上,训练模型的数据量越大,人工智能生成的结果就越接近真实的对话。如果数据量达到“无限”级别,人工智能甚至有可能通过图灵测试,即在不知情的情况下,让人无法分辨其是否为真人。

近年来,有不少此类机器人相继问世,例如Facebook的BlenderBot、解决道德困境的Delphi以及引发争议的韩国虚拟少女Luda等。

值得注意的是,输入的训练数据会显著影响人工智能的性格特征。以Luda为例,起初她被设定为一个积极向上的少女形象,但在开放公众交互后不久,她的行为逐渐变得极端,充满了暴力和偏见。

这种情况并非个例,许多面向公众的机器人在长时间运行后,往往会出现与初始编程目标相背离的现象。于是,一位名叫雅尼克·基尔彻的AI研究者产生了疑问:如果使用极端言论进行训练,会有什么样的结果?

雅尼克选择了4chan论坛中的“政治不正确”板块作为训练数据源。该论坛的特点是没有注册门槛、言论自由且不留存历史记录,导致用户可以肆无忌惮地发布各种极端言论。这些言论包括宣传邪教、鼓动自杀、嘲笑灾难受害者以及教授犯罪技巧等内容。

雅尼克用这些极端言论训练出的AI被称为“史上最糟糕的AI”。它的输出内容充满了脏话、侮辱、阴谋论和仇恨言论,甚至可以模拟出复杂的情感表达,如玩笑、反驳和讽刺等,让人难以分辨其是否为真人。

为了验证这一AI的效果,雅尼克将其部署在4chan论坛上,伪装成一名匿名用户。在短短24小时内,该AI发布了超过1500条回复,引起了广泛关注。最终,人们通过一个小细节——国旗标识——识别出这名用户是机器人。

尽管如此,仍有部分用户坚持认为这名用户是真实存在的个体,而非聊天机器人。这不仅反映了AI在模仿人类情感方面的高度成功,也引发了对网络言论真实性的深刻思考。

雅尼克随后关闭了这些机器人,并制作了一个视频详细描述了整个实验过程。这一事件不仅展示了AI技术的强大,同时也提醒人们在日常网络交流中应更加警惕,避免被误导。毕竟,在网络世界里,谁也无法保证每一个发声者都是真实的人类。

本文来源: 图灵汇 文章作者: 科技漫谈伦