在国外有一种理论,认为当前的互联网已经“死亡”。这种观点认为,活跃在互联网上的许多用户实际上是机器人,这些机器人不仅产生了大量内容,还引导着舆论。
这种理论被称为“已死的互联网理论”,在国外讨论热烈,但在国内却鲜有人提及。
该理论的核心在于两点:一是机器人替代了人类在网络上的活动;二是行为者利用这些机器人来操控网民。有人认为,当机器人的网络活动超过人类时,互联网就进入了“死亡”状态。这一理论中的“死亡”时期大致在2016年至2017年间。这一时间点的主要依据来源于2016年一家名为Imperva的安全公司发布的报告,该报告显示机器人占用了互联网流量的52%。
尽管这一理论难以考证其最初提出者,但它常被视为一种阴谋论。然而,事实或许比表面上看起来复杂得多。
实际上,现在的机器人不仅消耗了超过50%的网络流量,还生产了超过50%的内容,尤其是在社交媒体平台上。机器人不仅生产文章、视频和图片等内容形式,甚至在评论区也占据主导地位。例如,许多社交平台引入了官方评论机器人,有的明确告知用户这是AI评论,有的则不作说明。
我自己一直在做自媒体工作,因此对这些现象深有体会。那些看似毫无逻辑的评论大多是由机器人产生的。一些数据显示,互联网内容超过一半由机器人生成的现象始于2022年。这一年,OpenAI推出了ChatGPT,这是一种能够模仿人类创作内容的强大生成式AI模型,而且对所有用户开放,部分服务还是免费的。
以前所谓的机器人内容大多是“伪原创”,通过一些工具简单修改现有文章,以欺骗搜索引擎或社交平台,从而获得更好的排名。但随着生成式AI的发展,这一切都发生了变化。如今,人工智能可以根据简单的指令几秒钟内生成相应的内容,无论是文章、图片还是视频。
因此,我们看到的大部分内容如果不是由机器人生成的,反而显得不正常。不仅如此,许多所谓的网络大V,其背后也可能只是机器人。
社交平台通常不会公开机器人内容的比例,也不会公开哪些账户是由机器人操作的。然而,在马斯克收购推特(现更名为X平台)期间,这一问题得到了广泛关注。推特原老板曾表示,约5%的每日活跃用户是机器人,但马斯克聘请的专业机构Cybra进行了重新评估,结果显示,推特上约有13.7%的用户是机器人。
更令人惊讶的是,这些机器人用户创造了大部分推特内容。人们不禁会问,为什么人们要不遗余力地让机器人生产内容?社交平台又为何不进行筛选?
答案很简单:平台根本无法管理如此庞大的数据量。机器人会不断调整自己的内容,以逃避搜索引擎或社交平台的审查。
据我了解,机器人内容的主要目的有三个:
获取广告分成:许多没有接触过自媒体的人可能不知道,平台上发表的作品是可以获得广告分成的。这部分收益是许多自媒体创作者的重要收入来源。例如,一条百万播放量的视频可能带来数千元的收入,即使在市场不景气的情况下也是如此。
账号买卖:从最早的微博兴趣开始,互联网上就形成了一个专门买卖社交媒体账号的灰色产业链。如今,人们可以用极低的成本购买任何社交媒体平台的账号,包括拥有数百万粉丝的账号。这些账号的粉丝并非全是僵尸粉,而是通过机器人批量抓取和发布内容吸引来的。
引导舆论:评论区是引导舆论的一种手段,但机器人不仅仅是通过评论来引导,它们还会制作和发布相应的内容。由于我们常常难以全面了解事件真相,因此很容易被这些断章取义的内容所误导。一些别有用心的人会利用大量机器人发布断章取义的内容,将舆论引向有利于自己的方向。
因此,任何互联网上的热点事件都需要理性对待,否则很容易站错队。
如果行为者的目的是为了获取广告分成和吸粉卖号,那么他们往往不会对自己的内容负责,只在乎流量。而没有人工审核的机器人内容只会制造虚假信息,加上断章取义的引导,使得当前互联网充斥着大量虚假信息。因此,说互联网已经“死亡”并非夸张。