岁末时节,我有幸参加了2024年几位诺贝尔奖得主举办的一场思想座谈会。会议主题聚焦于人工智能的发展及其带来的风险。其中,物理学家兼人工智能领域的权威人物辛顿教授在采访中首先发言,指出GPT4等语言模型的知识储备已经超过了任何单一的人类个体。比如,人类大脑的连接点大约有一百万个,而这种机器的连接点数量则达到了一万亿。
辛顿教授进一步指出,人类面临潜在的短期和长期风险。短期风险包括人工智能可能被恶意利用,如传播虚假信息、网络犯罪,甚至军方开发致命的自主武器。长期风险则涉及到生成式人工智能一旦具备自主学习和决策的能力,可能会对人类构成威胁。为应对这些风险,他呼吁国际层面的合作,共同研究人工智能的安全问题。
此外,几位诺贝尔奖得主一致强调,人类自身并不完美,科学与哲学的互补非常重要。他们呼吁加强公众对科学的信任,强调伦理学在人工智能时代的重要性。他们认为,哲学家在这一过程中不可或缺,因为伦理学将成为这一时期最重要的一门学科。
过去两年,我一直密切关注人工智能领域的发展。然而,直到最近,我才被尤瓦尔·赫拉利(Yuval Noah Harari)的新书《Nexus》彻底吸引。这本由美国企鹅兰登出版商于2024年9月出版的书籍,探讨了从石器时代到人工智能时代的信息网络演变。
赫拉利不仅是畅销书的作家,同时也是一位历史学家和哲学家。他在书中强调,信息至少需要两点之间的联系,因此,信息本质上被组织成连接的网络。一些网络变得越大,就越占主导地位,最终导致了机器智能和人工智能的发展。赫拉利希望通过这本书让人们理解这一信息革命,并将其与过去的革命进行比较。他认为,历史研究的关键在于揭示变化,而不仅仅是过去的现象。
赫拉利认为,信息革命不仅关乎技术进步,还反映了人类社会的变化。他提到,人类创造的第一个信息技术是故事。故事不仅促进了交流,还帮助人类在家庭、部落和物种层面取得成功,从而成为地球上最先进、最具统治力的物种。赫拉利进一步探讨了从写作到出版,再到互联网的技术如何加速了人类交流故事的能力。
赫拉利指出,事实虽然重要,但故事往往更具影响力。例如,一个人可以记住《古兰经》、《圣经》或《伊利亚特》的全部内容,但很难记住一份会计报告或人口普查数据。这反映了人类信息处理的过程。随着技术的发展,非生物的信息技术从纸质文件发展到电子设备,最终演变为计算机领域。计算机能够在海量数据中追踪和计算模式,这也体现了故事理论的哲学意义。
赫拉利在书中详细阐述了科学的自我修正机制。他认为,科学群体是自我纠错能力最强的群体之一。科学革命的关键在于筛选机制,这使得科学不断进步。他举了一些具体的例子,如17世纪成立的英国皇家学会和法国科学院,以及《皇家学会哲学学报》等科学期刊。这些机构和期刊通过实证研究,不断揭露和修正错误,从而推动了科学的进步。
赫拉利强调,科学革命的成功在于其自我修正机制,而非单纯的技术革新。科学文化没有绝对正确的经典,也没有宣称任何科学家是绝对完美的。相反,科学鼓励怀疑和创新,不断质疑现有的理论,即使是最著名的科学著作也会有错误和疏漏。科学是一项团队工作,需要团队协作才能取得进展。
人工智能的发展已经不可逆转,如何确保其健康发展已成为全球关注的重点。我们需要在伦理学方面加强建设,以确保人工智能的发展符合人类社会的价值观和利益。同时,科学的自我修正机制将继续发挥重要作用,帮助我们应对未来的挑战。