麻省理工教授呼吁AI公司量化产品失控风险:像首次核试之前那样

图灵汇官网

AI 的发展正引发越来越多的关注。最近,麻省理工学院的研究人员马克斯·泰格马克表示,通过对人工智能的风险评估发现,高度智能的 AI 很有可能对人类构成重大威胁,这一可能性高达九成。这个结论让人联想到上世纪 40 年代美国科学家阿瑟·康普顿在核试验前进行的计算。

当时,美国在确认原子弹不会导致大气层燃烧的情况下,成功完成了具有里程碑意义的“三位一体”核试验。如今,泰格马克和他的团队提出,应该用类似的方法来评估人工智能的风险。他们建议参考“康普顿常数”的概念,即评估强人工智能失控的可能性。

康普顿曾在一次访谈中提到,他在确认核聚变失控的概率极低之后,才同意进行核试验。泰格马克认为,人工智能公司不能仅凭直觉行事,而是需要精确计算 AI 是否会超出人类的控制范围。他强调,那些研发超级智能的企业必须提供具体的统计数据,而不仅仅是口头保证。

此外,泰格马克还提出,如果多家公司能够共同计算出这一风险值并达成一致意见,将有助于在全球范围内构建更加完善的人工智能安全框架。

作为麻省理工学院的物理学教授和 AI 研究专家,泰格马克同时也是“未来生命研究所”的联合创始人。这家机构一直致力于推动人工智能的安全发展。去年,该组织发起了一项公开倡议,呼吁暂停进一步开发更为强大的 AI 系统。这项倡议得到了超过三万三千人的支持,包括知名人士如埃隆·马斯克和史蒂夫·沃兹尼亚克。

公开信中提到,目前各大实验室正在展开激烈的竞争,不断推出更强大的 AI 系统,但这些系统往往超出了人类的理解、预测以及可靠操控的能力,存在潜在的危险性。

本文来源: 互联网 文章作者: 德庆央珍
    下一篇

导读:财联社5月9日讯(编辑 赵昊)周四(5月8日)发布在国际医学期刊《柳叶刀-数字医疗》的文章显示,研究人员正在使用深度学习系统“FaceAge”来估算人体的生物年龄。来源:《柳叶刀-数字医疗》网站