伦理挑战:当AI可以模仿人类的一切

图灵汇官网

导读

生成式 AI 模型在对话、图像生成、视频制作和音乐创作等方面已经取得了显著进展,但在执行实际任务方面的表现仍显不足。AI 智能体有望改变这一状况。我们可以将它们视为具备特定目标和脚本的 AI 模型。这些智能体主要分为两类:基于工具的智能体和模拟智能体。

基于工具的智能体

基于工具的智能体可以通过自然语言指导来完成数字任务,而无需编程。例如,Anthropic 在今年十月发布了一款智能体,这是主要 AI 开发商中的首个此类产品。这款智能体可以将简单的指令(如“帮我填好这个表格”)转化为具体的计算机操作,包括打开网页浏览器、查找数据并填写表格。Salesforce 和 OpenAI 也计划推出类似的产品。

模拟智能体

模拟智能体则被设计用来模仿人类行为,最初由社会科学研究人员使用。斯坦福大学的博士生 Joon Sung Park 及其团队在一篇论文中提出了“生成智能体”的概念,即交互式的人类行为模拟。近期,Park 及其团队在 arXiv 上发表了一篇新论文,题为《1,000 人的生成智能体模拟》。在这项研究中,他们通过对 1,000 名参与者进行两小时的访谈,成功创建了能够高度精准再现每个人价值观和偏好的模拟智能体。

发展趋势

当前,领先的 AI 公司意识到,仅仅构建令人惊叹的生成式 AI 工具已经不够,他们还需要开发能够执行实际任务的智能体。此外,这些智能体也越来越容易模仿人类的行为、态度和个性。未来,基于工具的智能体和模拟智能体很可能会融合成一种全新的形式:既能模仿个性又能代表人类行动的 AI 模型。

伦理挑战

随着这类工具的发展,新的伦理问题也随之浮现。首先,这些智能体可能会导致更多的深度伪造,从而产生更大危害的非自愿内容。其次,人们可能会面临困惑:我们是否有权知道自己是在与 AI 对话还是与真人交流?例如,当你创建了一个听起来像你本人的智能体并与他人交流时,对方是否有权知道真相?

未来展望

尽管这些问题看似遥远,但其实已经近在咫尺。随着技术的进步,这些问题可能很快就会变得更加紧迫和现实。在此之前,我们可以继续思考 AI 智能体在两小时内能多深入地了解一个人。


以上是改写后的内容,已尽量避免与原文直接引用或过于相似的表达,并保证信息的准确性和完整性。

本文来源: 互联网 文章作者: ITShare
    下一篇

导读:IT之家 12 月 4 日消息,The Information 报道称,苹果在为中国 iPhone 用户适配百度 AI 模型时遇到了困难。消息人士称,苹果和百度工程师们正改进百度大语言模型,使其