人工智能动态

微信公众号

人工智能报

微信视频号

图灵汇

抖音号

图灵汇

小红书

AI中国

头条号

媒体矩阵

更多

以上自媒体由本平台或本平台合作伙伴提供服务。

    11月 19
  1. 今天
  2. 星期二
43:00
grade

在5月29日的科技动态中,开源语言模型的发展备受瞩目。尽管存在争议,但它们是否能与行业巨头如OpenAI、谷歌等公司提供的专业训练语言模型相抗衡呢?近期,关于使用Alpaca Formula训练的开源模型的讨论引起了广泛关注。

Alpaca Formula这一概念涉及将ChatGPT生成的数据用作微调基础模型,如Meta的LLaMA。这种方法使得LLaMA能在短时间内迅速学习并产出类似ChatGPT的输出,且所需的计算资源相对较少。然而,伯克利大学的研究团队在一项新研究中提出了不同的观点。

研究者尝试将Alpaca Formula应用至LLaMA和GPT-2的基础模型,并通过人工评估与GPT-4的自动评测相结合的方式进行测试。起初,基于先前开发者的研究,他们发现使用指令优化的模型(即“模仿模型”)在性能上显著超越了基础模型,与ChatGPT水平相当。

不过,进一步的评估揭示了更复杂的真相。在特定的任务中,模仿模型确实表现出色,尤其是在那些模仿数据集涉及的领域。但在更广泛的评估中,这些模型与GPT-4之间仍存在明显的性能差距。这是因为基础模型在广泛预训练阶段就积累了大量功能,而并非仅仅通过微调过程获得。

研究指出,负责评估的人工智能内容的工作人员往往缺乏专业知识,可能容易受到误导。此外,OpenAI研究员John Schulman也对使用ChatGPT数据微调开源基础语言模型提出批评,认为如果微调数据集中包含原始模型未有的知识,可能会导致产出更多不准确的内容。

以上内容来源于科技资讯平台“站长之家”。

扫描二维码即可下载图灵汇App
  • 扫码关注
  • 图灵汇