当前位置:»资讯 AI新闻 全球AI最前线

[观点] Meta首席执行官马克·扎克伯格认为对训练大模型而言,“反馈循环”比海量数据重要

WX20240422-081939@2x.png


当大多数人工智能高管忙于争夺更多数据时,Meta的首席执行官马克·扎克伯格在一次新的访谈中对人工智能数据竞赛提出了自己独到的见解。随着人工智能领域的竞争日益激烈,众多科技公司正竞相获取新的数据源。然而,扎克伯格认为,对于训练人工智能模型而言,“反馈循环”的重要性远超数据本身。
在科技行业时事通讯媒体的一次访谈中,扎克伯格表达了对大型科技公司对人工智能训练数据争夺的看法:“我认为,相较于任何类型的前期语料库,反馈循环的价值更为显著。”

反馈循环是一种机制,它允许根据AI模型之前的输出来重新训练和改进模型。这意味着,当AI模型犯错时,这些算法可以告知模型其错误所在,并提供必要的数据以优化其未来的性能。

扎克伯格进一步阐释说:“让大量用户使用AI,观察他们如何与AI互动,并据此进行改进,随着时间的推移,AI将变得更加出色。”

目前,获取新数据以喂养那些永不满足的人工智能模型——理论上这将使它们变得更加智能——已成为那些渴望在人工智能领域占据主导地位的公司的一种痴迷。据《纽约时报》报道,Meta公司一度因对数据的渴望而考虑收购出版公司Simon & Schuster,甚至不惜冒着版权诉讼的风险来获取更多材料。

除了获取现有数据,另一种解决方案是创造新数据,大型科技公司称之为“合成数据”。合成数据是人工生成的,旨在模仿现实世界事件所生成的数据。扎克伯格对此表现出浓厚的兴趣。

他指出:“我认为将会出现大量的合成数据,你可以让模型尝试解决不同的问题,观察哪些路径最终有效,然后利用这些信息来加强模型。”

聊天机器人Claude的制造商Anthropic也将内部生成的数据输入到其模型中。ChatGPT的制造商OpenAI也在考虑这一策略,尽管其首席执行官Sam Altman在去年5月的一次会议上提到,关键在于拥有一个“足够智能以生成优质合成数据”的模型。

尽管扎克伯格认为反馈循环是构建强大人工智能模型的关键,但依赖反馈循环也存在风险。如果AI模型在初始阶段没有接受过“良好数据”的训练,它们可能会加剧自身的一些错误、局限性和偏见。


声明: 本站所有内容来源于用户上传,用来分享交流。如有资料或者图片不小心侵权,请发邮件(41835170@qq.com)告知!
分享到:
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

豫ICP备2024052610号-1 ©AI闹海