11 月 16 日,原阿里首席 AI 科学家贾扬清吐槽国内某一新模型中用的其实是 LLaMA 架构,仅在代码中更改了几个变量名引发网络热议。
在被指大模型回应并发布训练模型过程后,贾扬清最新发文谈了为什么开源领域“魔改”要不得。
贾扬清指出,开源是一个相互合作的事情,本质是要大家能够求同尊异,讨论设计,磨合观点,最后拧成一股绳往前走。初入开源以及 better engineering 的人往往有一种倾向,“这代码我拿来,魔改下,然后我自己自定义也灵活,何乐而不为?”但是就社区而言这种事情绝对弊大于利,最后形成各种分裂的技术体系,没法维护,没法协作,对于创作者和使用者都是非常大的问题。
他还表示,魔改一时爽,社区火葬场,要真的做出成就来,就得真的有能够和社区一起玩的心。
11 月 14 日,“零一万物”公司正式公开回应了此事,该公司开源团队总监 Richard Lin 承认了修改 Llama 张量名称的做法不妥,将会按照外界建议把“修改后的张量名称从 Yi 改回 LLaMA”。
11 月 15 日,零一万物正式公开了对 Yi-34B 训练过程的说明。李开复也在朋友圈转发了该说明,并表示:“零一万物 Yi-34B 模型训练的说明也回应这两天大家对于模型架构的探讨。全球大模型架构一路从 GPT2–>Gopher–>Chinchilla–>Llama2->Yi,行业逐渐形成大模型的通用标准 (就像做一个手机 App 开发者不会去自创 iOS、Android 以外的全新基础架构)。01.AI 起步受益于开源,也贡献开源,从社区中虚心学习,我们会持续进步。”
相关阅读:
《AI 公司“零一万物”回应 Yi 开源大模型“抄袭 LLaMA”事件:承认做法不妥,将修改争议张量名》
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。