刚刚,70亿独角兽被“打假”
AI行业真的要注意下形象:不要过度PR,更不要撒谎。守卫真实,创业者人人有责。这是整体建议,不针对单个公司。 作者丨铅笔道 直八 11月14日,一位融资4轮的AI创业者向铅笔道透露:11月6日,看到零一万物发布Yi系列大模型,问鼎多项世界第一,内心很兴奋
AI行业真的要注意下形象:不要过度PR,更不要撒谎。守卫真实,创业者人人有责。这是整体建议,不针对单个公司。
作者丨铅笔道 直八
11月14日,一位融资4轮的AI创业者向铅笔道透露:11月6日,看到零一万物发布Yi系列大模型,问鼎多项世界第一,内心很兴奋。
零一万物由李开复(创新工场创始人)创办,成立于2023年5月16日,仅耗费6个月,就研发出“世界最强”大模型,估值超10亿美元(破70亿元)。
据“零一万物”官方公众号称,据大模型社区Hugging Face评测,Yi成为全球开源大模型“双料冠军”,是迄今为止唯一登顶该社区全球开源模型排行榜的国产模型。
文章称,厚积薄发的成绩仰赖于自研的“规模化训练试验平台”和超强AI infra(基础设施)能力。
据零一万物官方公众号称,Yi已跻身世界范围内开源最强基础模型之列
新模型出现后,引发了部分应用类公司关注,他们要着手测试:该大模型能否赋能自家产品。
但经过一周测试后,这位AI创业者显得比较失望。“测试结果一言难尽。PR做得太好,把我唬住了,没细看就让技术测试,傻乎乎的。有些耽误我们的时间。”
关于具体原因,他称:“不算自研模型,用的是别人的神经网络框架。”
他推测,所谓的“Yi”系列大模型,可能是借用别人的框架做了些自己的训练,喂了不同的语料进去——更像应用工程师做的事情。“满足适当条件后,我们团队也能做。”
其实,这件事在前一晚就传开了。
一封邮件显示,“Yi”系列模型被提交至Hugging Face后,后者回复道:据我们了解,除了两个张量被重命名外,Yi完全使用LLama架构。
“张量”是一种核心数据结构,而LLaMA与GPT一样,都是AIGC的主流基础模型。
Hugging Face称:后续会重新发布Yi,并重新命名张量(把名字改回来)。
原阿里首席AI科学家贾扬清也发布了一条朋友圈,大约意思是:“上周,有某海外客户要我们帮他们适配某国内大厂新模型,我们太忙,暂时还没做。今天有朋友说,这个新模型实际就是LLaMA,但为了表示不一样,把代码里的名字(LLaMA)换成了自己的名字。
最后他给出建议:如果就是开源的模型结构,建议就叫原来的名字,免得大家还要做一堆工作,就为了适配你们改名字。
以上信息,贾扬清并没有点名道姓,但事实细节与Yi确有诸多相似之处。
事发之后,AI从业者褒贬不一。
一位AI创业者张化(化名)表示:“部分价值值得肯定。Yi虽借用了别人的框架,但从0开始做了训练。只是换名字确实没必要。”
另一位AI创业者王佳(化名)称:“类似套壳也合理,这么短时间要做出世界最强模型,估计都得这么干,是正确做法,可以大大方方说出来,但套壳冒充原创做得不对,再多人认可也不对。”
AI创业者张方(化名)称:“改名有可能是程序员的锅,并非公司有意为之。”
其实,这件事的细枝末节并不重要,重要的是,它给了AI产业敲响一记警钟:凡AI参与者,应该把实事求是放在重要位置。
过度PR容易劳民伤财,实际收效甚微。
作为AI生态的老大哥,一旦有新模型出现,便是牵一发而动全身:开源社区、下游应用企业都会跟进,着手测试、适配。
如果经过1-2周测试后,发现模型只是新瓶装旧酒,反而徒耗精力。
“Yi其实做的是偏应用的工作,基础大模型确实不需要那么多人研发。我生气的核心原因是:他耽误了研发同事的时间。”
自研就是自研,非自研就是非自研,本没有贵贱之分。
据科技部报告称,中国研发的大模型数量全球第二,10亿参数规模以上的大模型已发布79个。这里的“大模型”并非全指“自研大模型”,也包含许多类似Yi的非自研模型。
铅笔道此前曾有报道,自研大模型难度很大,单次训练成本高达100万美元。而结合GPT的自研历程,一个脱颖而出的世界最强模型,至少需要7年以上。
国内的AI产业还是跟风太严重。
2022年11月前ChatGPT没火的时候,只有极少数公司专注大模型,比如清华大学智源研究院。2022年11月后,很多AI公司就一拥而上,争先要做国产大模型。
也就是不到10个月的时间里,一批企业纷纷宣布推出大模型,并且各自宣称其领先性。“几个月就自研大模型”这种荒谬事,竟然在国内AI产业风起云涌,并有前赴后继之势。
铅笔道对此现象嗤之以鼻。
AI创业者张方(化名)表示,国内真正的自研大模型很少,根据他的测试结果,只有GLM(智谱AI发布)、BAT(百度/阿里/腾讯)、百川(搜狗创始人王小川研发)等符合。
创新创业应坚守“实事求是”文化,守护真实,人人有责。
原文标题 : 刚刚,70亿独角兽被“打假”