对话APUS创始人李涛:Sora浪潮下,如何成为红利和财富的一部分
(图片来源:Pixels) 硅基规则下,虚拟和物理的终极分别是元宇宙和人形机器人,在其中,Sora便是桥梁。2024属于Sora,毫不夸张。 @数科星球原创
(图片来源:Pixels)
硅基规则下,虚拟和物理的终极分别是元宇宙和人形机器人,在其中,Sora便是桥梁。2024属于Sora,毫不夸张。
@数科星球原创
作者丨苑晶
编辑丨大兔
OpenAI的Sora视频大模型于近日上线,始一发布,引起热议。
和其他大模型不同的是,该款模型属于数据驱动的物理引擎,并且它可根据用户提示词生成高质量视频。
它的发布,首先对以视频为载体的媒体、影视等行业形成了强烈冲击。甚至可以说,它无限地降低了视频创意、视频制作甚至视频艺术的门槛。
为了剖析Sora的本质,数科星球(ID:digital-planet)正在大面积地对话行业大咖,以求厘清行业真知灼见、以飨创新。
全球化人工智能企业APUS创始人李涛认为:“我们正处于AI大时代之中,想成为红利或财富的一部分,需要有足够的敏感思考”,他指出,拥抱时代变化的要诀在于进化式学习,在这个过程中需要习得如何驾驭、使用、生产甚至左右新技术的发展方向。
此前,我们曾在《对话APUS创始人李涛:AIGC是一次发生在互联网界的“工业革命”》中表达过部分观点。在文生视频浪潮来临之际,他的认知迭代获得了新的更新。
01
Sora推出背后的问题
在李涛看来,Sora的横空出世反映了三个问题。
首先,在技术上,它已验证打造无限逼近真实的场景是可能的。在一定程度上,Sora的模拟视频会让真实与虚拟难以区分。好的方面是,AI生成视频拓宽了人类对创作、真实性和未来的认知。但坏的方面是,“真实”与“虚拟”的界限变得模糊,加大了定义和理解真实或虚拟的难度。
其次,Sora展现了强大的学习能力。“我认为,这种学习能力不仅局限于数据的吸收和处理,更在于逻辑和规则上的深度理解和应用。”
作为一款可自我学习的模拟器,如今的Sora正在尝试学习人类所拥有的规则和逻辑能力。更为形象的比喻是:就像有光就会有影子、有火就会被点燃一样,Sora的类人智能拥有高速学习能力、反应能力和反应速度。
其三,Sora的出现,客观上反映了我们在芯片、算力等领域的落后。“纵览Sora的能力构建会发现,这与OpenAI在人工智能领域的深耕分不开”,他提到。
英伟达、Sora犹如一面镜子,其成功的背后反映了中美在AI领域的差距。李涛认为,这折射出中国人工智能所拥有的能力远远落后于前者。他对数科星球(ID:digital-planet)强调,弥补差距的根本是加强芯片的研发、努力提升算力水平。而这,已成为我国AI发展的当务之急。
02
Sora推出后的预测
Sora的推出成为了每家投资机构的话题,而在大模型产业界,情况同样如此。如果说,2023年的“百模大战”属于Transformer内卷,那么2024的开年伊始,行业格局已完全不同。
李涛认为,Sora跟GPT不是同一个模型。“它和GPT完全不一样,这是Sora最大的不同”,这可被理解成是在新位面上的新竞争,“在我看来它是颠覆性的、炸裂的、有战略性的。”
技术上,以往的人工智能模型均是人们对真实物理世界抽析后的文明或知识、常识的处理。在人们将现实世界的内容数据化之后,便已经“失真”,而再将“失真”生成图片或视频,会导致进一步的“失真”。
Sora的最终期望是构建可渲染真实物理世界的模型(这区别于以往所有模型)。这会导致一个结果,人们将无法区分真实世界和虚拟世界。在能处理好真实世界和虚拟世界的转场前提下,Sora的出现将极大推进元宇宙的实现速度,“甚至会模糊掉AR或VR的行业边界”,李涛说。
还有一点,Sora的学习性应该被重视。
李涛做了一个比喻:“就像有光就有影,被刀划了一下就会痛,就会流血,这都是真实物理世界里面的逻辑关系。”在他看来,Sora正在学习真实物理世界的规律,这种学习模式正在逼近人类智慧或人类大脑的学习模式。
“我们可以看到,这样做的好处是,可以通过Sora在任何两个场景、任何两个景物、任何两个要素之间建立起它的逻辑关系。”根本而言,它将推动逻辑关系的进步,作为一个学习引擎,可以被看作是超越人类的“智脑”。
综上所述,相比于人类而言,Sora的学习速度、存储能力、构建和渲染的能力远远超过了单个人本身。这种以强大算力做支撑的能力,可以将学习过程压缩为非常短的时间。
另外,李涛还预测,OpenAI一定会将GPT和Sora结合,以重构数字物理世界。“Sora最有冲击力的地方在于,它会不断地抽析、学习人类常识,通过7*24小时不眠不休的方式结合算力放大和复制数字世界。”在算力足够大的时候,它的学习能力将大大超出世界上80亿人的学习速度总和。
03
新的竞争格局与技术分析
人工智能的未来竞争格局是什么?答案是算力。
纵览AI发展历史,可以看到一条清晰的路径:即代码-参数-算力竞争。在这套逻辑的背后是芯片至上。
在IT信息化领域,企业的竞争优势从编程优势过渡到了参数优势、算力优势。“现在,参数竞争又有了新变化,你会发现Sora的参数并不大,算是小模型,但它的影响很大,并且依赖高制程芯片和强大的GPU算力”。李涛如是说。
李涛还估计,OpenAI未来只会为自己服务,将研发专属于自己的芯片,且不会通用。
另外,在未来,AI可自行研制芯片,所有的设计、制造均通过AI完成:由AI完成所有定制化服务,绕开通用芯片的桎梏形成闭环。对国内企业的警示是,短期内,AI产业难以追得上英伟达或OpenAI,虽然二者之间已貌合神离、相去渐远。
不过,好消息是,国内的企业正在钻研Sora的技术内核。
李涛对数科星球(ID:digital-planet)分享了自己的看法,他认为,Sora是以MoE的结构控制的分布式学习模型。“换句话说,假如它有100万台GPU的机器,那么它很有可能把这100万台分成了1万个单元组,每个单元组有100台GPU完成不同独立的项目。”
在决策单元上,李涛认为,Sora的中央控制单元架构同样发生了变化。“它可能不是用以往小控制单元控制(比如一万个GPU中一个辅助控制单元,另外9999个负责工作),而是采用了5000个单元形成决策单元,而另5000个单元进行‘手和脚’的工作。”
根本上,Sora的每一个单元负责了某个不同的垂直领域、去学习不同的物理世界的知识,因为学习不同的物理世界,需要总结不同的逻辑。
最后,Sora除在探索未知物理世界方面裨益很大外,还改变了算力单元的使用规则:“未知的物理世界的探索可以不断延伸,只需要增加算力单元加以探索就可以了,这个算力单元不是1亿台GPU,可能以100台GPU为一个算力单元或1000台GPU为一个算力单元就可以实现”,李涛补充道。
技术上,通过单独的算力单元做学习和计算是一大创新。这种模式对算力依赖极大、是以MoE结构控制的分布式学习模式。“它都不能叫分布式计算了,如果与我们推测的一致,你就会知道它有多强大,几乎很难追赶。”
04
Sora变革下的应对之策
面对Sora带来的颠覆性变革,普通人的应对之策是什么?
在与李涛的对话中,我们总结了三点:
首先,短期要学会和驾驭Sora:普通人需要积极学习并掌握Sora的相关技术,理解和应用这一模型。
这样一来,能够让我们在AI时代下保持竞争力。通过深入研究Sora的工作原理和应用场景,相关从业者可以更好地发挥其在内容生成、影视制作等多领域的优势。
第二,在中期,需要快速学习Sora内核:面对Sora的快速发展,人工智能的从业者需要不断提升自身的学习能力,要跟得上Sora的步伐,确保在AI领域不被甩开身位。
第三,长期上,需要行业间加强芯片的设计、研发、生产工作:人工智能的发展是从代码、参数到算力竞争的过程,而芯片是人工智能进化的基础。因此,提升算力,才能推动AI技术实现创新的发展。
就中国而言,如何应对算力方面的挑战,国家需要加速芯片的研发进程,通过提升芯片的性能和效率,为AI提供更强大的底层支持。
李涛认为:“当Sora开始作为一个智脑,能从现实社会像人类一样从现实的物理社会去学习,可以去重新构建和渲染一个新的物理社会,并且具有一致性和连贯性跟真实世界无法区分出来的时候,会有多可怕,这就是人脑的过程。”
现在,Sora已经像人脑一样在工作,它可以把现实物理世界学习过来,然后又把它重新渲染和构建出来。
05
结尾:思考、学习与进化
在这个时代,普通人应该如何应对未来的挑战?
李涛直言:“要想跟得上这个时代,当新东西出现的时候,一定要沉静下来,让自己更深刻地思考,我们在一个大时代里面,要想办法捕捉住这个大时代的财富,或者捕捉住大时代的红利,并且成为财富和红利的一部分。”
他认为,当像Sora这样的新东西出现的时候,一定要有足够的敏感去思考,然后深度学习,最后进化。而所谓进化其实是去学习怎么去驾驭、使用、生产它,甚至左右它的方向。
原文标题 : 对话APUS创始人李涛:Sora浪潮下,如何成为红利和财富的一部分