多模态大模型应用集中亮相,开启“AI+文创”新纪元
2024世界人工智能大会暨人工智能全球治理高级别会议(下称“WAIC 2024”或“大会”)召开期间,一批多模态大模型应用集中亮相,其中不乏会“看”、会“听”、会“说”、会“画”的产品应用。WAIC 2024见证了一批多模态大模型相关技术突破和应用的亮相。
7月6日,在大会期间举行的“智启文创,激发无限新质生产力”论坛上,电子科技大学计算机科学与工程学院院长、欧洲科学院院士申恒涛判断,“多模态已经成为大模型的标配”。不过如果将多模态大模型技术和自动驾驶来对标的话,专家认为,我国当前在相关领域的技术成熟度约能达到“L2”级别。
梅涛表示,从观念上来看,大家现在所提“大模型”概念基本都是在指“多模态大模型”,AIGC的技术在不断提升,Agent(智能体)激发了大模型的一些潜力,(多模态大模型)成为了强劲的生产力工具,可以赋能到行业当中去。
不过如果将以视频生成技术为代表的多模态大模型的发展和自动驾驶来对标的话,加拿大工程院外籍院士、智象未来创始人梅涛指出,我们目前都处于L2的阶段,即目前还是致力于单镜头画面的生产并努力使画面的质量更加优化。
按照梅涛的划分,视频生成的技术能力的L1到L5级别分别对应着“逐帧动画”“单镜头动画”“多分镜动画”“连续故事”以及“完整的故事”。“什么叫L5,就是我输入的是一本小说,AI输出的是一部电影,这是我们的终极目标,但是这个目标还有很长的路要走。” 他说。
据梅涛介绍,从发展路径来看,通用人工智能的发展有两条路径,第一条路径是做文本、语言的压缩,现阶段已经从GPT4步入到GPT5能力水平。“这条路线国外的竞争非常激烈,我们国家也有很多初创企业、大模型公司在竞争,接下来需要比拼数据、算力等一些资源的积累。”而另一条路径便是基于一种扩散模型(Diffusion model)和通过模拟物理世界来构建AGI的过程。
梅涛认为,多模态有两个路径:理解和生成。“在多模态连接时,我们沿着第一条路径往前走,而多模态的生成是沿着第二条路径走的。不管是OpenAI的Sora还是中国的多模态大模型,当前在第二条路径上的发展水平相对而言会稍微滞后一点,大概处于GPT2的阶段,但是未来的空间潜力很大。”
在梅涛看来,我国多模态大模型技术的发展任重道远,其中商业化成本是较大的阻碍。他称多模态大模型当前的训练和推理成本很高,“我们目前要生成1秒钟的视频,它的成本在1元到1美金之间。”