logo

当前位置:首页>滚动 > >正文

国产大模型,也分「武当」和「少林」

国产大模型,也分「武当」和「少林」
2023-07-10 10:34:44 来源:ZAKER科技

国产大模型,WAIC(世界人工智能大会)来了半壁江山。

这也是 ChatGPT 技惊四座大半年后,30 多个国产大模型第一次在同一个舞台上,接受不同背景参会者的审视。


(资料图片)

能明显感受到,相较于半年前效仿 OpenAI 大炼通用语言模型的热潮,如今 WAIC 呈现出的国产大模型图景,已经大致分为 " 增值派 " 和 " 聚焦派 " 两大路径。

所谓的 " 增值派 ",指的是不仅研发通用大模型基座,还基于基座提供模型 API、算力、训练、部署等配套服务的厂商,典型案例是推出 MaaS(Model as a Service)平台、携 " 通用大模型、行业大模型、云、芯片 " 等全家桶到场的云厂商们。

带着全套模型服务方案入场的大厂们

而 " 聚焦派 " 则恰恰相反,找准少量应用场景深挖,推出垂直领域的大模型,是他们的策略。这些厂商往往是资源能力和服务范围有限的创企,比如聚焦在金融等四个领域的澜舟科技,或者是原有业务的应用场景十分聚焦。

这两天被不少学生和家长围观的网易有道则是后者的典型案例。他们在教育领域推出的 " 子曰 " 大语言模型,参数规模为 200 亿,在一众动辄上千亿的通用大模型中并不算大。

基于网易有道 " 子曰 " 大模型的虚拟人口语教练。

即便派系分化,但对大模型感到 " 脸盲 ",仍是不少观展者给 36 氪的反馈:不同厂商呈现出的大模型能力和服务体系大同小异—— " 增值派 " 厂商将大模型和云、部署等服务打包售卖," 聚焦派 " 厂商则是两手抓:一边卖行业模型服务,一边卖自身被 AI 升级后的应用。

" 逛了一圈大模型,感觉都差不多,没有留下太深的印象。" 一名 7 月 6 日开幕当天就蹲守在的电器公司销售经理,背着上司 " 改造公司 OA 系统 " 的指标来到 WAIC,但现实与理想仍有差距。

有 ChatGPT 珠玉在前,多数厂商背负了不小压力。即便在部分任务的表现能力能与 GPT-4 掰手腕,但大部分厂商都承认,通用大模型的表现与目前赛道的 " 天花板 "GPT-4,依然存在不小差距。

好与坏,难判断

数十家大模型企业,上百款产品,怎么合作?如何落地?不少参会者迷失在巨大的上海 WAIC 展馆里。

对大模型判断失准,症结首先出在难以统一的模型能力评判标准上。

旷视科技多次在公开采访中表示,会持续在大模型技术方向进行投入。旷视 CTO 唐文斌告诉 36 氪,模型的测评分为学术和业务两个标准,更易证明的是前者,但对落地最有价值的在于后者

若是让旷视站在客户的角度选模型合作方,一定得在实际业务中长期跑起来后,结合 ROI、效益等指标综合评判," 应用价值是检验大模型能力的最好标准 "。

" 学术和工程之间隔着鸿沟。" 第四范式联合创始人、首席架构师胡时伟说,模型的算法、参数都是学术 " 肌肉 ",但能不能给客户解决实际问题,需要考验模型厂商本身对具体行业、具体业务的认知。模型的实用价值并非是静态、单维的。

他直言 WAIC 不是一个拉客户的场合:" 这里你怎么在短时间内给客户证明模型的业务价值?"

大模型让人脸盲的另一个现实原因则在于,目前不同厂商的模型能力仍然没有拉开差距,尤其是通用大模型与 GPT-4 存在明显差距。

一个典型的例子是,对于 C 端应用场景明晰且有数据积累的有道而言,在通用大模型的基础上精调是捷径,但有道依然选择了自训 " 子曰 " 大模型的荆棘路。" 国产通用大模型的能力满足不了垂直场景需求 " 就是有道的工作人员给 36 氪列举的其中一个原因。

沿着 Transformer 的训练路径,目前 GPT-4 就是面世模型中的能力天花板,也给国内厂商提供了行之有效的技术路线参考。但在今年 3 月 36 氪的专访中,百度 CEO 李彦宏认为创企做类似 ChatGPT 的大语言模型是 " 重复造轮子 ":" 创业公司重新做一个 ChatGPT 其实没有多大意义。"

" 这个阶段国内大部分厂商只能做重复造轮子的工作。" 面壁智能联合创始人兼 CTO 曾国洋对 36 氪说道,"GPT-4 也被证明与 AGI(通用人工智能)有差距,但国内公司先得追上 GPT-4,才有资格开始造车。"

在他看来,造轮子不等于没意义,而是在模型发展初期需要做的 "Dirty Work"。曾国洋打了个比方,就像学数学,现阶段厂商是洗数据、堆参数、调试代码的小学生,需要打好 10 以内数学运算的基础;等到上了大学,厂商才有可能去碰线性代数、微积分等更高维的东西,跳出造轮子的阶段去做创新。

用 B 端的生意打磨轮子

现阶段,C 端场景的价值并不大——这是不少模型厂商的共识。

真金得用火炼,但不少 C 端场景都不够复杂,对模型能力的打磨效果不显著。" 用模型直接做 toC 应用,满足的基本是生成功能,这是一个交付流程很短的场景。" 商汤的工作人员对 36 氪表示。

再者,即便 C 端能带来大量的用户反馈数据,但企业还需面对 " 多数据、低质量 " 的问题。一名网易有道的工作人员告诉 36 氪,训练 " 子曰 " 最可用的数据来自于试题和标准答案,靠用户反馈的数据依然需要大量的人工清洗和标注。

因此,靠 B 端业务获得营收,并在业务场景中用较高质量数据资源提高工程能力,是不少模型厂商如今的发力点。

极少公开露面的 AI" 当红炸子鸡 "MiniMax,这次特地来为合作方金山办公站了台,顺势推出了自研通用大模型 Abab 的 5.0 版本。这两家公司在今年 5 月携手推出了 " 中国版办公 Copilot" ——自动生成 PPT 大纲和模板、PDF 文档重点提取等热门功能,在 WPS 的展位大屏上循环播放。

WPS AI 的功能。图源:WPS

" 高质量的标注数据,依然是稀缺资源。"MiniMax 技术总监刘启君对 36 氪直言。对 2022 年就储备了一批显卡的 MiniMax 而言,算力还不算卡脖子的问题,但想要让模型能力更上一层,高质量的标注数据必不可少。

为了用最低的成本获取高质量数据,和 B 端的头部厂商合作是 MiniMax 所选的捷径。刘启君分析与 WPS 合作的理由:" 一是 WPS 积累的数据足够高质,可以直接拿来用;二是 WPS 的业务场景涉及图片、文字识别、提取、转换等复杂的场景,可以借此打磨模型能力。"

不过具体到对 B 端场景的选择," 增值派 " 和 " 聚焦派 " 选择的是截然不同的两条路径。

" 拿着锤子找钉子 ",即场景的横向扩张,多年来是具有丰富客户资源、的 " 增值派 " 大厂的标配。

"(大厂商)最主要的考量是用大模型业务带动大厂的其他业务,比如云、芯片。" 一名参加展会的券商告诉 36 氪。比如,对于 BTA、华为等具有云计算优势的厂商而言,将通用大模型的 API 服务与云计算结合,就能做训练、微调和部署等端到端的好生意。

不过,捆绑销售的策略也意味着 " 增值派 " 的服务对象往往是本身具有雄厚经济实力的政府和国央企——客户只需拿出数据,企业就能提供模型精调、部署等全套服务。36 氪从阿里云工作人员和多个咨询客户的口中了解到,通义千问的私有化部署方案,目前给出的参考价格高达百万、甚至千万元一年。

与之相对的," 聚焦派 " 则往往从 B 端企业的细分需求切入,除了能在较短时间内创收,也能与相继发布通用模型的 BTA 等云厂商打差异化策略

比如第四范式和澜舟科技布局的重点,往往都延续了之前就有客户积累和工程经验的 B 端场景。第四范式这次 WAIC 带来了 " 式说 " 大模型的一些行业进展,其中一个行业案例是与一家零售企业的合作,此前,决策类的 AI 技术已经被广泛应用在电子菜单推荐系统的开发,如今基于大模型的生成式 AI,开始逐渐被应用于对门店管理系统的改造。

在谈及周围 " 厂均 " 抛出十多个行业模型方案,胡时伟告诉 36 氪,他并不担心大厂造成的竞争压力,因为先找到钉子比拿着锤子更重要:" 我要再次强调,模型研发和落地之间有鸿沟。"

而企业瞄准 B 端发力的目的,最终是让造轮子和造车两条腿一起走起来。

与大部分厂商一样,MiniMax 仍然有对标 OpenAI 的野心。" 我们只做一个通用大模型基座,不做分开做行业大模型。" 刘启君觉得现阶段 MiniMax 这样资源有限的企业需要集中算力、数据和金钱资源办大事,即提升通用模型的能力。他透露,目前 MiniMax 能够按周迭代模型能力。

7 月 6 日的 WAIC 开幕式上," 深度学习之父 " 杨立昆重申 "LLM 不会是那条通往人类智能的道路 "。这也让许多厂商尝试跳脱出 Transformer 的框架,去做创新。" 做创新性的研究,包括和学界合作是国内厂商今年开始很重要的命题。" 胡时伟说。

标签: