有手机就能免费用上大模型,AI普惠还得看中国(2)

2024-01-04 13:59     观察者网

发布之初,蓝心大模型矩阵包含十亿、百亿、千亿三个参数量级,共5款自研大模型。其中1B(10亿参数)和7B(70亿参数)的蓝心大模型已经在vivo旗舰机型上实现了端侧化,70B(700亿参数)成为面向云端服务的主力模型。而参数量最大的蓝心大模型175B(1750亿参数),已经持平于外界普遍认为的ChatGPT-3.5参数量。

从实际表现来看,蓝心大模型在语言理解、文本创作等场景下能力非常优秀,中文语境能力一度在CEVAL、CMMLU等专业榜单上排名第一。

不过,仅仅做出一款业界领先的大模型,对消费者来说就够了吗?答案是否定的。

ChatGPT-3问世至今已经一年有余,形形色色的国产大模型也层出不穷,但是平心而论,这些大模型能够给普通人提供的服务仍然有限。甚至有大模型厂商直接表示,只做行业类服务,不会面向普通消费者。

究其原因,大模型的落地应用目前还面临两大难题。

首当其冲的,是贵。大模型训练有多烧钱,已经无需赘述。有报道指出,ChatGPT-3单次训练成本达到460万美元,每天的运营成本都要70万美元。vivo副总裁、OS产品副总裁、vivo AI全球研究院院长周围也曾经表述过,以vivo的用户体量,如果运营云端大模型,全年单单服务器成本可能就是十亿甚至百亿级别。

此外,大模型厂家无论是自行购置GPU进行训练,还是租用云服务器,费用都十分高昂。虽然很多大模型免费或者低价向普通用户开放,但是从盈利层面显然是不可持续的,需要企业级业务的补贴。

其次,对于普通用户来说,大模型往往也不是真的那么好用。

决定一款大模型性能的,除了算法之外,更重要的是数据和训练。对于通用大模型而言,虽然它们使用了全网海量数据进行训练,但是其输出结果也趋于泛化,未必符合用户的个性化需求。而网络数据的准确性难以保证,也会导致大模型输出结果的错误。

因此,企业级用户一般都需要使用专门数据来进一步训练模型。

那么对于个人用户来说,便宜和个性化,也是大模型落地最大的痛点。

今日关注
更多