中国的大语言人工智能如何实现弯道超车,超越GPT-4。

斯坦福大学 – 羊驼
中国的大语言人工智能如何实现弯道超车?上周发布的斯坦福大学的羊驼()模型给出了方法, 羊驼可以更细致地理解和分析文本,生成完整的符合预期的内容,在测评中甚至比 3.5更准确和可靠,还可以在本地运行,不需要云计算资源 。
值得指出的两点是:一是这篇论文的团队中有不少华人 。比如下面的这几位年轻有为的学生和教师;
Zhang
Li
Percy Liang
二是斯坦福羊驼模型只花了600美元就训练出来了,这是怎么做到的呢?
人工智能训练成本
斯坦福羊驼模型是基于小扎的Meta开源的AI模型中 , 最轻量、性能也最弱鸡的一款,llama 7B , 7B就是英文7 的缩写,代表只有70亿个参数 。
通常情况下,训练大语言模型,不仅需要大量的优质内容,还需要人工反馈 , 雇佣的肯尼亚的便宜劳动力来标识优质内容,筛选劣质内容,并给出内容质量评分 , 从而成就了今日的惊艳表现 。
的办公系列软件使用了GPT-4,极大的提高白领的工作效率,同时也将收获海量的真实应用数据,可以用来进一步提高GPT 。大语言模型本质是一个token的概率分布的矩阵 。谁家投喂的优质内容数量更多,计算出的概率就越准确,最后的人工智能生成的结果就质量更高 。先进入大规模实际应用的GPT,有了极大的先发优势,收获更多高质量数据的反?。?很有可能一步先,步步先!
人类训练人工智能
斯坦福羊驼模型是如何用区区500美元,短短几周时间就多快好省的达到GPT3.5的水平呢?
斯坦福的学生用了平替了肯尼亚和印度的廉价劳动力 , 让AI去训练AI 。
就像金庸武学中的小无相神功和斗转星移,仅仅喂招五万两千次 , 就把对方的武学绝技学了过来 。
自训练流程
因此,中国的大语言模型,只要用更好的开源AI基础模型,然后用小无相神功,博采众家之长,再投喂更多优质中文内容进一步训练,针对中文进行优化,来超越其他大语言模型 。
基础模型测试表现比较
基础模型参数量比较
650亿参数的LLama开源模型,就是很好的起点,再学习170万亿个参数的GPT4生成的内容,最后投喂海量的优质中文内容,从而实现青出于蓝而胜于蓝 。
GPT4 参数
因为投喂GPT4学习的主要是英文材料,很多小语种的表现就相对不佳,比如印巴语系的语言,精确度就比英语低25% 。额外投喂中文内容的大语言模型获得竞争优势是大有可为的 。
不同语言的表现
显卡算力是训练大型模型所必需的,GPT5用了25000张A100显卡训练了这么久,不知道会有多强 。
GPT进化时间线
中国发展类似的大语言模型,面临难点之一就是不仅显卡算力很烧钱,美国还卡脖子不卖H100,甚至A100也不让卖了,有钱也买不到高性能大显存的计算卡;
支持的硬件,微软数据中心有成千上万张H100
小无相神功就是突破美国封锁的一个好办法 。
我个人认为,中国攀科技树不能中美国的计 , 美国当年就是通过鼓吹“星球大战”诱导苏联攀太空科技,点偏了科技树 。中国制造2025,表明要攀科技树争上游之时,感到危机的美国就通过卡芯片拖缓中国向价值链上层进发的速度,诱导中国去点美国自己都造不出的光刻机 。国家扶持科技的钱是有限的,花在国产光刻机上人工智能 训练模型,效率和性价比未必高 。
成功的最高境界是借别人的力打出去 。优步没有自己的车 。爱彼迎没有自己的房 。美团没有自己的饭菜 。金拱门也不自己养牛种麦 。
美国国务院还出钱给智库做调研,专门研究中国可能领先的关键科技行业,从而想办法遏制打压 。
关键科技
不能光芯片这样的硬件,软件才是灵魂人工智能 训练模型,AI的软件层面不能落后太多 。不然将来即便能国产芯片 , AI和AI控制无人机无人艇蜂群天上海里拼刺刀的时候,被敌方高几代的AI完爆就输定了 。
无人机蜂群
无人机蜂群
中国需要有人牵头做一个众包项目,把可以用于最终人工智能产品的运算的token,给提供的算力和人力作为报酬 。算力、人力、内容三个难点迎刃而解 。
一张英伟达特斯拉A100的深度学习的算力,差不多等于两张英伟达RTX 4090 。现在正在迭代的最新的GPT-5,大约用了2.5万张英伟达A100,也就是不到五万张RTX 4090 。
中国有丰富的未利用的富余算力 。随便凑凑游戏玩家显卡闲置时间的算力都绰绰有余 。网吧高端区,玩QQ游戏时,显卡风扇都不转 , 显卡完全无压力,这些玩家可以把空闲算力用于训练AI,并在需要使用AI时获得算力作为报酬 。类似于献血,现在给血库献血,将来自己和家人需要用血时会获得优先 。没有富余算力的用户,也可以通过提供优质内容 , 标识内容优劣,来参与这个取之于民 , 用之于民的众包项目 。
【中国的大语言人工智能如何实现弯道超车,超越GPT-4。】我认为,通过博采众长,人无我有,取之于民,用之于民 , 必然能让中国人工智能实现弯道超车 。
本文到此结束,希望对大家有所帮助 。