近段时间以来,美国OpenAI研发的聊天机器人程序ChatGPT可谓是占尽了风头,众多互联网从业者都在关注这款程序的能力,也在思考人工智能变革的新机遇。
人工智能概念并不是什么新概念,早在1956年的美国达特茅斯会议上提出了,此后1959年又诞生了机器学习概念,可见在整个人工智能研究的历史上,西方国家已经探索了60多年。
尽管人工智能技术真正做强大是近几年的事,但是在西方国家探索的这几十年中,深度学习算法的强化和GPU、NPU、FPGA等芯片技术也在不断升级,这是中企所不具备的优势。
正是因为打下了算法和硬件层面的夯实基础,美国才能在人工智能领域跑出如此快的速度。
OpenAI研发的模型,2018年的GPT-1还只有1.1亿的参数量,2019年的GPT-2就迭代到了15亿。
又过了一年,已经家喻户晓的GPT-3诞生,参数量更是暴增至1750亿,系统出现了从量变到质变的跨越。
在经历了两年时间优化后,OpenAI推出基于GPT-3.5的ChatGPT,震惊全世界。
事实上GPT-3.5版本就已经十分强大了,但OpenAI却在短短几个月后又迭代升级GPT-4,虽然没有公布详细数据,但表现出来的强大能力,已经无法撼动了。
GPT-4新版本不仅支持文字输入,还可以接受图像和文本输入,在信息处理能力上也有大幅提升,甚至可以玩角色扮演了。
业内人士指出,在智能化水平上,GPT-4和之前的模型产生了天壤之别。
从ChatGPT的智能化水平中,我们能够看到中美之间在人工智能技术上存在的差距,而造成这一差距的根本原因,就是我上面提到的那两点。
一方面是算法层面的经验积累,长达几十年的积累是实现技术突破的基石。
另一方面则是硬件层面的优势,靠着强大的硬件支持,美国科技企业有更有利的条件去发展人工智能技术。
而后者相比前者,技术门槛更高,毕竟算法靠的是一个团队的合力攻关,只要可以建一套好的模型出来,就能训练出一个自动化程序。
但后者硬件优势并非某个团队能攻克的,而是需要整个半导体产业链支持。
美国有先天条件发展人工智能技术,因为美国有英伟达、AMD这样的硬件企业提供先进的硬件支持技术发展,英伟达的A100和H100,还有AMD的MI250,都是针对数据中心的顶级产品。
有外媒报道称,为了创建和维持ChatGPT所需的庞大数据库,OpenAI使用了10000个英伟达的GPU进行相关的训练。
而为了满足服务器的需求,支持实际应用,OpenAI更是已经用了约2.5万个英伟达GPU,未来还会根据需求量增加。
可见ChatGPT能够如此好用,核心原因在于美国企业掌握的算力明显强于中企,毕竟中企是很难大规模买到最先进芯片的。
比如英伟达的A100和H100就被美国限制销售了,当前,中企能够买到的只有英伟达为中国市场设计的A800系列GPU。
A800系列是A100系列的阉割版,不仅性能削弱了很多,还限制了很多峰值属性,此外其数据传输速度也大幅减慢了。
如果和英伟达H100系列比,A800系列就更加不值一提了,毕竟H100系列的性能比A100系列还要高4.5倍,创造了所有工作负载推断的世界纪录。
所以这是美企的天生优势,有全球最顶级的硬件支持算法技术的发展,中企在这一领域就有着明显不足,这是值得我们深思的问题,也是需要中企共同努力攻克的难题。
不过越是有差距,就越能体现出中企的进步空间有多大,只要我们始终坚持技术探索,不断完善半导体和相关技术产业链,就一定有超越西方国家的机会。对此你怎么看呢,欢迎评论、点赞、分享。
相关文章
猜你喜欢