无非就是多费点电而已。
在国家战略面前,电费才几个钱?
一台超级计算机,主机可以装满一层大楼,没有空间限制,就可以无限地堆积算力低下的CPU,靠着无数CPU芯片的堆积,来达到超算的效果。
所以联想、曙光、浪潮,包括一些高校和军方,都可以开发出自研知识产权的超级计算机,在这个领域打破技术壁垒。
可是,GPU就不行了。
GPU之所以能取代CPU成为人工智能计算的主要工作,就是因为GPU主要是以处理并行计算为主。
而人工智能的神经网络算法趋势,所需要的就是并行计算,刚好和GPU相匹配。
一旦是并行计算了,就没法像流水线工人那样,靠着堆积数量去提高生产力了,这就得靠着实打实的硬实力了。
比如一个博士生和一个小学生算数学题,小学生根本不行。哪怕把一万、十万个小学生组合起来,也不可能是一个博士生的对手。
这就是高通、英特尔这些主要以销售CPU为主的公司,市值最高也就是几千亿美元,而以卖GPU为主的英伟达,市值却能冲上5000亿美元、1万亿美元、2万亿美元甚至更高的原因。
CPU再是核心技术,也有可替代性。
GPU却没法靠着堆量的方法来替代。
没有顶级的GPU,就无法提供顶级的算力,就不可能成为顶级的人工智能公司。
就像十年后的2023年国内的人工智能现状。
世界上最好的GPU芯片是英伟达的H100,售价4万美元一块。其次是英伟达的A100,售价1万美元一块。
再多的A100堆积,也无法量变产生质变,去达到H100的AI算力,这是由芯片结构的字符长度决定的。
32位的长度,在16位的长度面前就是可望而不可及。
本小章还未完,请点击下一页继续阅读后面精彩内容!
就像一个人的逻辑层次可以达到32层,把1千个1万个16层思维逻辑的人聚合在一起,他们的思维层次也只能局限于16层以内。
同期国内的华为昇腾910B,单块售价4万美元……处理简单计算和线性计算的能力可以媲美英伟达的A100。但线性计算没意义,人工智能需要的是深度并行计算的能力,这可比A100差远了,更别说跟H100比了。
而这也就决定了国内AI产业的大趋势。
人工智能需要大量的算力,都需要由云计算平台来提供。阿里云有更强大的国际化背景,所以能购买到更多的英伟达的A100和H100芯片,就可以为用户提供国内最顶级的AI算力。
所以国内绝大部分的正经做人工智能产品的公司,要么向阿里云靠拢了,要么正走在向阿里云靠拢的路上。
百度云和企鹅云,国际化不如阿里,采购到的英伟达显卡数量就没阿里那么多,就会在这个领域逐步地被甩开。
那些没有国际资源,买不到英伟达的显卡,只能去打着营销、爱国的名义去支持国货的云计算平台,就只能玩一玩营销了,就只能通过营销去讨好当局和大众,去搞一搞政务云这类的靠着政商关系来生存的业务。
现在才2013年,还早着呢。
别说周不器跟唐天华这么一个外人讨论人工智能的计算解决方案了,就算是很多行业内的顶级科学家,都未必能在短时间内转过这个弯。
唐天华一脸茫然的问:“什么GPU?GPU不是显卡吗?”
周不器道:“用显卡来运行AI软件啊。”