直接说结论:
第一、英伟达(Nvidia)利用OpenAI为自己的商业版图锦上添花。
第二、OpenAI庞大的计算量需要英伟达的硬件支撑。
Part1
首先科普一下,为什么OpenAI的计算不是用CPU,而是用GPU(显卡)呢?
一般来说计算机的运算是由CPU来完成的,但是如果任何计算都分配给CPU。那么CPU也会变得很疲惫的,于是英伟达(Nvidia)在1999年引入了GPU(显卡)的概念。有GPU(显卡)之后,二者就进行了分工,CPU负责逻辑性强的复杂计算,而GPU(显卡)则专注于执行简单的、重复的、量大的计算。
这也就解释了为什么前几年比特币火爆时,显卡一直在涨价。因为随着比特币挖矿算法的深入研究,矿工发现挖矿是个相对简单但需要一直重复的运算过程,为了提高挖矿效率,所以这种重复且大量的工作就转交给了GPU。同样的,在OpenAI训练模拟的过程中也是有大量且重复的工作,于是GPU又被推上了浪尖。
根据研究公司预测,OpenAI的ChatGPT最终将需要超30000个英伟达(Nvidia)显卡。我们使用英伟达(Nvidia)的 A100 (Ampere)产品作为参考,A100(Ampere)的价格在10000美元到15000美元之间。因此至少英伟达(Nvidia)的收入可能会因此增加3亿美元。同时随着Google、微软等公司也纷纷入局AI人工智能,毋庸置疑,最终的赢家都将是英伟达(Nvidia),因为人们对AI人工智能的狂欢都将转化为对GPU的需求增加。
Part2
实际上英伟达(Nvidia)在此前已经在AI方面有很多投资。英伟达(Nvidia)已经为企业用户在提供世界领先的人工智能平台,它可以让用户通过云服务访问英伟达(Nvidia)的DGX人工智能超级计算机、软件库。甚至预训练的模型。英伟达(Nvidia)还借助多年在图片处理领域的技术优势,也在积极布局自动驾驶。
同时英伟达(Nvidia)还借助AI人工智能为自己的GPU在锦上添花,用该公司CEO黄仁勋的话说:就是我们计算了一个像素,然后直接利用AI算出剩下的7个像素。就好比一个拼图游戏,GPU只需要计算出其中一块图片,AI就帮你完成了剩下的7块图片,这将大大提升GPU的工作效率。这就好比马斯克展示的机器人生产机器人的逻辑一样,有着异曲同工之妙。
相关教程
2023-02-10
2023-02-10
2023-02-13
2023-02-25
2023-02-08
2023-02-09
2023-03-23
2023-03-23
2023-02-11
2023-02-02
2023-04-25
2024-10-23
2024-10-22
2024-10-22
2024-10-21