[人工智能]AI芯片的一些科普

[人工智能]AI芯片的一些科普
本文插图
人工智能芯片包括图形处理单元(GPU)、现场可编程门阵列(FPGA)和专门用于人工智能的特定应用集成电路(ASIC) 。 像中央处理器(CPU)这样的通用芯片也可以用于一些更简单的人工智能任务 , 但是随着人工智能的发展 , CPU的用处越来越小 。
与通用CPU一样 , 人工智能芯片通过集成大量越来越小的晶体管来提高速度和效率(也就是说 , 它们每消耗一单位能量就能完成更多的计算) , 这些晶体管运行速度更快 , 消耗的能量也更少 。 但与CPU不同的是 , AI芯片还有其他AI优化的设计特性 。 利用这些特性可以极大地加速AI算法所需的相同的、可预测的、独立的计算 。 包括并行执行大量计算 , 而不是像在CPU中那样按顺序执行;这些AI芯片在减少了相同计算所需的晶体管数量下 , 成功实现了计算精度需求较低的人工智能算法;加速内存访问 , 例如 , 将整个AI算法存储在一个AI芯片中;以及使用专门设计的编程语言来高效地转换AI计算机代码 , 以便在AI芯片上执行 。
不同类型的人工智能芯片适用于不同的任务 。 GPU最常用于最初开发和改进AI算法;这个过程被称为“训练” 。 AI算法通常利用FPGA作为桥梁 , 被用于现实世界中的数据输入 。 这通常称为“推理” 。 ASIC则可以适用于训练或推理 。
AI芯片方面的一些知识
面向AI应用的专用芯片的趋势是由两个因素驱动的 。 首先 , 半导体功能的关键改进已从制造转向设计和软件;其次 , 对人工智能等应用的需求不断增长 , 需要高度并行化 , 可预测的计算 , 这得益于专用芯片 。 深神经网络(DNN)-负责最近人工智能突破的人工智能算法符合这项法案 。
DNN通常实现一种称为监督学习的机器学习 , 它涉及两个计算步骤:基于训练数据“训练” AI算法(即构建算法)和执行训练后的AI算法(即执行“推理”)以对新算法进行分类与训练阶段从数据中获取的知识相一致的数据 。
特别地 , 训练步骤通常需要执行相同的计算数百万次 。 如第IV(B)节所述 , 提高的晶体管密度允许在单个芯片上使用更多类型的专用电路 。 AI芯片将这一点发挥到了极致—芯片上大多数或所有晶体管的布局均针对AI算法所需的高度可并行化 , 专门计算进行了优化 。
尽管分析师对全球人工智能芯片市场规模存在广泛分歧,ru 2018年的估计值介于50亿至200亿美元之间 , 但他们一致认为 , 市场增长速度将快于非人工智能专用芯片 。 直到最近 , 少数设计CPU等通用芯片的公司主导了逻辑芯片设计市场 。 他们享受着规模经济 , 使他们能够再投资于强大的新CPU设计 。 然而 , 摩尔定律的放缓正在损害CPU生产商的规模经济;在摩尔定律驱动的CPU效率和速度增益克服专用芯片的好处之前 , 现在专用芯片的使用寿命更长 。 因此 , CPU设计公司再投资于新设计以保持正在下降的市场支配地位 。 这一趋势降低了芯片设计初创公司的进入门槛 , 特别是那些专注于专业芯片的公司 。
人工智能芯片是一种常见的专用芯片 , 具有一些共同的特点 。 人工智能芯片并行执行的计算量远远大于CPU 。 他们还以一种成功实现人工智能算法但减少晶体管数量的方式以低精度计算数字
需要相同的计算 。 它们还通过将整个人工智能算法存储在一个人工智能芯片中来加速内存访问 。 最后 , 人工智能芯片使用专门的编程语言来有效地翻译人工智能计算机代码 , 以在人工智能芯片上执行 。
虽然通用芯片特别是CPU包括少量流行的设计 , 但人工智能芯片更加多样化 。 人工智能芯片在设计、适用的应用、不同人工智能任务的效率和速度、通用性和推理时的分类精度等方面有着广泛的差异、
由于其独特的特性 , 人工智能芯片在训练和推理AI算法方面比CPU快几十倍甚至几千倍 。 最先进的人工智能芯片比最先进的CPU更划算 , 因为它们在人工智能算法上的效率更高 。 一千倍于CPU效率的人工智能芯片所带来的改进相当于26年摩尔定律为CPU带来的改进 。


推荐阅读