近日,北京大学人工智能研究院研究员孙仲团队联合集成电路学院研究团队,成功研制出新型芯片。面对某些计算量巨大的问题时,新型芯片的计算吞吐量达到顶级数字处理器(图形处理器,GPU)的1000倍以上,能效也比GPU提升超100倍。
相关论文于10月13日刊发于《自然·电子学》。这种新型芯片投入应用后,有望为信号处理、人工智能等领域的高能效计算中心提供关键支撑。
人脑更类似模拟计算
这种算得快还省电的新型芯片,是一种基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。要搞清楚它新在哪里、强在哪里,首先要明白模拟计算和数字计算的区别。
想象一下,我们要测量一杯水的温度。
在数字计算的世界里,要么是0,要么是1,没有中间状态。数字计算就像一把刻度尺,尺子上只精确到1度,因此,无论25.3度还是25.7度的水,都会被记录为“25度”。
当需要处理数据时,数字计算把“连续的”水温转化为“离散的”数字信号,然后通过二进制的方式进行计算。这种方式的优势在于精确且抗干扰能力强,但代价是需要大量的晶体管来完成简单任务。
而人脑则像模拟计算(但更为复杂)。当我们感受水温时,脑子里并不会浮现出“25度”这样的数字,而会直观地判断“有点凉”。
模拟计算正是如此,它直接使用连续变化的物理量来处理信息,像一把弹簧秤,指针可以连续滑过刻度盘上的每一个点,用25.36度这样的精确值来计算。
模拟计算的优势在参数多时更能体现出来。它不像数字计算那样需要将信号转化为二进制,而是直接通过物理定律(如欧姆定律V=IR,电压=电流*电阻)进行计算,电流和电阻两个参数的相乘,只需借助物理定律即可自然完成。
再打个更通俗的比方——数字计算就像按计算器,要一步步来;而模拟计算更像心算(估算),能直接出结果。
心算当然快,但容易出错,怎么让模拟计算算得又快又准是个世界难题。如今,中国科学家取得了新突破。
新型芯片能算得又准又快
先说结论:孙仲团队通过一系列融合创新,把模拟计算的精度提升至24位定点精度。
这是什么意思?
在人工智能运算(比如各种AI)、信号处理(图像识别、音频处理等)等领域,常常要用到矩阵计算。
简单来说,矩阵计算是一种处理数字表格的规则和方法,它能帮我们快速解决许多复杂的实际问题。比如,AI就是通过层层矩阵运算,判断用户发来的图片是一只猫还是一头牛。
矩阵计算的特点是,对计算的绝对精度没有非常苛刻的要求。如果采用数字计算方式来算,计算量会大到不可承受;而采用模拟计算方式,能获得低功耗和高效率的优势。
如今,中国科学家将模拟计算的精度提升了一个大台阶。24位定点精度,意味着已可以和数字计算媲美。
在同等精度下,面对特定的矩阵计算问题时,传统GPU要干一天的活,新型芯片一分钟就能搞定,而且能效比GPU提升超100倍。
具体而言,根据该团队的论文——
在计算精度方面,团队在实验上成功实现16×16矩阵的24比特定点数精度求逆,矩阵方程求解经过10次迭代后,相对误差可低至10⁻⁷量级。
在计算性能方面,在求解32×32矩阵求逆问题时,其算力已超越高端GPU的单核性能;当问题规模扩大至128×128时,计算吞吐量更达到顶级数字处理器的1000倍以上。
这一成果标志着我国突破模拟计算世纪难题,为应对人工智能与6G通信等领域的算力挑战开辟了全新路径。
将在通信和人工智能等领域大展拳脚
这款新型芯片的出现,会不会革了GPU的命?不能这么说。
从我们日常使用的手机、电脑,提供各种云服务的服务器,几乎所有的通用计算设备都基于数字芯片。数字计算是现代数字技术的基石。
今年以来,AI已经进入大众生活,我们不难发现AI常常“算不准数”。大到数据库和科学计算,小到做一份工作报表,只要涉及计算,我们可以信任计算器,但目前还不能信任AI。
数字计算在可见的未来里仍是不可替代的。模拟计算也并非要取代数字计算,而是形成互补关系。
就像人类能同时拥有左脑的“理性”和右脑的“直觉”一样,未来计算架构也可能出现数字计算与模拟计算的协同工作。更多采用模拟计算,能为AI运算平台节省大量的电力资源。
根据论文,研究团队在通信场景里试用了新型芯片。处理手机信号时,它修复图片特别快,才迭代两次,收到的图像就和原图基本没差别了;只要算三轮,效果就能追上32位精度的GPU。
放到AI训练上,它能加速那些特别吃算力的算法。因为功耗低,它还能让手机、平板这类终端设备自己处理复杂信号和AI任务,不用总往云端传数据。
千行百业链接AI已经成为现实。在AI和大数据时代,我们对计算能力的需求呈指数级增长,但同时,我们正在接近传统芯片制造的物理极限。
可以推测,西方国家能从芯片上“卡脖子”的时间不会太久,因为他们自己也被物理定律卡住了。而由中国科学家领衔的新型芯片和新型架构——模拟计算与数字计算的协同合作——或许将为突破当前计算能力瓶颈提供新的可能性。