AI芯片:前沿技术与创新未来_张臣雄_AZW3_MOBI_EPUB_PDF_电子书(无页码)_张臣雄
内容节选
第8章 近似计算、随机计算和可逆计算 需要AI芯片处理的数据量正在呈指数级增长,芯片速度的提高正随着摩尔定律可能的终结而渐趋缓慢。随着越来越多的计算系统向嵌入式和移动设备发展,降低能耗成为AI芯片设计的头等大事。模拟计算和存内计算都是提高芯片能效的有效方法。然而,还有一些可以提高芯片能效的重要领域可以发掘,那就是近似计算、随机计算和可逆计算。 如今计算机的应用已经发生了巨大变化,计算机不再像过去仅用于精确的科学计算,而是可以为人们导航、找到朋友、推荐歌曲或商品,甚至监测人们的健康。计算任务包括越来越多涉及多媒体(音频、视频、图形和图像)处理、识别和数据挖掘的应用。这些应用的共同特征是,通常不需要完美的结果,近似或稍差于最佳结果就足够了。小的偏差很少会影响用户的满意度。 在AI系统实现的所有层级(如算法级、电路级、器件级等)中采用近似值,可能得到很大的好处,即可以大大提高能效。根据一些实验结果,如果把系统分类精度降低5%,就可以把功耗降低98%,优点是显而易见的。允许有选择地近似或偶尔违反规范,可以大大提高能效。 8.1 近似计算 近似计算(Approximate Computing,AC)不是新的概念。自从引入浮点变量和模数转换器以来,这已成为计算领域的一个“古老”概念。物理世界是连续不断的,但计算机却是数字的,它将物理信息转换为离散的有限位数据,这本身就是近似。长期以来,我们已经接受了近似的需求,但几乎没有发挥其潜力。如今,程序员和架构师比以往任何时候都更趋向于采用近似计算来压缩计算规模,并缓解由于CMOS工艺达到极限而导致的可靠性问题。同时,随机计算、可逆计算和量子计算之类的姐妹计算范式也引起了人们的极大兴趣,这进一步表明,也许是时候抛弃我们的精确计算范式并在考虑近似值的前提下重建计算机了。 现在,除了计算范式局限于精确计算之外,对于执行计算的半导体芯片,也一直执行十分苛刻的质量筛选,以保证不出任何差错。另外,对于输入的大数据,更不容许有半点差错。这种不容出错的苛刻条件带来的后果就是高功耗和高昂的费用。而生物大脑的运作并不强调精确计算,而是有非常好的容错机制,因此生物大脑的能耗非常低。这样就出现了一种想法:是否可以从逻辑电路、存储器到算法,重新设计和定义计算范式,使计算从“精确”变成可以接受的“近似”,并且带入“容错”功能?除了计算之外,如果再把数据的误差、芯片参数的偏差这两个维度考虑进去,就组成了一个如图8.1所示的三维容错模型。 图8.1 计算、芯片参数和数据(3个维度)组成的三维容错模型 为了在应用中达到高精度,深度神经网络(DNN)使用大数据量和非常大的模型,这些模型需要大量的数据存储空间、极强的计算能力和大带宽的数据移动。尽管计算能力取得了很大进步,但是在大型数据集上训练最先进的DNN仍需要很长时间,这直接限制了应用推广的速度。 因此,在DNN技术中,目前已越来越多地使用近似计算来解决上述问题。近似计算可以在AI计算的不同层级上实现:在软件编程语言上可以实现近似计算,在算法级、电路级,甚至器件级,都可以实现近似计算及后面要讲到的随机计算(见图8.2)。本书第3章已经介绍了算法级运用近似计算的一些方法,如量化方法(降低数值位宽)、二值化或三值化、网络剪枝、减少卷积层等,目的都是减少计算量及数据存储量,同时提高能效。 很多研究表明,DNN可以抵抗近似计算带来的数值误差,如果近似计算使用恰当,网络的识别或分类精度并没有太多损失,不影响实际使用效果,但是计算量却会大大减小。从另一个角度来看,使用了近似计算,也会提高在系统各个层级的容错性,这对器件来说非常重要,因为半导体芯片工艺很容易出现各种缺陷,如果系统可以把这些缺陷忽略不计,那就大大提高了稳定性和可靠性。 图8.2 在芯片设计的每一层级都可使用“近似”方法 神经网络显示出很高的容错能力。近似计算范式通过在计算过程中故意引入可接受的错误来换取这种容错,以换取能效的显著提高。近年来,在AI研究领域中,已经出现了大量适用于神经网络的近似计算方法,可能有一二百种之多。除了算法层的近似计算(见第3章),本章的介绍涉及编程、电路和器件,分成两方面的用途:一是在功能齐全的芯片上使用近似计算来达到降低功耗的目标,其精度虽然降低,但仍在可接受的范围;二是芯片电路本身有缺陷、故障或误差,使用近似计算可以容忍这些问题,并对精度没有太大影响。 8.1.1 减少循环迭代次数的近似计算 这种方法是在应用层使用近似值的例子。在软件编程语句中有大量循环语句,为了节省计算量,有时可以把每次迭代次数减少,如下列C语言类的语句: 这里面加了一个省略因子(skip_factor),表示每次跳过的迭代次数。这个方法称为循环穿孔方法,已经和蒙特卡洛模拟、迭代优化和搜索空间枚举等算法配合使用,取得了很好的效果,一......
- 信息
- 内容提要
- 前言
- 第一篇 导论
- 第1章 AI芯片是人工智能未来发展的核心
- 第2章 执行“训练”和“推理”的AI芯片
- 第二篇 最热门的AI芯片
- 第3章 深度学习AI芯片
- 第4章 近年研发的AI芯片及其背后的产业和创业特点
- 第5章 神经形态计算和类脑芯片
- 第三篇 用于AI芯片的创新计算范式
- 第6章 模拟计算
- 第7章 存内计算
- 第8章 近似计算、随机计算和可逆计算
- 第9章 自然计算和仿生计算
- 第四篇 下一代AI芯片
- 第10章 受量子原理启发的AI芯片
- 第11章 进一步提高智能程度的AI 算法及芯片
- 第12章 有机计算和自进化AI芯片
- 第13章 光子AI芯片和储备池计算
- 第五篇 推动AI芯片发展的新技术
- 第14章 超低功耗与自供电AI芯片
- 第15章 后摩尔定律时代的芯片
- 第六篇 促进AI芯片发展的基础理论研究、应用和创新
- 第16章 基础理论研究引领AI芯片创新
- 第17章 AI芯片的应用和发展前景
- 附录 中英文术语对照表
- 参考文献