快捷搜索:  汽车  科技

计算器按键图:计算器的发展历史

计算器按键图:计算器的发展历史3、机电计算器1832年,巴贝奇开始进行分析机的研究。在分析机的设计中,巴贝奇采用了三个具有现代意义的装置: ⑴ 存储装置:采用齿轮式装置的寄存器保存数据,既能存储运算数据,又能存储运算结果; ⑵ 运算装置:从寄存器取出数据进行加、减、乘、除运算,并且乘法是以累次加法来实现,还能根据运算结果的状态改变计算的进程,用现代术语来说,就是条件转移; ⑶ 控制装置:使用指令自动控制操作顺序、选择所需处理的数据以及输出结果。由于当时的机械加工技术还达不到所要求的精度,使得这部以齿轮为元件、以蒸汽为动力的分析机一直到巴贝奇去世也没有完成。1642年,法国数学家帕斯卡(Blaise Pascal)发明了帕斯卡加法器,这是人类历史上第一台机械式计算工具。帕斯卡加法器是由齿轮组成、以发条为动力、通过转动齿轮来实现加减运算、用连杆实现进位的计算装置。帕斯卡从加法器的成功中得出结论:人的某些思维过程与机械过程没

计算器经历了手动计算器、机械计算器、机电计算器、模拟电子计算器、数字电子计算器、集成电路计算器等发展阶段。

1、手动计算器

大约公元前 2500 年,算盘发明于"美索不达米亚",用来帮助加减数字。1617年,英国数学家约翰·纳皮尔(John Napier)发明了Napier乘除器。1621年,英国数学家威廉·奥特雷德(William Oughtred)根据对数原理发明了圆形计算尺,也称对数计算尺。18世纪末,发明蒸汽机的瓦特独具匠心,在尺座上添置了一个滑标,用来存储计算的中间结果。

2、机械计算器

1642年,法国数学家帕斯卡(Blaise Pascal)发明了帕斯卡加法器,这是人类历史上第一台机械式计算工具。帕斯卡加法器是由齿轮组成、以发条为动力、通过转动齿轮来实现加减运算、用连杆实现进位的计算装置。帕斯卡从加法器的成功中得出结论:人的某些思维过程机械过程没有差别,因此可以设想用机械来模拟人的思维活动。1673年,莱布尼茨研制了一台能进行四则运算的机械式计算器,称为莱布尼兹四则运算器,也就是步进式计算器。

1804年,法国机械师约瑟夫·雅各(Joseph Jacquard)发明了可编程织布机,通过读取穿孔卡片上的编码信息来自动控制织布机的编织图案,引起法国纺织工业革命。雅各织布机虽然不是计算工具,但是它第一次使用了穿孔卡片这种输入方式。如果找不到输入信息和控制操作的机械方法,那么真正意义上的机械式计算工具是不可能出现的。直到20世纪70年代,穿孔卡片这种输入方式还在普遍使用。

1822年,巴贝奇开始研制差分机,专门用于航海和天文计算,在英国政府的支持下,差分机历时10年研制成功,这是最早采用寄存器来存储数据的计算工具,体现了早期程序设计思想的萌芽,使计算工具从手动机械跃入自动机械的新时代。

1832年,巴贝奇开始进行分析机的研究。在分析机的设计中,巴贝奇采用了三个具有现代意义的装置: ⑴ 存储装置:采用齿轮式装置的寄存器保存数据,既能存储运算数据,又能存储运算结果; ⑵ 运算装置:从寄存器取出数据进行加、减、乘、除运算,并且乘法是以累次加法来实现,还能根据运算结果的状态改变计算的进程,用现代术语来说,就是条件转移; ⑶ 控制装置:使用指令自动控制操作顺序、选择所需处理的数据以及输出结果。由于当时的机械加工技术还达不到所要求的精度,使得这部以齿轮为元件、以蒸汽为动力的分析机一直到巴贝奇去世也没有完成。

3、机电计算器

1822年,法国的盖吕萨克和阿拉戈利用电流的磁效应,把通电导线绕在软铁上,使一块普通的软铁变成了磁铁。1831年左右,美国的亨利发明了继电器。电磁继电器利用电磁铁在通电和断电下磁力产生和消失的现象,来控制高电压高电流的另一电路的开合,使得电路的远程控制和保护等工作得以顺利进行。继电器不仅是电气工程的基础,也是电子技术、微电子技术的重要基础。

1886年,美国统计学家赫尔曼·霍勒瑞斯借鉴了雅各织布机的穿孔卡原理,用穿孔卡片存储数据,加上继电器采用机电技术取代了纯机械装置,制造了第一台可以自动进行加减四则运算、累计存档、制作报表的打孔卡片制表机。霍勒瑞斯于1896年创建了制表机公司TMC公司,1911年,TMC与另外两家公司合并,成立了CTR公司。1924年,CTR公司改名为国际商业机器公司,这就是赫赫有名的IBM公司。1935年,IBM推出穿孔卡片计算机。

1938年,德国工程师朱斯(K.Zuse)研制出Z-1计算机,这是第一台采用二进制的计算机。在接下来的四年中,朱斯先后研制出采用继电器的计算机Z-2、Z-3、Z-4。Z-3是世界上第一台真正的通用程序控制计算机,不仅全部采用继电器,同时采用了浮点记数法、二进制运算、带存储地址的指令形式等。

1936年,美国哈佛大学应用数学教授霍华德·艾肯(Howard Aiken)在提出用机电的方法,而不是纯机械的方法来实现巴贝奇的分析机。在IBM公司的资助下,1944年研制成功了机电式计算机Mark-I。Mark-I只是部分使用了继电器,1947年研制成功的计算机Mark-Ⅱ全部使用继电器。 继电器的开关速度是1/100秒,使得机电式计算机的运算速度受到限制。

4、电子计算器

(1)模拟电子计算器

1904年,世界上第一只电子管在英国物理学家弗莱明的手下诞生。人类第一只电子管的诞生,标志着世界从此进入了电子时代。

1910年,美国科学家邓伍迪和皮卡尔德用矿石来做检波器,1913年法国人吕西安、莱维利用超外差电路制作成了电子管收音机,并申请了专利。矿石收音机是指用天线、地线以及基本调谐回路和矿石做检波器而组成的没有放大电路的无源收音机,他是最简单的无线电接收装置,主要用于中波公众无线电广播的接收。1930年前后,使用交流电源的收音机研制成功,电子管收音机才较大范围地走进人们的家庭。但电子管体积大、功耗大、发热厉害、寿命短、电源利用效率低、结构脆弱而且需要高压电源。

1936年,奥地利的艾斯勒用印刷电路的方法成功地装配了一台收音机。仿照印刷业中的制版方法先画出电子线路图,再把线路图蚀刻在一层铜箔的绝缘板上,不需要的铜箔部分被蚀刻掉,只留下导通的线路,这样,电子元件就通过铜箔形成的电路连接起来。

美国RCA1939年推出世界上第一台电子管黑白电视机

1939年,美国依阿华州大学数学物理学教授约翰·阿塔纳索夫(John Atanasoff)和他的研究生贝利(Clifford Berry)一起研制了一台称为ABC(Atanasoff Berry Computer)的电子管计算机,第一次提出采用电子技术来提高计算机的运算速度。

1946年2月15日,美国宾夕法尼亚大学物理学教授约翰"莫克利(John Mauchly)和他的研究生普雷斯帕"埃克特(Presper Eckert)受军械部的委托,为计算弹道和射击表研制成功第一台正式的电子管计算机ENIAC。共使用了18000多个电子管、1500多个继电器、10000多个电容和7000多个电阻,通过采用电子器件代替机械齿轮或电动机械来执行算术运算、逻辑运算和存储信息,比当时最快的计算工具快1000多倍。

1945年6月,普林斯顿大学数学教授冯"诺依曼(Von Neumann)发表了EDVAC(Electronic Discrete Variable Computer,离散变量自动电子计算机)方案,确立了现代计算机的基本结构,提出计算机应具有五个基本组成成分:运算器、控制器、存储器、输入设备和输出设备,描述了这五大部分的功能和相互关系,并提出“采用二进制”和“存储程序”这两个重要的基本思想。电子管计算机体积大、能耗高、故障多、价格贵。1948年,IBM开发制造了基于电子管的计算机SSEC。

1949年5月,英国剑桥大学莫里斯·威尔克斯(Maurice Wilkes)教授研制了世界上第一台存储程序式计算机EDSAC(Electronic Delay Storage Automatic Computer),它使用机器语言编程,使用了水银延迟线作存储器,利用穿孔纸带输入和电传打字机输出,可以存储程序和数据并自动处理数据,存储和处理信息的方法开始发生革命性变化。1953年,IBM公司生产了第一台商业化的计算机IBM701,使计算机向商业化迈进。

(2)数字电子计算器

1947年12月23日,第一块晶体管在美国贝尔实验室诞生,这是20世纪的一项重大发明,是微电子革命的先声,从此人类步入了飞速发展的电子时代。1952年,德州仪器从西部电子公司(Western Electric Co.,AT&T的制造部门)以25 000美元的代价购买了生产晶体管的专利证书。

1954年10月18日,世界上第一台晶体管收音机投入市场,仅包含4只锗晶体管。美国得克萨期仪器公司第一个制造出了商用硅晶体三极管,研制出第一台全晶体管电视机

1959 年菲尔克公司研制的第一台大型通用晶体管计算机问世,标志计算机已进入第二代,晶体管和其他元件都手工集成在印刷电路板上。晶体管具有体积小、重量轻、发热少、耗电省、速度快、价格低、寿命长等一系列优点,使计算机的结构与性能都发生了很大改变。 

1959年,第一台小型科学计算器IBM620研制成功。1960年,数据处理系统IBM1401研制成功。1961年,程序设计语言COBOL问世。1961年,第一台分系统计算机由麻省理工学院设计完成。1963年,BASIC语言问世。

(3)集成电路电子计算器

1958年5月,基尔比加盟了当时刚从海上石油钻探设备转行到电子设备上的德州仪器。当时的微型电路工艺有三种工艺,基尔比认为在一种材料上做出所有电路需要的器件才是电路微型化的出路。德州仪器的竞争力在于硅,但硅工艺的缺点是造价高,公司最好的电子产品将是在硅片上制作出各种不同的电子器件,再把它们连接起来。1958年9月12日,基尔比研制出世界上第一块集成电路。所谓集成电路是将大量的晶体管和电子线路组合在一块硅片上,故又称其为芯片。

1959年1月底,仙童半导体的诺伊斯也有了集成电路的想法,将各种器件制作在同一硅晶片上,再用平面工艺这一晶体管制造工艺将其连接起来,就能制造出多功能的电子线路。这一技术可以使电路的体积减小、重量减轻、并使成本下降。平面照相技术是在硅片上加上一层氧化硅作为绝缘层,然后,在这层绝缘氧化硅上打洞,用铝薄膜将已用硅扩散技术做好的器件连接起来。这样的话各器件之间就会有良好的电绝缘,而且绝缘氧化硅可以保护硅片上的器件。但是这一工艺只适用于硅晶体。这一技术也使得仙童能够制造出小于千分之一英寸的高性能高可靠的硅晶体三极管,使得仙童在硅晶体三极管技术领先。尽管,基尔比先于诺伊斯申请了集成电路的专利,但因为有了平面工艺来连接各个器件,诺伊斯的工艺领先于基尔比的工艺。

小规模集成电路于1960年出现,在一块 硅片上包含10-100个元件或1-10个逻辑门。如 逻辑门和触发器等。

1962年1月,IBM公司采用双极型集成电路,生产了IBM360系列计算机,第三代计算机诞生。第三代计算机的特征是集成电路。硅是地壳里含量第二的常见元素,是海滩沙石的主要成分,因此采用硅材料的计算机芯片可以廉价地批量生产。

1966年中规模集成电路出现,在一块 硅片上包含100-1000个元件或10-100个 逻辑门。如 :集成计时器, 寄存器, 译码器等。

1966年,美国无线电公司研制出集成电路电视机,日本索尼公司制成世界第一台集成电路收音机。

(4)大规模集成电路电子计算器

1970年大规模集成电路出现,在一块硅片上包含103-105个元件或100-10000个逻辑门。如 半导体存储器,某些计算机外设。美国IBM公司将采用大规模集成电路的大型计算机370系列投放市场;日本提出数字集成电路的发展方向:高速化、低功率、大规模集成。

1971年Intel工程师霍夫发明4004处理器,每秒执行五万条指令,Intel公司推出1024位 DRAM,第四代计算机微型计算机MCS4诞生。微型计算机的“微”主要体现在它的体积小、重量轻、功耗低、价格便宜。Intel 4004微处理器最初是Intel专门为日本一家名为Busicom的公司设计制造,用于该公司的计算器产品。但由于技术原因,Intel的延期交货让Busicom公司颇为恼怒。与此同时,计算器领域的竞争日益激烈,当Intel彻底完成4004芯片的设计和样品的生产时,Busicom公司要求Intel打折扣,Intel同意了,但是它附加了一个条件:允许Intel在除计算器芯片市场之外的其它市场上自由出售4004芯片。这也使得Intel公司完成了从单一的存储器制造商向微处理器制造商的转型。

CPU 由控制器和运算器这两个主要部件组成。 传统的 CPU 仅单独的ALU模块(逻辑运算单元)是用来完成数据计算的,其他各个模块的存在都是为了保证指令能够一条接一条的有序执行。这种通用性结构对于传统的编程计算模式非常适合,同时可以通过提升CPU主频(提升单位时间内执行指令的条数)来提升计算速度。 但对于深度学习中的并不需要太多的程序指令、却需要海量数据运算的计算需求, 这种结构就显得有些力不从心。尤其是在功耗限制下, 无法通过无限制提升 CPU 和内存的工作频率来加快指令执行速度, 这种情况导致 CPU 系统的发展遇到不可逾越的瓶颈。

计算器按键图:计算器的发展历史(1)

1977年苹果计算机公司成立,先后成功开发了APPLE-I型和APPLE-II型微型计算机。1980年IBM公司与微软公司合作,为微型计算机IBM PC配置了专门的操作系统。从1981年开始,IBM连续推出IBM PC、PC/XT、PC/AT等机型。

(5)超大规模集成电路电子计算器

在一块芯片上集成的元件数超过10万个,或门电路数超过万门的集成电路,称为超大规模集成电路。

1978年英特尔公司生产的8086是第一个16位的微处理器。很快Zilog公司和摩托罗拉公司也宣布计划生产Z8000和68000。这就是第三代微处理器的起点。64k位随机存取存储器是第一代超大规模集成电路。

1981年,IBM公司将8088芯片用于其研制的PC机中,从而开创了全新的微机时代。也正是从8088开始,个人电脑的概念开始在全世界范围内发展起来。

1992年10月,Intel公司发布第五代微处理器奔腾处理器系列,1993年3月正式推向市场,集成了1000万个晶体管的16M FLASH和256M DRAM的研制成功,进入特大规模集成电路时代。

1994年由于集成1亿个元件的1G DRAM的研制成功,进入巨大规模集成电路时代(Intel Pentium 4E)。

(6)存储器的发展

1949年5月,世界上第一台存储程序式计算机EDSAC使用水银延迟线作存储器。

1949年,美籍华人王安博士研制“脉冲传输控制装置(Pulse transfer controlling device)”获得了美国专利,开创了磁芯存储器时代。

1951年3月,由ENIAC的主要设计者莫克利和埃克特设计的第一台通用自动计算机UNIVAC-I交付使用,第一次采用磁带机作外存储器。磁带是所有存储器设备发展中单位存储信息成本最低、容量最大、标准化程度最高的常用存储介质之一。1963年,荷兰飞利浦公司研制成了全球首盘盒式磁带,

1953年,随着存储器设备发展,第一台磁鼓作为内存储器应用于IBM 701。磁鼓利用铝鼓筒表面涂覆的磁性材料来存储数据的。

20世纪50年代末,麻省理工学院的杰·弗里斯特领导的旋风工程,制造出了世界上第一台能够实时处理资料的“旋风电脑”,并发明了磁芯存储器。这是一种微小的环形设备,每个磁芯可以存储一位信息,若干个磁芯排成一列,构成存储单元。不同的数据可以存储在电线网的不同位置,并且阅读所在位置的一束比特就能立即存取,称为随机存取存储器(RAM),在存储器设备发展历程中它是交互式计算的革新概念。最先获得这些专利许可证的是IBM,IBM最终获得了在北美防卫军事基地安装“旋风”的商业合同。

在1950年,磁盘由东京帝国大学的Yoshiro Nakamats发明。其销售权由IBM公司获得。1956年,IBM向客户交付第一台磁盘驱动器RAMAC 305,可存储5MB数据,每MB成本为10000美元。1968年,IBM公司提出“温彻斯特/Winchester”技术,其要点是将高速旋转的磁盘、磁头及其寻道机构等全部密封在一个无尘的封闭体中,形成一个头盘组合件(HDA),与外界环境隔绝,避免了灰尘的污染,并采用小型化轻浮力的磁头浮动块,盘片表面涂润滑剂,实行接触起停,这是现代绝大多数硬盘的原型。

1998年,美国明尼苏达大学和普林斯顿大学制备成功量子磁盘,这种磁盘是由磁性纳米棒组成的纳米阵列体系。

(7)人工智能芯片的发展

1956年达特茅斯会议上,科学家约翰·麦卡锡,克劳德·香农和马文·明斯基提出了"人工智能"一词。50年代末,阿瑟·萨缪尔(ArthurSamuel)提出了"机器学习"这个术语,他开发了一个西洋跳棋程序,可以从错误中吸取教训,经过学习后,甚至比编写程序的人棋力更强。

可编程逻辑阵列(PLA)在1970年左右就出现了,但是一直被认为速度慢,难以使用。1980年之后,可配置可编程逻辑阵列(PAL)开始出现,可以使用原始的软件工具提供有限的触发器和查找表实现能力。PAL被视为小规模/中等规模集成胶合逻辑的替代选择被逐步接受,但是当时可编程能力对于大多数人来说仍然是陌生和具有风险的。

20 世纪70 年代末和80 年代初,GPU 概念提出,使用单片集成电路(monolithic)作为图形芯片,可以对几张图片进行合成。1984年,SGI公司推出了面向专业领域的高端图形工作站,才有了专门的图形处理硬件,俗称图形加速器。1985年,ilinx公司推出的全球第一款FPGA产品XC2064,采用2μm工艺,包含64个逻辑模块和85000个晶体管,门数量不超过1000个。

1986年,杰弗里·希尔顿(GeoffreyHinton)和他的同事发表了一篇里程碑式的论文,描述了一种称为"反向传播(back-propagation)"的算法,该算法可以显著提高多层或"深度"神经网络的性能。1989年,严恩·乐库(YannLeCun)和贝尔实验室的其他研究人员创建了一个可以训练识别手写的邮政编码的神经网络,展示了这项新技术在现实世界中的重要应用。他们训练深度学习卷积神经网络(CNN)只花了3天时间。

1991年Xilinx公司推出其第三代FPGA产品——XC4000系列,XC4003包含44万个晶体管,采用0.7μm工艺,FPGA开始被制造商认为是可以用于制造工艺开发测试过程的良好工具。

1995年,3dfx公司发布了消费级领域史上第一款3D图形加速卡voodoo,这也是第一款真正意义上的消费级3D显卡。随后的几年,AMD公司和ATI(2006年被AMD公司收购)公司分别发布了自己的TNT系列与Rage系列显卡。

1999年8月,NVIDIA公司发布了一款代号为NV10的图形芯片Geforce 256。Geforce 256将更多的晶体管用作执行单元, 而不是像 CPU 那样用作复杂的控制单元和缓存,将(TRANSFORM AND LIGHTING) 等功能从 CPU 分离出来,实现了快速变换,这成为 GPU 真正出现的标志。

2001年微软公司发布DirectX 8,在这一版本中包含了Shader Model(优化渲染引擎模式)1.0标准。遵循Shader Model的GPU可以具备顶点和像素的可编程性,从此微软开始引领图形硬件标准。同年,NVIDIA发布了Geforce3,ATI发布了Radeon 8500,这两种GPU都支持顶点编程,可以通过应用程序指定指令序列来处理顶点。

2006年英伟达与ATI分别推出了CUDA (Compute United Device Architecture,计算统一设备架构)编程环境和CTM(CLOSE TO THE METAL)编程环境, 使得 GPU 打破图形语言的局限成为真正的并行数据处理超级加速器。

2008年,苹果公司提出一个通用的并行计算编程平台 OPENCL(开放运算语言),与CUDA绑定在英伟达的显卡上不同,OPENCL 和具体的计算设备无关。

2009年,斯坦福大学的RajatRaina、AnandMadhavan和AndrewNg发表了一篇论文,阐述了现代GPU在深度学习领域拥有远远超过多核CPU的计算能力。

GPU在应用于深度学习算法时,有三个方面的局限性:第一:应用过程中无法充分发挥并行计算优势。 深度学习包含训练和推断两个计算环节, GPU 在深度学习算法训练上非常高效, 但对于单一输入进行推断的场合, 并行度的优势不能完全发挥。 第二:无法灵活配置硬件结构。 GPU 采用 SIMT 计算模式, 硬件结构相对固定。 目前深度学习算法还未完全稳定,若深度学习算法发生大的变化, GPU 无法像 FPGA 一样可以灵活的配制硬件结构。 第三:运行深度学习算法能效低于FPGA。

计算器按键图:计算器的发展历史(2)

FPGA 是支持电路编程的芯片,实现对该电路的“仿真”。FPGA 是在 PAL、 GAL、 CPLD 等可编程器件基础上进一步发展的产物。 FPGA可同时进行数据并行和任务并行计算,在处理特定应用时有更加明显的效率提升。对于某个特定运算,通用 CPU可能需要多个时钟周期,而 FPGA 可以通过编程重组电路,直接生成专用电路,仅消耗少量甚至一次时钟周期就可完成运算。它既解决了定制电路灵活性的不足,又克服了原有可编程器件门电路数有限的缺点。由于 FPGA的灵活性,很多使用通用处理器或 ASIC难以实现的底层硬件控制操作技术, 利用 FPGA 可以很方便的实现。这个特性为算法的功能实现和优化留出了更大空间。同时FPGA 一次性成本(光刻掩模制作成本)远低于ASIC,在芯片需求还未成规模、深度学习算法暂未稳定, 需要不断迭代改进的情况下,利用 FPGA 芯片具备可重构的特性来实现半定制的人工智能芯片是最佳选择之一。

功耗方面,从体系结构而言, FPGA 也具有天生的优势。传统的冯氏结构中,执行单元(如 CPU 核)执行任意指令,都需要有指令存储器、译码器、各种指令的运算器及分支跳转处理逻辑参与运行, 而FPGA每个逻辑单元的功能在重编程(即烧入)时就已经确定,不需要指令,无需共享内存,从而可以极大的降低单位执行的功耗,提高整体的能耗比。

由于 FPGA 具备灵活快速的特点, 因此在众多领域都有替代ASIC 的趋势。但FPGA也有不足:第一:基本单元的计算能力有限。为了实现可重构特性, FPGA 内部有大量极细粒度的基本单元,但是每个单元的计算能力(主要依靠 LUT 查找表)都远远低于 CPU 和 GPU 中的 ALU 模块。第二:计算资源占比相对较低。 为实现可重构特性, FPGA 内部大量资源被用于可配置的片上路由与连线。第三:速度和功耗相对专用定制芯片(ASIC)仍然存在不小差距。第四,:FPGA 价格较为昂贵。在规模放量的情况下单块 FPGA 的成本要远高于专用定制芯片。

计算器按键图:计算器的发展历史(3)

计算器按键图:计算器的发展历史(4)

ASIC即专用集成电路,是指应特定用户要求和特定电子系统的需要而设计、制造的集成电路。 ASIC分为全定制和半定制。全定制ASIC是利用集成电路的最基本设计方法(不使用现有库单元),对集成电路中所有的元器件进行精工细作的设计方法。全定制设计可以实现最小面积,最佳布线布局、最优功耗速度积,得到最好的电特性。该方法尤其适宜于模拟电路,数模混合电路以及对速度、功耗、管芯面积、其它器件特性(如线性度、对称性、电流容量、耐压等)有特殊要求的场合;或者在没有现成元件库的场合。特点:精工细作,设计要求高、周期长,设计成本昂贵。

ASIC 芯片非常适合人工智能的应用场景。首先,ASIC的性能提升非常明显。例如英伟达首款专门为深度学习从零开始设计的芯片 Tesla P100 数据处理速度是其 2014 年推出GPU 系列的 12 倍。谷歌为机器学习定制的芯片 TPU 将硬件性能提升至相当于当前芯片按摩尔定律发展 7 年后的水平。正如 CPU 改变了当年庞大的计算机一样,人工智能 ASIC 芯片也将大幅改变如今 AI 硬件设备的面貌。如大名鼎鼎的 AlphaGo 使用了约 170 个图形处理器(GPU)和 1200 个中央处理器(CPU),这些设备需要占用一个机房,还要配备大功率的空调,以及多名专家进行系统维护。而如果全部使用专用芯片,极大可能只需要一个普通收纳盒大小的空间,,且功耗也会大幅降低。第二,下游需求促进人工智能芯片专用化。从服务器,计算机到无人驾驶汽车、无人机再到智能家居的各类家电,至少数十倍于智能手机体量的设备需要引入感知交互能力和人工智能计算能力。而出于对实时性的要求以及训练数据隐私等考虑,这些应用不可能完全依赖云端,必须要有本地的软硬件基础平台支撑,这将带来海量的人工智能芯片需要。深度学习算法稳定后,AI 芯片可采用 ASIC 设计方法进行全定制,使性能、功耗和面积等指标面向深度学习算法做到最优。

类脑芯片不采用经典的冯·诺依曼架构, 而是基于神经形态架构设计,以IBM Truenorth为代表。 IBM 研究人员将存储单元作为突触、计算单元作为神经元、传输单元作为轴突搭建了神经芯片的原型。目前, Truenorth用三星 28nm功耗工艺技术,由 54亿个晶体管组成的芯片构成的片上网络有4096个神经突触核心,实时作业功耗仅为70mW。由于神经突触要求权重可变且要有记忆功能, IBM采用与CMOS工艺兼容的相变非易失存储器(PCM)的技术实验性的实现了新型突触,加快了商业化进程。

猜您喜欢: