脑芯编 | 窥脑究竟,结网造芯(三)

雷锋网按:本文作者痴笑,矽说(微信号:silicon_talks)主笔。本文为雷锋网(公众号:雷锋网)发布的《脑芯编 | 窥脑究竟,结网造芯》系列第三篇。

〈三〉梦里不问形与令

世界上有两种管家:

一种是Batman的Alfred

能服务能做饭能伪装能打架

狠起来超人也不是干不过

另一种是天朝的大内总管

掌印秉笔,啥事不会

老大又吩咐了就去传个话

你脑子里的CPU是哪一种?

 

有了神经元,知道了怎么把神经元连成网络,这个系列终于进入了主题——怎么实现神经网络。如果在这个问题上加一个条件,那就是“怎样用芯片实现神经网络的计算”

在回答这个问题以前,让我们先去拜访两位长者——Alan Turing和John Von Neumann,目前大家公认的计算机之父。话说前者才是真的“苟利国家生死以,岂因祸福避趋之”,详见卷福主演的奥斯卡获奖电影《模仿游戏》。

Turing-Von-Neumann架构

为了表达对大师的尊敬,我起了个很干脆的标题。大师之所以是大师,是因为他们定义了在80年前定义了通用计算机的数学模型和体系结构。在这过去的80年里,任何试图推翻这些结构的“投机”分子几乎都没什么好下场。但是,总有人希望推翻这个架构。先简单的描述下两位长者干了什么。 

Alan Turing在1936年提出了一种具有普适性的逻辑计算模型,证明通过有限状态机完成输入数据的操作,可以实现任意复杂的逻辑运算。图灵机本身描述的场景在现在看来已经没什么意义,但是他第一次完整的定义普适计算机体系机构——一卷很长很长的带子(infinite lengthtape)通过一个有磁头(head)的有限状态表(finite state table)进行读取/处理/改写的机器。

9年后,Von Neumann把带子改叫做“Memory”,状态表叫做“CPU”,磁头改叫做“Connection (Bus) ”,换了一副图,就有了史称“冯诺依曼架构”的现代计算机体系结构。

教科书上会说这个结构有啥特点,这是让你背的。其实很简单,图灵-冯诺依曼架构最大的特点是把计算任务分为了2个部分——数据存储(memory)和数据处理(processor)。处理器几乎不能存数据,存储器几乎不能算数据。两部分用一种连接方式(bus)按一定规则通信。泾渭分明的特点让冯诺依曼架构处理事情起来特别有条理,就像“男主外女主内”的家庭角色分配一样,在硬件资源极度受限的情况下,成为了自动化发展的中坚力量。

冯诺依曼架构有一个升级版,叫做哈佛(Harvard)架构,把存储空间分为了指令(instruction)存储和数据存储,对应不一样的操作。目前的主流嵌入式微处理器基本采用这个架构,但Anyway这并不重要。

冯诺依曼架构在过去的60年称霸人间,如果这项专利申请成功的话,这一定是史上最赚钱的专利。可是,冯诺依曼架构在经历了各种法院撕逼后,被判定为一项没有收益人的专利……(Youyou Tu和青蒿素在这面前简直不值一提) 

成也萧何 - x86的不可一世

虽然冯老爷子在自己的架构下发明了人类第一台计算机,ENIAC和EDVAC,但诺依曼的真正崛起还是要归功于x86。如果你不知道80x86是什么,那只能说明我们已经有代沟了,嗯,很深深的代沟。

Intel自1978年推出8086后,x86体系架构就一直是电脑(上到服务器,下到平板电脑)核心处理芯片的不二选择。

Intel x86 i7 版图

顺便做个普及,在冯诺依曼架构下,每个处理器会干的事情是有限制的,通常这个限制叫做指令集。它规定CPU的基本操作,没有指令集(instruction set)定义的复杂操作可以通过基本操作的组合来完成,比如指令集里没有乘法,那我们可以通过一定数量的加法来完成。

在冯老爷子的机构里,谁的指令集越大,可以访问的存储空间越大,谁就越牛逼。x86的指令集从8086到i7不断扩张与膨胀,最终成为了一个会算双精单精、矢量图像,多核多线程多Cache的巨无霸。简单的说,到2013年的时候,史上最强core已经无所不能了。可是历史不断在重演一幕就是,当绝顶高手号称要独孤求败的时候,不知道哪里窜出来的毛小伙子可能一个起手式就把你撂倒了。圣经里大卫王这么干掉了Goliath,《倚天屠龙记》里,张无忌这么称霸了光明顶。

那谁是x86的张无忌呢?

移动设备,RISC的春天

独孤求败的x86其实有个致命的缺陷——能效,通俗地说就是“做一次”要花费的能量。可是每块肌肉都很发达的muscleman总是要比一般人多吃几碗饭吧。我们现在能买到的i7即使在省电模式也要消费超过47W的功耗。本身47W不算什么,但是苹果乔大叔的出现,让47W一下子很麻烦。

Iphone/Ipad和一系列手持的充电设备对瓦级以上的功耗是非常敏感的!x86的功耗导致它“充电2小时使用5分钟”的悲惨结局。肌肉男瘦身变成筋肉男的必然的命运。

这时,x86,或者说是intel的张无忌出现了—ARM Cortex RISC. 所谓RSIC就是精简指令集(Reduced Instruction Set),他能干的事情很有限,但是他的功耗低。X86在其巅峰时期无数次地战胜过RISC,以至于ARM出现时并有没足够重视他,那时候Intel还在和AMD抢64位x86的主导权呢。

为什么无数次败下阵来的RISC可以最终成功呢?因为这次,他寻找到了一个partner——加速器。在移动端的应用设备里,其实也有很对需要强大计算消耗的进程,这是RISC本身无法胜任的。但是,实际应用上,往往这些进程是有固定的模式和使用场景的。比如手机在通话时的语音编解码,拍照时的图像处理(俗称“美颜”)和无线通信是的编解码。对于这样一个经常重复,且模式固定的高通量计算,可以在总线上加入一个专用模块(ASIC)加速,在处理专用任务是ASIC的能效又比通用处理器高很多。下图就是ARM有名的产品之一A9,除了CPU外,它的浮点与超标量计算(NEON)都被移到了CPU外(一般来说,这不能算作加速器)

这就是开头的那个故事,你每天充的电不够“超人”吃的,与只能换个块头小,但是能够指挥其他人的总管

败也萧何 -- 冯诺依曼瓶颈

“泾渭分明,靠总线连”的冯诺依曼架构带来了单核/少核时代计算机的春天,但冯诺依曼架构的致命缺陷——冯诺依曼瓶颈——也悄悄地增长。随着摩尔定律的发展,远距离的搬移大规模数据早已取代了计算本身,成为制约高效计算的重要瓶颈,对于x86结构,有太多指令可以直接穿过总线访问存储空间。

在RISC+加速器的体系结构里,总线作为“总管”和“内务府”、“上书房”、“御膳房”间的桥梁,更是好不吃紧。当瓶颈出现在通信上时,冯诺依曼架构就体现出了它垂垂老矣的一面。

这个问题,在实时处理的人工智能场景下显得格外突出,信号从入到出,都是按照是数据流(Data flow)的传输模式一帧一帧地来。这一特征在类脑的神经网络实现中就更加明显。如果每一个卷积的系数都要去云深不知处的存储海洋里去寻找,那神经元的处理效率会非常低。简单地说:

谁脑子TM的是一半纯记忆一半纯分析的呢?

脑子么,都是左右开工的。边走边忘,雁过留痕,却也是旧相识,恢复不出来一个一毛一样的。

所以,摆在类脑芯面前的路有三条

(1)  采用冯诺依曼经典架构,把神经元计算写在指令集里,反正是超人,技多不压身;

(2)  采用RISC+神经元/神经网络加速器,给“总管”再开个府呗;

(3)  放弃冯诺依曼架构,完全分布式硬件,像“数据流“一样的风骚走位。

这三个选项都有不错的代表,我们慢慢来。

梦里不问形与令,你知道计算机形(体系结构)和令(指令集)了么?

特别鸣谢 复旦大学脑芯片研究中心 提供技术咨询,欢迎有志青年报考。

雷锋网推荐相关阅读:

脑芯编 | 窥脑究竟,结网造芯(一) 

脑芯编 | 窥脑究竟,结网造芯(二) 

本文作者:矽说

本文转自雷锋网禁止二次转载,原文链接

时间: 2017-08-01

脑芯编 | 窥脑究竟,结网造芯(三)的相关文章

脑芯编:窥脑究竟,织网造芯(二)

雷锋网(公众号:雷锋网)按:本文作者痴笑,矽说(微信号:silicon_talks)主笔.本文为<脑芯编:窥脑究竟,织网造芯>系列第二篇. 〈二〉几重卷积几重生 蜘蛛结网,是为了捕食昆虫: 蜘蛛侠结网,是为了拯救世界: 码农Data Scientist (~ds~) 结网,是为了-- 换一个角度看世界, 英语叫做: Representation. 如果你只想知道一个关于神经网络的常识,我认为上面这个单词是最不应该错过的.就像每个学模拟电子学的人,其实归根结底就是学了两个字--放大. 话接上回,

脑芯编:窥脑究竟,织网造芯(一)

雷锋网(公众号:雷锋网)按:本文作者痴笑,矽说(微信号:silicon_talks)主笔. 你信不信有一天,硅工造的芯片会写诗? 如果信, 那说好的"诗三百,一言以蔽之,思无邪", 还真的是"无邪"么? 如果不信,请读下面这一首: 如果要给这诗一个赏析,大概可以是一个忧伤的故事. 天边云的变换复杂,而我却是半梦半醒,我在想一个人,想第一次和他相见,想他的风流倜傥,想他的英雄飒爽. 如果你是个文科生,或许你会嘲笑这首连平仄都不满足的劣质诗歌,韵脚也押的有些蹩脚,故事更

脑芯编:分手?摆脱冯诺依曼的深度学习硬件

不知不觉,<脑芯编>已经走过了上半阙.默默挥手告别那些弃剧的看官,也由衷感谢仍然愿意用手指点进来的您.你们是撑住脑芯编不烂尾的重要力量,与其肉麻,不如再念一遍诗的上半阙: 昨夜神风送层云,(神经元与网络) 几重卷积几重生.(卷积神经网络) 梦里不知形与令,(计算体系结构) 烛台簇华照单影.(单指令多数据) 上次我们讲到,现行的计算机体系结构--"冯诺依曼"结构是阻碍深度学习神经网络的一个重要瓶颈.其计算和存储分离的特点,使得神经元计算的效率低下.合理改变指令集,加入乘累加指

近距离接触类脑计算,看脑机接口如何走向脑机融合|CCF-ADL 新课报名中

雷锋网(公众号:雷锋网)AI科技评论按:7月28日~7月30日,由中国计算机学会主办的第81期 ADL(Advanced Disciplines Lectures)学科前沿讲习班将在京召开.本期主题为<类脑计算>,旨在帮助学员快速入门类脑计算原理和技术,了解学科热点以及应用方法,开阔科研视野,增进学术交流和增强实践能力.雷锋网作为独家合作媒体将进行全程报道,同时AI慕课学院已获本次讲习班独家线上视频版权,不能来现场听课的同学请猛戳右侧超链接:www.mooc.ai  . 课程链接:类脑计算线上

中国脑健康日:珍视脑健康,得了脑病必须正规治疗

中新广东网深圳9月15日电  (帅菲斐) 9月16日是中国脑健康日,深圳市第二人民医院副院长.神经外科专家李维平教授指出,珍视脑健康,预防颅脑疾病,不分年龄.性别.职业.地区. 脑的功能既重要又神秘 李维平指出:人脑的功能既重要,又神秘.人的思想.信仰.记忆.行为.情感都与大脑密不可分.人脑是思维形成的场所,控制机体各种生理活动的中枢,还具有协调人体肢体运动.躯体感觉.视觉.听觉.嗅觉的能力.正是由于有了大脑,人们才得以讲话.计数.作曲.欣赏音乐.识别几何图形.相互理解和彼此交流.大脑还具有制定

【演讲实录】清华大学王生进教授:脑电识别与脑机交互的三大问题和解决关键

  ◆ ◆ ◆ 本文内容选自清华大学电子工程系王生进教授于清华人工智能论坛上所做的题为<脑电识别与脑机交互>的演讲.他认为人类正处于人工智能的启蒙阶段,脑机交互,是人机交互的重要方向.探索人脑,发现感知认知机理,解明推理决策过程,实现自我意识,这是人工智能未来研究的重要方面. 演讲全文如下: 各位来宾.各位专家,大家下午好.很高兴主办方能给我们提供这样一个机会,让我们一同开启探讨人工智能未来发展之路.刚才张院士的报告非常精彩,张院士把人工智能的过去.现在和未来做了一个全面的概述,高屋建瓴.下面

读《结网》:产品经理也可以改变世界

<结网> 老早都读完了,现在才准备写读书笔记,有点晚.当时(5月3号)读完后随手在腾讯微博上丢下读书小结: #王坚#实战经验之作,案例 丰富,让人信服作者阅历很广引用读料.图片素材恰到 好处,平时知识累积很重要章节之间衔接做的不够好,读进去容易迷失方向,有个"面包屑"指引或小结 最好190页以后大段引用Pixar有灌水之嫌 写得很粗糙,对作者的辛劳成果也不负责任,现在重新理一理思绪,写一下读<结网>的心得. 一.互联网产品经理也可以改变世界 本书的副标题是&qu

手机厂商扎堆“结网”淘金

超2亿手机网民成庞大市场 日前,手机厂商三星公司与中国最大的SNS网站人人网宣布合作,手机用户拿起手机就能上网找朋友.据了解,包括摩托罗拉.三星.诺基亚等主流手机厂商纷纷"结网",把SNS网站搬上手机成了一种新的趋势. 本报讯 (记者段郴群)据了解,除了与人人网结盟之外,三星手机还与百度.腾讯和凤凰网等互联网网站进行结盟.而人人网目前也与包括诺基亚.摩托罗拉.三星等众多知名主流手机厂商都有合作,并不断推出适合不同手机平台的人人网移动客户端. 原因一: 手机网民发展迅猛 据CNNIC公布

《结网》&《人人都是产品经理》对比

先插播个消息,5月5号晚上我在QQ群的分享,文字版已经整理完毕,点此查看. 51假期看了王坚大哥的<结网:互联网产品经理http://www.aliyun.com/zixun/aggregation/17502.html">改变世界>,一直到今天才有空写点什么,我想作为<人人都是产品经理>的作者,我的角度应该比较特别. 腾讯vs阿里 最nb的推荐人都姓马--马化腾vs马云 图灵教育vs博文视点 同样2010年4月上市 同样4月20号开卖 同样的主题 同样的目标用户-