未来电脑会是怎么样的-未来十年电脑系统的变化
1.几千年以后电脑是什么样的?
2.硬件与计算机体系结构的关系
3.计算机的未来发展趋势
4.移动互联网正在改变一切,未来十年世界将会有哪些变化
5.这是什么定律或者定理?好像是一个人的名言
几千年以后电脑是什么样的?
你们说的一点也不靠谱,还是我来回答,多少有那么一点意思.愿和有相同兴趣的人分享.
CPU的未来:多核之后是什么?
发布时间 2007/2/10 阅读次数 419 作者 St.Linus
随着莫尔定律的发展,IC设计者发现他们有许多硅,这些真实的资产来继续发展。David Chisnall有些他们要去尝试的冒险想法。
预言未来
明确的预言未来的技术是非常容易的,这东西将会变得更小,更快,更便宜。这将会在几个世纪里实现并且不大可能发生改变——至少到我们开车跑起来不加油的时候。这会变得更有趣,并且我们预计未来一些东西会变得更复杂。
一些受雇于未来主义者的人仅仅是尽量预测一些东西,和提起语言正在发生的人们,不久他们就忽略了一些正确的受争议的预测。这些接近工作有个限度,但是它不是非常有趣。
在计算机世界里一项好的技术看的是在大型计算机和超级计算机工作组上会发生什么和预测同样的排序运算在个人电脑领域会产生怎样的效果。当我在参加一个IBM工程师关于他公司的新虚拟化技术的讨论时,这条规则对于像我开车回家。他谈论到他的公司有项优势是其他人的工作领域所没有的:不论什么时候他们被难住,他们会独自去大厅的超级计算机设备那里去询问如何解决同样的问题在几十年前。
这种方法在未来是很好的指导:这些东西通常降下来,从低到高的消费阶层。
另一种趋势是昂贵高端的变得越来越小。SGI的错误是没有预料到这是正确的。大概10年前,SGI是一个生产高端昂贵图形硬件的公司。他们一直保持这种定位;他们最后的硬件允许一些GPU共享同一个存储器因此紧紧的结合在一起工作。不同的是现在NVIDIA生产GPU。很多来自NVIDIA的人从前是在SGI工作的,但是他们的管理部门不想让他们生产消费级别的图形加速设备,直到它能够和高端昂贵的硬件相媲美时。这些人们继续在自己的公司中,和现在他们拥有20%的重要市场份额大于与SGI竞争的整个市场份额。更糟的是SGI的前途,一些十年前想要生产高端昂贵硬件的人们现在到了仅仅能够担负起消费税的地步。新使用高端昂贵设备的经常会改变,但是最终消费部门追上。
这个阶段的成就
双核CPU第一次被商用领域的IBM制造出来的POWER4在几年之前。这个主意简单是:一些大型机器有许多CPU,如果把他们放在一个CPU中可以减少他们实际上的体积。
那些天,Intel和AMD跳跃到双核潮流上,它们的竞争朝向多核甚至更高。这是一个必然的开发环境,相应的到摩尔定律——其中一个重大的观察错误会在计算中。莫尔定律的成立是在CPU中晶体管的数量每增加一倍需要12-24个月。(这个精确的周期有时变化,取决于你什么时候问戈登·摩尔,但是它通常报出是18个月。)如果你想花费更多钱,你可以增加更多的晶体管;举个例子,Extreme Edition的Pentium系列把这些放在了更多缓存上。这个问题变成了他们增加了多于的晶体管。Pentium 2,1997发售,用了7.5亿晶体管。Itanium 2,2004年发售,用了592亿晶体管。它们大部分是缓存。CPU中加入缓存是好的,是一个增加晶体管的简单方法,缓存很简单,增加一些只是比芯片设计的复制粘贴单元快了一些时间。不幸的是它开始减小,并且直接快速返回。一次全部工作进程转载入缓存,加入一些规则没用好处。
另一种手法是加入更多核心,看最后的两个CPU的晶体管个数,我们看到2004年有必要生产80核心的Pentium 2。在十年前,它是节约的,可执行的方案来生产5000个P6核心。不幸的是,电源设备仅仅可以提供一个芯片的,这意味着需要它单独的供电设备。没用提到靠液氮来冷却它提供一个稳定的支持。这看起来尽管像存储器技术只会在这个它们可以保存部分提供的数据的时期,每个都有自己的总线,但是你不能最低限度的使用1000根针脚——64000跟为64位内存总线。甚至设计他们封装在一个芯片上分布象征一个工程挑战;设计主板将要链接存储器通道和内存bank是个问题,这会给大部分PCB设计者重复的恶梦。
从芯片上抛弃一些缓存工作变慢了点。从芯片上跑多一些核心变得更慢。终于,不管怎么样,聪明的解决方法将会出现的。
RISC相对于CISC
其中一次大辩论在上世纪80年代和90年代中是否RISC或者CISC指令接近的部分设计是否正确。这个主意在RISC之后提供了个简单的指令用在平台的复杂计算上,很快人们需要复杂指令的CISC为了他们自己的需要。
具体化的CISC设计是VAX,写VAX汇编和写高级代码没用太大不同。在稍后的VAX系统中,一些指令是微代码,这些意味着分解在简单些的真是指令后就是在实际硬件上运行的。在VAX后,Digital发明了Alpha,这芯片相对的出色。Alpha有一个微指令集,但是运行的异常快。在几年里,它是可以买到的最快的微处理器。甚至到现在,500强计算机中还有一些基于Alpha的,一个不好的事实是这种芯片不会在现今的开发环境中超过五年。
在早些年,RISC做到很好。编译器编写者喜欢这种芯片;它可以简单明白指令集,和它在构建RISC指令集上比在CISC上更简单的了解复杂语言。
第一个问题在RISC上的原理变得明显改善在操作部分。早期RISC芯片没有除法指令;一些甚至不能有乘法指令。相反的,他们创建了一连串的超过早期的指令,像变换操作。这不是一个软件开发问题;他们会仅复制一连串的指令以在机器结构内部完成除法,放一个宏指令在某些地方,用它像我们有一个除法指令时。这样一些人找到一个高效的方法使用除法。下一代CPU的除法指令执行操作在几个循环中,直到那些循环外部的数据执行一系列的数据用起来像个代替品。这带到更远的一步是Intel最后一代核心的微代码结构。一些连续的简单的x86操作现在是一个简单的指令集合。
RISC原理的一些部分继续存在。它一直广泛的被关注像是一个好主意在指令集的正交上,举个例子,因为提供乘法运算的方法做一件事是在浪费硅晶体。不管怎样,简单指令集的方法被列出。甚至现在的PowerPC和SPARC芯片是占有了占有市场像RISC处理器一样没能意识到那些RISC创造的周期。
SIMD和更多
后来一个相对普通的特点在高性能计算机领域,Pentium MMX是第一个x86芯片加入单指令多数据流(SIMD)指令集。这些指令精确列举他们的建议,提供一种方法执行同样的数据乘法操作。稍后传统(数量)指令回去掉从另一处来的数据,SIMD对应的能去掉四个数据从四个数据中,执行同样的操作在四次输入上。这种运算用在许多和视频程序上。
SIMD指令加入CPU是相对便宜的,提供一个好的回报在投入上。如果你的进程消耗你10%的CPU你要升级,你不太可能注意到这现在仅仅花费5%。有过你有个进程占用了100%的CPU,你会很幸运的注意到,如果原来需要10分钟运行的程序现在需要2分钟。许多应用SIMD的好处是从SIMD到后面的类型——运行用了大量CPU能源——因此允许它们运行的更快提供一个可察觉的改善。
超过SIMD,一些进程有合适的指令进行特定运算。VIA的C3,举个例子,有些指令专门用于为AES加密运算加速。C7加入了一些为SHA-1和SHA-256哈希运算的加速。像图形,关于密码的计算典型的基于CPU。他们像是更加重要在将来,像这样的数据发送到网络,更多的机器和移动设备上。这不是罕见的在偷窃时查看为一个便携电脑硬件所进行的AES加密运算;加快AES运算在机器上用磁盘做更快。硬件加速密码破译不是新的。一些公司生产PCI卡形式的密码加速器。
图形处理单元(GPU)
后来只有一些电脑有一个专用的密码加速卡,大部分有个图形处理器。每代GPU越来越相同。这些天,GPU用在很多高性能计算机应用中,因为GPU有庞大的计算能力。在效果上,GPU时个超标量流顶点处理器,它并行处理一些SIMD指令流在很快。
在设计上,GPU和Pentium 4有许多相同的地方。他们都用了超长管线允许他们一次使用许多指令。他们执行起来很糟糕如果其中一个管线预报了错误。这是Pentium 4的一个问题直到这个支流被发现,平均大约每7个指令。它对于GPU不是大问题,这样的设计时为了执行特殊运算,不会陷入更多的错误分歧中。
现在的环境在PC世界中很像20年前。回到那时,电脑有几个处理器时不寻常的,一个时我们为什么要叫做的中央处理器(CPU)。CPU的一般目的时计算和协调与其他CPU的活动。通常,工作站和高端昂贵PC有一个浮点处理器(FPU)进行浮点运算。始于80486,FPU同CPU在相同的领域消失了。另外的普通加法运算时内存管理单元。这个单元控制物理和虚拟内存之间的转换;那些日子里,你很难找到CPU里没用MMU单元的。一个现代电脑有一个CPU和并行的浮点运算器。它不需要很大的飞跃来想象Intel最终要把一个或两个GPU核心加入CPU中。
在这点上,你或许想这是可能升级的范围,因此它值得向后退一步看CPU的发展。2005年,苹果的便携式电脑首次销量上超过了台式电脑。这依然在工业上跟随。这个增长范围在移动GPU的销量上大大超过了在桌面GPU上的销量,Intel在CPU和GPU市场时最大的玩家。很少的人升级他们的GPU在便携式电脑上。
哪些在CPU上我们可以还做
浮点处理器,内存控制单元和顶点处理器已经准备加入现代的处理器中。数字信号处理单元(DSP)已经加入了一部分数量的处理器中,它们像是他们将要发现他们的方法不久在消费者的CPU中。第一次用到附加的晶体管时加入了许多执行单元,制造深流水线和更宽的超标量结构,和更多的缓存。现在我们加入整个同种的处理单元。尽管只有一些级别透过范围。这一步从单核到双核是巨大的改善;在我的电脑的一个CPU上分配75%的CPU资源是少有的,更多普通的将要分配50%,将要在停止共享和其他程序或核心之间。
从双核到四核将会是一个非常小的改善,单仍有意义。当年升级到32核或64核,事情就变得有趣了。它经常是必须的写线程代码在某些程度上并且使用起来不能有很多漏洞。这些应用一个异步信息很容易,接近于穿过,但是流行的桌面开发环境API没有设计围绕这个模式。在实际上,很少的桌面软件用到这些。一些例如,视频编辑。举例子,能吃掉不少抛出的像你将来预料到的CPU资源。已经收缩的高端性能将会继续。那些日子里,一些人主意到1GHz Athlon和3GHz Core 2 Duo的区别在绝大多数时候。一些人需要最快的电脑可买到的已经相当小。需要中档速度机器的人的数量将要收缩。
后来移动计算和精确数据中心的继续增长,电的消耗变得更加重要。猜想一个32核CPU允许你关闭核心当你不使用它的时候。在移动领域,你大概最好需要2到3个核心。
不同类型核心的CPU
如果你只有一少部分核心在你的进程上,你就开始惊叹为什么它们存在。少数应用程序需要所有核心为了加快运行速度在专门的硬件上,因此我们用什么代替它?
我们开始看这个将要形成的趋势。例子包含了苹果的Core视频;它将会运行在你的CPU上如果你需要,它有在CPU的顶点单元如果有,或者GPU需要更快。OpenSSL将会运行在密码加速卡上如果它存在,或者运行在CPU上如果它没有。存在于普通运算的抽象接口是一种功能使它更加容易在硬件上执行;只有一些小的变化是必须使用一些功能的优势。我们看到OpenGL上的一些相同的东西;顶点变换和光线运算在图形硬件上必须有个新驱动要写,但是不能修改现行的应用代码。最重要的,专用的硅制造的硬件的效率比一般用途的硬件效率高在未来的工作上,电能的消耗像是更少。
如果让硅进入太空,为什么没有让一个CPU进入亡?一个密码加速器呢?专用硬件在其它昂贵的逻辑计算上如何?当他们不用时,你可以关闭他们。当年需要时,他们将会占用一点能源允许同样的计算在普通硬件上,第一步这里整合了FPU和SIMD单元。下一步将要像整合GPU那样在一起。超越这些,它好像关系到大多数专用硬件的优势。在一些实例上,我们将会简单的看到扩展的基本指令集(像发生在浮点和SIMD指令的)提供运算一些在逻辑上的传统运算。终于,我们看起来像是那些引申的超过单指令。
我看起来有个主意是封装到FPGA中像是十分动人的。这将允许许多灵活的运算,但是像一个有意义的能源消耗。
硬件与计算机体系结构的关系
导读多核和Cell等新型处理结构的出现不仅是处理器架构历史上具有里程碑式的事件,对传统以来的计算模式和计算机体系架构也是一种颠覆
智能革新
2005年,一系列具有深远影响的计算机体系结构被曝光,有可能为未来十年的计算机体系结构奠定根本性的基础,至少为处理器乃至整个计算机体系结构做出了象征性指引。我们看到,随着计算密度的提高,处理器和计算机性能的衡量标准和方式在发生变化,从应用的角度讲,讲究移动和偏向性能两者已经找到了最令人满意的结合点,并且有可能引爆手持设备的急剧膨胀。尽管现在手持设备也相对普及,但是在计算能力、可扩展性以及能耗上,完全起步到一台手持设备应该具备的作用;另一方面,讲究性能的服务器端和桌面端,开始考虑减少电力消耗赶上节约型社会的大潮流。
本来,这些都应该是此前十年要意识到并解决的问题,却恰恰被高速增长的喜悦淹没,片面追求性能和技术细节简直就带来了一场灾难。电脑到目前为止并没有变得更为方便好用,反而由于可用的层面更广,人们依旧无所适从。现在很多人意识到,必须从硬件设计上就具备某些功能,比如自主的电脑系统管理、编译器层面的多任务分配和通过虚拟或者其他技术实现的各个用户、网络、设备的有效隔离和管理,防止病毒过快扩张从而有效降低IT的维护成本和费用。
未来十年内最会被关注的系统架构大迁移,乃是Cell引领了完全可扩展的架构模式。尽管SONY的初衷可能是生产一个能强悍的游戏机处理器,IBM和东芝却有更深远的打算,它可以从大型机、服务器一直到手机维持统一的架构,需要改变的仅仅是频率、内核数量等等相关参数,从而在开发的时候能够具备在一个机器上开发,在所有机器上运行的可能。尽管其中可能因为种种原因,比如操作系统的不同,无法实现完全的代码共享,但实现代码的二进制共享是完全可能的。由此意味着,使用Cell的手机完全可以与相应的服务器进行直接沟通和资源共享,从而把这些小资源集合成为一个庞大的计算资源,在成就与否定自己的过程中实现资源的最大化利用。在这个资源体系之中,每个资源节点可能是微不足道的,但是每个节点的运算都可能被整个资源库无穷放大,从而构成一个完整的Cell网络。
Cell本身适应这种变化,同样也是它自己创造了这种变化。因而从它开始就强调了不一样的设计风格,除了能够很好地进行多倍扩展外,处理器内部的SPU(Synergistic Processor Unit协同处理单元)具有很好的扩展性,因而可以同时面对通用和专用的处理,实现处理资源的灵活重构。也就意味着,通过适当的软件控制,Cell能应付多种类型的处理任务,同时还能够精简设计的复杂程度。
但是,仅仅有这些并不足以让一台电脑更为人性化,电脑的活动需要人多量的干预,不足以抵消它在性能上的进步,“它”没有更体贴人来自电脑无法感知自己本身。下一步需要做的是,让电脑有“感觉”,这样会消耗多量的计算资源,当然也会让电脑真的能够应对一些需求的时候,变得更为简单和方便。
这里说到的“感知”乃是一些软件的算法搭配硬件,实现对基本线条及其造型的判断,从而达到更为智能的目的。比如说,目前还无法对图像进行有意义的搜索,用户无法通过一个的大概映像在浩如烟海的库中找到自己想要的。而这些往往应为数量巨大没有进行标注,查找就是很麻烦的事情,现在Intel和一家公司正在研究可以进行搜索的软件,如果真的能够判断线条组合的话,将是计算机史上的一大飞跃,这就意味着,电脑真的能够学习了,在IDF Fall2005上,Intel展示了这个软件的初潜功能。
让机器具备识别线条及其组合的几何形状的能力估计将成为人工智能的分水岭,而机器获得的可学习能力将大大扩展他们的用途,一些简单的机器活动将不需要人的参与指挥,这就是图像搜索研究可能带给人们的巨大收益。
机器能自我感知还包含一台互联状态下的电脑,能够清楚互联机器的位置和具体属性。通过信号到达的时间差确定分布,如果进行严格的距离限制,对像Wi-Fi这样的无线信号的跨区域保密,就不再是一个难题,超过距离的请求不回应即可,大大减轻了人们在保密算法上的投资压力。
可以发现,技术正变得更为人性化,正朝着人们想要的方向前进,解决了上述问题,也将为电脑的未来增长提供持续的强大动力。2005年对IT而言值得纪念的事情乃是PC经历过很长时间的徘徊停滞之后,将冲破2亿台年销量的大关,这是像Intel这种注意大量前期投资的公司为什么继续投入的根本原因。
节能是主题
节能的思考方式,将决定系统架构中占据重要位置的处理器设计,这意味着晶体管数量消耗较小的RISC架构还将占据主流位置。现在Intel处理器的设计,借用了RISC的思想,不过为了保证与以前硬件的相互兼容,处理器变得过于复杂。
在绝对能耗和计算密度增加的时候,节能的处理器设计拥有更大的现实意义。可以提供更大计算密度,同样体积的刀片服务器中能够支持更多处理器,从而让更高性能的群集计算成为可能。现在,一些考虑甚至更为细节化,技术有可能让节约任何有用资源成为可能,Intel甚至展示了一款处理器原型,把电源调整的模块做到了处理器上,以适应高速处理器快速频率变换在电源需求特性上的不一样,同时还能够节约主板空间,把电源模块腾出来就有可能实现更大的计算密度或者更完善的散热措施。
节能也让集成化的思考进入更主流视野。这也是“后频率”时代对片面追求频率而不顾及其他的直接回应,有些部件的集成不仅有利于整个系统的性能提升,也有利于能耗的大大节省。比如像处理器内置内存控制器的做法的确非常好,但是还不够,如果能够把图形芯片和内存控制都集成在处理器内,那样才更有节能价值。这恐怕对那些唯性能论的人不是一个好消息,却绝对是未来笔记本电脑和掌上设备的发展方向。尤其是对于寸土寸金的掌上电脑来说,这种集成更是求之不得。另外,对于多核处理器,需要更为细致的安排,让每个处理器拥有自己的独立访问内存的权利并且能够直接进行信息交流,同样会让处理器的等待时间缩小,从而提高处理器单位能耗的性能表现。
把能耗考虑进去并且通过单位能耗的性能增量看作新的衡量指标,有利于高效率的流水线设计。Pentium 4的超长流水线除了能够带来相应的频率提高外,还意味着处理一个任务的时候,开关的晶体管将要比流水线短的处理器更多,从而意味着更多的能量消耗。
未来以移动平台为核心的处理器系列,将使用更短的流水线,以提供更为合理的能耗。并且,当频率过高的时候,晶体管的泄漏电流将成为处理器功耗的主要来源,那就意味着,未来性能的提升将仰赖处理器的多核安排模式。
还需要注意到,软件对硬件的利用同样左右处理器或者整个电脑系统的功耗。尽管我们的假想对像是个人桌面运算系统,这种概念同样适用于服务器以至更广阔的领域。但是不通过细致的电脑管理工具和与底层相关的一些东西紧密结合起来,比如BIOS、操作系统这个层面的理解和配合,大概是无法实现资源的合理调配,也就无法实现真正的节能。从这个意义上来说,软件和硬件已经变得更相互依赖,尤其是需要提供一些高级特性的时候,这种相互交叉变得不可避免。另外,软件提供合理优秀的算法渐渐被人淡忘,现在开发人员更多通过硬件上的努力抵消软件编制的幼稚,同时开发人员需要代码更好的可读性,也削弱了他们进行优化的积极性。这对节能同样不利,合理、“聪明”的编译器应该是最后能有所作为的防线,但是它的意义会很有限。处理器开发商需要提供更为完善的编译器,能够更为合理地调配资源成为其中的关键。尤其是在多核处理器逐渐深入人心的时候,对任务的调配就不仅仅应该操作系统层面上的事情,需要上升到系统架构的层面,打通各种环节才有可能实现,否则任何所谓的技术图景在现实中都将是那样苍白无力。
多核处理器到来之后,还将面临一些实际问题。一些没有经过并行编程的应用是无法充分享受到多核处理器的好处的,并且,多核处理器本身有一些需要软件编写人员注意的事项,需要他们在编写软件的时候尽量避免某些可能导致拥塞的事情发生,否则,效率将成为空话。这让并行编程的难度远远高于传统的模式,何况一些软件分成几个部分变成的难度差异很大,如何解决桌面双核利用率不高的问题也是重点之一。总不可能要求用户同时打开数个任务一块跑,那样有可能会有些效果,却不是一个用户愿意听到和看到的。那样就需要提供一个完善的编译器机制,按照合适的分配法则进行资源请求的分配,以实现硬件设备的完善利用,而不能仅仅依靠操作系统层面上的任务分配方式,那样对双核处理器系统的推广是相当不利的。
即便是针对服务器平台,这样的中间件也是很有价值的,那样可以大大减弱多处理器平台对软件特性的依赖,开发人员也不不要考虑那么详细,对结果影响不大。估计这是未来一段时间内很多人思考的新空间,尤其是针对像OpenGL这种调用,整个程序封装很严密的时候,这种拆散机制将会成为灵活利用资源的超级工具被人们广泛利用。可能没有特意编制的软件效率那么高,但却符合PC用户的需求,在高端软件都平民化的时候,这尤其重要。
核心还是虚拟化
多核出现的意义还在于可以有资源用来虚拟化,可以实现更有意思的功能搭配。因此,无论是服务器还是桌面运算系统,在虚拟化这个方向还将走得更远,并且像HDTV这样的数字内容逐步
走向家庭,家用PC的角色将大大转变,除了目前所进行的一些任务外,还需要考虑到这么大容量的内容存储和检索,将成为家用PC的一个重要角色,家用PC也在向家用服务器转移。
但是在这一点上,家用PC将受到像游戏机这样平台的挑战。它们功能相对单一,操作系统和软件相对固定,虽然用户能够参与其中的概率比较小,却可以保证一个相对稳定的工作平台,从而成为家庭信赖和依靠的伙伴。这种单功能的简化产品并无意味着功能的简单化,而是把一部分很需要的功能从电脑里拿出来,进行大大强化从而形成一个独特的产品。
虽然游戏机以前可能不会成为电脑的竞争对手,但是在它们进行拓展之后呈现了明显的这种与电脑试比高的形势,最重要的是它的消费更关注软件层面上的相互衔接和搭配,而不像现在PC抑或是一些中低端的服务器,软件和硬件的搭配不是那么紧密,它们其中的缝隙就有可能成为游戏机的生存空间。尤其是家庭服务器到来的时候,相互直接竞争的关系居然日益明显,像索尼和微软都宣称他们的游戏机不仅仅是游戏机,而是拥有更为广泛而且深刻的含义。
多核和虚拟化也正是应对家庭中家用PC的边缘化成为服务器这一趋势而做。以显示这种视频输出为中心和以家用服务器(姑且称之)为交换中心的格局正在逐渐形成,家用服务器将关联所有能够联系的数字设备从而成为数字家庭的HUB,存储重要的数字内容,而它的具体性能和运算将通过HDTV以及手持设备进行展现。上升到这个层面,虚拟化不仅将成为管理电脑的强大工具,还将成为关联各种设备很重要的手段。
另外,针对家用服务器所处的地位和它的服务内容,存储和网络连接将是家庭服务器很重要的考核量。为了充分利用处理器资源,将它们进行虚拟划分以及I/O层面的虚拟化,都将像目前的服务器领域那样具有现实意义。同时,正是这种角色转变,才让虚拟化更加可以深入人心地被充分利用和管理,或许,当虚拟化成为常量的时候,家用PC不向家用服务器转移也是不太可能的事情,否则,驱动家用PC增长的后驱力将会非常弱。
对系统架构而言,需要考虑更多的系统吞吐量,处理器将变得更具备吞吐能力的HUB,而不能仰赖北桥芯片,那样效率低而且也不利于成本和能耗的降低。处理器内部集成内存和I/O控制器乃是时代的必须,绝对不是技术恩怨所能把握和左右的。
处理器向更大容量的2级缓存也是必须。当作为家庭服务器之后,数据的转移交换和解码编码将成为桌面运算平台的主要工作,尤其是这些工作需要同时进行的时候,2级缓存的优势将会体现出来。那些需要大量运算资源的编码、解码工作将会因为大量的2级缓存变得相对更容易。
一方面,随着生产工艺的提高,2级缓存自然水涨船高;另一方面,新的设计和任务需求需要这大量的缓存,缓存的大小还将继续成为处理器性能的分水岭。
多核架构之乱
现在的多核处理器设计呈现数种倾向。以AMD和IBM的HyperTransport派,可以实现分离缓存的高速共享和数据交换,处理器之间的通信也有直接的通道进行,因此可以通过分离的缓存实现很高的性能。同时因为各个处理器核心具有自己的访问内存机制,不相互干扰,在一些缓存相关性特别严重的应用中,它这种架构是很有优势的。所谓成也萧何,败也萧何,它这种架构具有明显的取向,HyperTransport作为它们传输干道,是分利于小数据块的连续传输,而对大数据块的传输表现一般。对于未来应用,均衡性不是很好,但可以肯定的是,商用性能断然奇佳。
Intel目前的Pentium D核心处理器太像一个模仿出来的产品,由于Pentium 4本身不具备处理器相互通信的机制并且处理器访问内存受到很多限制,这让它的双核处理器并不太成功。尤其是一些考虑数据相关性的应用,两个Cache之间的数据通信都将给总线带来无上压力,从而大大降低了因为多核带来的计算能力提高的好处。尤其是两个核进行通信的时候,双方都无法访问内存,设若某个软件的某个片断有大量的需要进行修改的数据,结果将是灾难性的。
随着移动平台技术迁移到桌面平台,在功耗和性能上达到新的高度之后,新系列的多核处理器还是很值得关注,但是如果Intel不继续改善处理器系统的I/O性能,所能够得到的好处还将因为I/O等待而散失殆尽。尤其是未来10年内,数字内容的爆炸式增长将对处理器的I/O提出严峻挑战,尤其是多核的系统更应该在这方面多花功夫才是正道。
Cell很独特,有一个主控处理器进行资源分配和负载平衡。其他8个协同处理单元具有很大自主性,因而可以很容易分配到各个运算流水线中去,构成相对独立而又相关联的结构。虽然每个协同运算单元具备独立的内存资源,但是高速的互联总线让它们可以充分利用整个系统的缓存资源,并且协同处理器单元之间也拥有完善而且快速的联系通道,成为Cell处理器能够自由组合成为面向多种应用类型的关键。
根据各种应用的不同,Cell就能够相应组合,成为高于通用处理器,在各种应用场合中能够向专用架构发起挑战的处理器。因此,在一些负载很大的场合,从服务器到游戏机,都将是它信马由缰的大好场所,怪不得,东芝还把Cell当作HDTV的处理芯片使用。只要提供良好的编译器环境,它就能针对不同类型的应用进行优化搭配,的确是Cell精当的地方。
Cell的其他好处来自软件的编译,完全的模块化思想,有利于运算资源的良好搭配,尤其面对协同处理单元这些资源,不在软件商进行优化搭配,将很大程度上损害Cell的声誉,尽管我们现在无法定论它就能够主宰未来的系统架构,但就目前来看,至少它代表一种趋势毫无疑问,统一的架构对任何人都很必要。
要完成向多核的转变,还需要很多路要走,尤其像功耗这样的问题不可忽略,有可能成为左右多核是否成功的关键因素。Intel以Pentium 4核心的多核计划必然不可能走得更远,它的移动平台更适合多核;AMD的多核系统也将会功耗过高,发展受到制约;Cell却走了一条完全不一样的道路,很具有现实意义,可以综合能耗、性能以及针对不同的特定任务,实现架构的自由组合变换,乃是未来一段时间的重点,如果说谁会主宰未来的处理器市场,Cell是一个不可忽视的选手。
技术应该是生活化的技术,生活也将成为技术化的生活,任何纯粹的以追求技术而技术的做法都将很难得到认同和发展。很可喜的是,最近的计算机体系结构考虑到了一些生活细节,当然这些还远远不够,站在人类的立场上,请不要认为我们对技术要求过于苛刻。
计算机的未来发展趋势
计算机的发展趋势如下:
1、巨型化,指计算机具有极高的运算速度、大容量的存布空间;2、微型化,大规模及超大规模集成电路发展的必然;3、网络化,计算机技术和通信技术紧密结合的产物;4、智能化,让计算机能够模拟人类的智力活动。
移动互联网正在改变一切,未来十年世界将会有哪些变化
1、去中心化、社区化、碎片化、智能化、宅生活、短购物,是未来商务生活的主调。未来的商务购买行为可以通过数据被网络店家洞察并可以实现提前送货。
2、未来10年,中国最紧缺的3个职业:网络营销培训师、网络营销主管和移动互联营销人。
3、未来商业,不再是简单的空间之争(渠道、卖场),而是时间之争(更近、更快、更短)。现代商业模型正在以摧毁空间价值的方式直抵时间半径(以电脑和手机为个体触角)。
4、竞争对手隐形化。一个小孩仅仅是麻省理工学院毕业的,或者是北邮毕业的,他制造一个新的APP或者一个客户端,可能就把京东这一类的企业给干掉了,这是随时能发生的事情。
5、商业上,未来的竞争是突发性竞争,未来十年是可怕的十年,是科技高度爆发的十年。每一天可能都会有一款新的产品出来吓你,也可能是每个月就有一款新的产品打一个传统企业,并且不需要太大成本等等。
这是什么定律或者定理?好像是一个人的名言
摩尔定律是指IC上可容纳的晶体管数目,约每隔18个月便会增加一倍,性能也将提升一倍。摩尔定律是由英特尔(Intel)名誉董事长戈登·摩尔(Gordon Moore)经过长期观察发现得之。
计算机第一定律——摩尔定律Moore定律1965年,戈登·摩尔(GordonMoore)准备一个关于计算机存储器发展趋势的报告。他整理了一份观察资料。在他开始绘制数据时,发现了一个惊人的趋势。每个新芯片大体上包含其前任两倍的容量,每个芯片的产生都是在前一个芯片产生后的18-24个月内。如果这个趋势继续的话,计算能力相对于时间周期将呈指数式的上升。Moore的观察资料,就是现在所谓的Moore定律,所阐述的趋势一直延续至今,且仍不同寻常地准确。人们还发现这不光适用于对存储器芯片的描述,也精确地说明了处理机能力和磁盘驱动器存储容量的发展。该定律成为许多工业对于性能预测的基础。在26年的时间里,芯片上的晶体管数量增加了3200多倍,从1971年推出的第一款4004的2300个增加到奔腾II处理器的750万个。
由于高纯硅的独特性,集成度越高,晶体管的价格越便宜,这样也就引出了摩尔定律的经济学效益,在20世纪60年代初,一个晶体管要10美元左右,但随着晶体管越来越小,直小到一根头发丝上可以放1000个晶体管时,每个晶体管的价格只有千分之一美分。据有关统计,按运算10万次乘法的价格算,IBM704电脑为1美元,IBM709降到20美分,而60年代中期IBM耗资50亿研制的IBM360系统电脑已变为3.5美分。到底什么是"摩尔定律'"?归纳起来,主要有以下三种"版本":
1、集成电路芯片上所集成的电路的数目,每隔18个月就翻一番。
2、微处理器的性能每隔18个月提高一倍,而价格下降一半。
3、用一个美元所能买到的电脑性能,每隔18个月翻两番。
以上几种说法中,以第一种说法最为普遍,第二、三两种说法涉及到价格因素,其实质是一样的。三种说法虽然各有千秋,但在一点上是共同的,即"翻番"的周期都是18个月,至于"翻一番"(或两番)的是"集成电路芯片上所集成的电路的数目",是整个"计算机的性能",还是"一个美元所能买到的性能"就见仁见智了。
[编辑本段]摩尔定律由来
“摩尔定律”的创始人是戈顿·摩尔,大名鼎鼎的芯片制造厂商Intel公司的创始人之一。20世纪50年代末至用年代初半导体制造工业的高速发展,导致了“摩尔定律”的出台。
早在1959年,美国著名半导体厂商仙童公司首先推出了平面型晶体管,紧接着于1961年又推出了平面型集成电路。这种平面型制造工艺是在研磨得很平的硅片上,采用一种所谓"光刻"技术来形成半导体电路的元器件,如二极管、三极管、电阻和电容等。只要"光刻"的精度不断提高,元器件的密度也会相应提高,从而具有极大的发展潜力。因此平面工艺被认为是"整个半导体工业键",也是摩尔定律问世的技术基础。
1965年4月19日,时任仙童半导体公司研究开发实验室主任的摩尔应邀为《电子学》杂志35周年专刊写了一篇观察评论报告,题目是:“让集成电路填满更多的元件”。摩尔应这家杂志的要求对未来十年间半导体元件工业的发展趋势作出预言。据他推算,到1975年,在面积仅为四分之一平方英寸的单块硅芯片上,将有可能密集65000个元件。他是根据器件的复杂性(电路密度提高而价格降低)和时间之间的线性关系作出这一推断的,他的原话是这样说的:"最低元件价格下的理杂性每年大约增加一倍。可以确信,短期内这一增长率会继续保持。即便不是有所加快的话。而在更长时期内的增长率应是略有波动,尽管役有充分的理由来证明,这一增长率至少在未来十年内几乎维持为一个常数。"这就是后来被人称为"摩尔定律"的最初原型。
[编辑本段]摩尔定律修正
1975年;摩尔在国际电信联盟IEEE的学术年会上提交了一篇论文,根据当时的实际情况,对"密度每年回一番"的增长率进行了重新审定和修正。按照摩尔本人1997年9月接受(科学的美国人)一名编辑采访时的说法,他当年是把"每年翻一番"改为"每两年翻一番",并声明他从来没有说过"每18个月翻一番"。
然而,据网上有的媒体透露,就在摩尔本人的论文发表后不久,有人将其预言修改成"半导体集成电路的密度或容量每18个月翻一番,或每三年增长4倍",有人甚至列出了如下的数学公式:(每芯片的电路增长倍数)=2(年份-1975)/1.5。这一说法后来成为许多人的"共识",流传至今。摩尔本人的声音,无论是最初的"每一年翻一番"还是后来修正的"每两年翻一番"反而被淹没了,如今已鲜有人知。
历史竟和人们开了个不大不小的玩笑:原来目前广为流传的"摩尔定律"并非摩尔本人的说法!
[编辑本段]摩尔定律验证
摩尔定律到底准不准?让我们先来看几个具体的数据。1975年,在一种新出现的电荷前荷器件存储器芯片中,的的确确含有将近65000个元件,与十年前摩尔的预言的确惊人地一致!另据Intel公司公布的统计结果,单个芯片上的晶体管数目,从1971年4004处理器上的2300个,增长到1997年Pentium II处理器上的7.5百万个,26年内增加了3200倍。我们不妨对此进行一个简单的验证:如果按摩尔本人"每两年翻一番"的预测,26年中应包括13个翻番周期,每经过一个周期,芯片上集成的元件数应提高2n倍(0≤n≤12),因此到第13个周期即26年后元件数应提高了212=4096倍,作为一种发展趋势的预测,这与实际的增长倍数3200倍可以算是相当接近了。如果以其他人所说的18个月为翻番周期,则二者相去甚远。可见从长远来看,还是摩尔本人的说法更加接近实际。
也有人从个人计算机(即PC)的三大要素--微处理器芯片、半导体存储器和系统软件来考察摩尔定律的正确性。微处理器方面,从1979年的8086和8088,到1982年的80286,1985年的80386,1989年的80486,1993年的Pentium,1996年的PentiumPro,1997年的PentiumII,功能越来越强,价格越来越低,每一次更新换代都是摩尔定律的直接结果。与此同时PC机的内存储器容量由最早的480k扩大到8M,16M,与摩尔定律更为吻合。系统软件方面,早期的计算机由于存储容量的限制,系统软件的规模和功能受到很大限制,随着内存容量按照摩尔定律的速度呈指数增长,系统软件不再局限于狭小的空间,其所包含的程序代码的行数也剧增:Basic的源代码在1975年只有4,000行,20年后发展到大约50万行。微软的文字处理软件Word,1982年的第一版含有27,000行代码,20年后增加到大约200万行。有人将其发展速度绘制一条曲线后发现,软件的规模和复杂性的增长速度甚至超 过了摩尔定律。系统软件的发展反过来又提高了对处理器和存储芯片的需求,从而刺激了集成电路的更快发展。
这里需要特别指出的是,摩尔定律并非数学、物理定律,而是对发展趋势的一种分析预测,因此,无论是它的文字表述还是定量计算,都应当容许一定的宽裕度。从这个意义上看,摩尔的预言实在是相当准确而又难能可贵的了,所以才会得到业界人士的公认,并产生巨大的反响。
[编辑本段]摩尔定律应用
2005年是英特尔公司创始人之一戈登·摩尔提出著名的“摩尔定律”40周年。40年中,半导体芯片的集成化趋势一如摩尔的预测,推动了整个信息技术产业的发展,进而给千家万户的生活带来变化。
1965年4月,当时还是仙童公司电子工程师的摩尔在《电子学》杂志上发表文章预言,半导体芯片上集成的晶体管和电阻数量将每年翻一番。1975年他又提出修正说,芯片上集成的晶体管数量将每两年翻一番。
当时,集成电路问世才6年。摩尔的实验室也只能将50只晶体管和电阻集成在一个芯片上。摩尔当时的预测听起来好像是科幻小说;此后也不断有技术专家认为芯片集成的速度“已经到顶”。但事实证明,摩尔的预言是准确的。尽管这一技术进步的周期已经从最初预测的12个月延长到如今的近18个月,但“摩尔定律”依然有效。目前最先进的集成电路已含有17亿个晶体管。
“摩尔定律”归纳了信息技术进步的速度。这40年里,计算机从神秘不可近的庞然大物变成多数人都不可或缺的工具,信息技术由实验室进入无数个普通家庭,因特网将全世界联系起来,多媒体视听设备丰富着每个人的生活。
这一切背后的动力都是半导体芯片。如果按照旧有方式将晶体管、电阻和电容分别安装在电路板上,那么不仅个人电脑和移动通信不会出现,基因组研究到计算机辅助设计和制造等新科技更不可能问世。
“摩尔定律”还带动了芯片产业白热化的竞争。在纪念这一定律发表40周年之时,作为英特尔公司名誉主席的摩尔说:“如果你期望在半导体行业处于领先地位,你无法承担落后于摩尔定律的后果。”从昔日的仙童公司到今天的英特尔、摩托罗拉、先进微设备公司等,半导体产业围绕“摩尔定律”的竞争像大浪淘沙一样激烈。
毫无疑问,“摩尔定律”对整个世界意义深远。在回顾40年来半导体芯片业的进展并展望其未来时,信息技术专家们说,在今后几年里,“摩尔定律”可能还会适用。但随着晶体管电路逐渐接近性能极限,这一定律终将走到尽头。“摩尔定律”何时失效?专家们对此众说纷纭。
美国惠普实验室研究人员斯坦·威廉姆斯说,到2010年左右,半导体晶体管可能出现问题,芯片厂商必须考虑替代产品。英特尔公司技术战略部主任保罗·加吉尼则认为,2015年左右,部分采用了纳米导线等技术的“混合型”晶体管将投入生产,5年内取代半导体晶体管。还有一些专家指出,半导体晶体管可以继续发展,直到其尺寸的极限——4到6纳米之间,那可能是2023年的事情。
专家们预言,随着半导体晶体管的尺寸接近纳米级,不仅芯片发热等副作用逐渐显现,电子的运行也难以控制,半导体晶体管将不再可靠。“摩尔定律”肯定不会在下一个40年继续有效。不过,纳米材料、相变材料等新进展已经出现,有望应用到未来的芯片中。到那时,即使“摩尔定律”寿终正寝,信息技术前进的步伐也不会变慢。
[编辑本段]摩尔定律演化
摩尔定律的响亮名声,令许多人竞相仿效它的表达方式,从而派生、繁衍出多种版本的"摩尔定律",其中如:
摩尔第二定律:摩尔定律提出30年来,集成电路芯片的性能的确得到了大幅度的提高;但另一方面,Intel高层人士开始注意到芯片生产厂的成本也在相应提高。1995年,Intel董事会主席罗伯特·诺伊斯预见到摩尔定律将受到经济因素的制约。同年,摩尔在《经济学家》杂志上撰文写道:"现在令我感到最为担心的是成本的增加,…这是另一条指数曲线"。他的这一说法被人称为摩尔第二定律。
新摩尔定律:近年来,国内IT专业媒体上又出现了"新摩尔定律" 的提法,则指的是我国Internet联网主机数和上网用户人数的递增速度,大约每半年就翻一番!而且专家们预言,这一趋势在未来若干年内仍将保持下去。
[编辑本段]摩尔定律前景
摩尔定律问世40年了。人们不无惊奇地看到半导体芯片制造工艺水平以一种令人目眩的速度提高。目前,Intel的微处理器芯片Pentium 4的主频已高达2G(即1 2000M),2011年则要推出含有10亿个晶体管、每秒可执行1千亿条指令的芯片。人们不禁要问:这种令人难以置信的发展速度会无止境地持续下去吗?
不需要复杂的逻辑推理就可以知道:芯片上元件的几何尺寸总不可能无限制地缩小下去,这就意味着,总有一天,芯片单位面积上可集成的元件数量会达到极限。问题只是这一极限是多少,以及何时达到这一极限。业界已有专家预计,芯片性能的增长速度将在今后几年趋缓。一般认为,摩尔定律能再适用10年左右。其制约的因素一是技术,二是经济。
从技术的角度看,随着硅片上线路密度的增加,其复杂性和差错率也将呈指数增长,同时也使全面而彻底的芯片测试几乎成为不可能。一旦芯片上线条的宽度达到纳米(10-9米)数量级时,相当于只有几个分子的大小,这种情况下材料的物理、化学性能将发生质的变化,致使采用现行工艺的半导体器件不能正常工作,摩尔定律也就要走到它的尽头了。
从经济的角度看,正如上述摩尔第二定律所述,目前是20-30亿美元建一座芯片厂,线条尺寸缩小到0.1微米时将猛增至100亿美元,比一座核电站投资还大。由于花不起这笔钱,迫使越来越多的公司退出了芯片行业。看来摩尔定律要再维持十年的寿命,也决非易事。
然而,也有人从不同的角度来看问题。美国一家名叫CyberCash公司的总裁兼CEO丹·林启说,“摩尔定律是关于人类创造力的定律,而不是物理学定律”。持类似观点的人也认为,摩尔定律实际上是关于人类信念的定律,当人们相信某件事情一定能做到时,就会努力去实现它。摩尔当初提出他的观察报告时,他实际上是给了人们一种信念,使大家相信他预言的发展趋势一定会持续。
摩尔定律是由英特尔公司名誉董事长戈登·摩尔经过长期观察发现得出的结论,一开始被用于描述半导体制造领域的一种现象,即指集成电路上可容纳的晶体管数目,约每隔18个月便会增加一倍,性能也将提升一倍。后来,摩尔定律被引入到其他高科技行业,用来形容技术快速发展带来的性能提高。
在光纤通信行业,密集波分复用技术(DWDM)曾经很好地诠释了摩尔定律。DWDM是一种关键的基础性网络技术,通过在一根光纤内传送多路平行的吉比特光信号,使带宽成本大幅降低,从而让宽带互联网得以普及。该技术还拥有传输距离远、延迟低的优点。随着网络传输量迅速增长,电信运营商希望能以更低的单位成本传送更多的信息,因此,DWDM在固定通信基础设施中的地位得以巩固并不断加强。从2003年到2007年,运营商在DWDM技术上的花费增长了将近两倍,2007年,全球在该技术设备上的支出达到58亿美元。
在过去的10年中,著名咨询机构Ovum公司使用一个网络带宽资本支出(capex)的计量公式,计算每秒钟在一公里长的距离内传输1GB信息量所需的成本。电信运营商一开始在每根语音线路上实现了64kbps的传输速率,后来每位用户使用成千上万兆的信息后,语音线路不堪重负,好在光纤技术出现了。设备供应商之间的竞争使得传输成本急剧下跌,1993年,DWDM技术出现前,每秒钟在一公里长的距离内传输1GB信息量的成本为2000美元,到2007年,该数字已经不足1美元,其发展速度已令摩尔定律失色。
DWDM技术从正式部署到今天已经有13年历史,但是,它目前却好像停止了曾经在电信发展史上创造过奇迹的指数级增长,步入了青春期的消沉。分析师指出,如果下一个5年内整个系统不出现指数级的扩张,那么DWDM的几何式增长也将难以维系。难道在光纤通信市场,摩尔定律的影响终结了吗?
在过去的岁月中,DWDM的成功依赖于多样化的创新,例如光纤放大器和光分插复用器(OADM)等,还包括激光、测波器、过滤器等多种技术的进步以及各种系统软件的创新,他们都让系统获得了更高的容量,并提高了运营的灵活性。
残酷的竞争使得10G网络的成本不断降低,也迫使DWDM在13年里不断提高成本表现,尽管在此期间光纤系统的研发投资和元器件创新的投资都相对较低。同时,本世纪开始几年中,电信行业泡沫的破裂导致主要市场的支出锐减,整个行业都在疗伤。那段时间内对研发投资的削减带来的后果是:更具成本效益的40G技术的部署和商用被推迟了。
不过,市场最终还是选择了40G技术。最有可能在近期实现传输成本效益的指数级增长的就是40G网络技术,该技术提供的带宽是现有10G网络的4倍,而capex却只有四分之一,性能表现也丝毫不逊色。虽然Ovum咨询公司认为这种规模的成本削减在2012年前不太可能实现,但鉴于过去几年中对该项技术的投资剧增,奇迹还是有可能出现的。
2008年已经推出和即将推出的40G技术创新包括:北电网络研发的技术,提供了目前市场上最佳的性能,并有着向100G技术演进的清晰路线;Opvista技术,对推动40G技术在城域网中的使用有明显的优势;由Stratalight、Mintera和其他公司共同研发的标准化40G模块技术也取得了进展。光纤技术供应商Infinera公司也在努力通过40G技术创新解决成本、容量和传输距离之间的矛盾,预计将在今年晚些时候或明年发布新技术。
同时,网络运营商和设备供应商还将推动100G技术的创新,从而将延续DWDM的成功,并满足全球用户对通信服务越来越多的渴望。
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。