前言:中文期刊网精心挑选了高性能计算范文供你参考和学习,希望我们的参考范文能激发你的文章创作灵感,欢迎阅读。
高性能计算范文1
“毫无疑问,中国确实是最早使用GPU的国家之一,而且是首先大规模组建GPU+CPU的异构集群的国家之一。在其他国家,往往是采用小规模安装GPU,并逐渐将其融入已有的CPU集群中的方式进行异构系统的建设。”英伟达公司GPU计算事业部总经理Andy Keane对中国异构系统的快速发展给出了较高评价。
Andy Keane介绍,英伟达很早就与中科院在异构计算方面进行合作。中科院也开发了很多在异构系统上的应用。
“在高性能计算主要的几种应用中,GPU都可以取得很好的加速比。”在大会主题演讲中,英伟达公司高级工程师王鹏介绍。不过,他也指出,在某些特定算法上,GPU计算的效率还有很多提升的空间。
对此,来自CAPS的Francois Bodin表示,对异构系统的优化要着眼于以下几个方面:在初始化和释放GPU时减少资源损耗,降低数据传输的时间,优化GPU kernel函数的性能,以及充分发挥CPU的作用。
“高性能系统的实际运行效率是由它所要运行的应用所决定的。”Andy Keane表示,对于高性能计算机来说,不同的应用需要采用不同的设计方式,在系统架构、CPU和GPU的配比、连接方式等方面都会有所变化。有些高性能计算机,如今年TOP100排行第三名的来自中科院过程所的Mole-8.5集群就是专门针对分子动力学和离子仿真等应用而设计的,在执行这些应用时可达到80%甚至90%以上的效率。但是,其执行Linpack的效率就相对低一些了。“不过,目前大家没有更好的衡量高性能计算的方式,Linpack已经是不错的能够提供比较的方式了,大家也认可采用Linpack作为排名的依据了。”Andy Keane说。
高性能计算范文2
美国ASCI计划
美国能源部自1996年开始了一项名为ASCI计划的高性能计算机研制项目。该计划是在全球全面禁止核试验的情况下,美国为了保持其核威慑及核垄断地位而提出的一项计划。目前,世界上绝大多数最快的超级计算机都是这个项目的产物,其中主要的代表有IBM公司研发的Blue Gene和Cray公司研发的Red Storm。
1. IBM蓝色基因
Blue Gene是IBM、美国LLNL实验室和美国能源部合作的一项研制超级计算机的项目代号。项目计划是制造峰值性能达到每秒千万亿次级别的超级计算机。这是一个分阶段的项目,目前性能已经达到每秒360万亿次。现在正在研发的Blue Gene项目共有四种机型:Blue Gene/L、Blue Gene/C、Blue Gene/P和Blue Gene/Q。
Blue Gene/L采用了与以往设计完全不同的方法。系统由大量节点组成,每个节点的处理器不再追求高性能、高主频,而是相对适中,从而实现了低功耗和低成本。Blue Gene/L通过PowerPC的嵌入式处理器、嵌入式DRAM和片上系统技术把计算处理器、通信处理器、三级Cache和带有复杂路由的互联网络部件集成在一起。由于采用这样的低功耗、低主频设计,导致了整机的低功耗和高密度,可以把1024个计算节点放置于一个机柜当中。通过这样的方式把用于节点通讯的功能单元和处理器集成在一起,降低了成本。2004年9月,IBM公布了Blue Gene/L原型,当时的性能是每秒36.01万亿次。它以这个速度替代了NEC的地球模拟器成为世界上最快的超级计算机。截止到2006年6月,世界最快的前10台超级计算机中有3台是Blue Gene,前64台中有13台。
Blue Gene/C计划现在已经更名为Cyclops64。这个计划的目标是制造第一个“片上超级计算机”。每个Cyclops64芯片预计运行在500MHz主频下,包含80个处理单元。每个处理单元包含两个线程单元和一个浮点单元。处理器通过96口和7级的交叉开关互联,而且它们可以通过片上的SRAM进行通讯。单片的Cyclops64芯片的理论峰值将可以达到每秒8000亿次。整个系统将可以包含13824个芯片、1105920个处理单元以及可以同时运行2211840个线程。Cyclops64软件系统采用了Delaware大学的TiNy线程库,提供给用户良好的可编程界面。
Blue Gene/P计划是一个结构上类似于Blue Gene/L的项目。它的目标峰值性能将达到千万亿次。目前在美国的LLNL实验室部署的代号为Roadrunner的超级计算机,被认为有可能是该计划的一个具体应用。Roadrunner采用了混合式设计,它采用了16000个AMD的皓龙处理器以及相当数量的Cell处理器。由于Cell处理器具有良好的浮点运算性能,通过Cell处理器的运用将大大增加Roadrunner的峰值运算性能。如果IBM能完成这个系统,那么它将成为世界上最强大的超级计算机系统。
Blue Gene/Q计划是IBM面向未来的超级计算机研制计划,目前关于该计划的细节还知之甚少,该计划的性能目标将达到每秒3千万亿次~10千万亿次。
2.Cray红色风暴
针对ASCI项目,Cray公司提出了代号为Red Storm的超级计算机架构。第一台使用这个架构的超级计算机,在2004年被部署在美国的SNL实验室。这台机器包含有10368个处理器,拥有10TB的分布式内存和240TB的磁盘存储。该系统使用AMD的皓龙处理器作为处理单元,使用PowerPC 440的处理器作为通讯处理器。系统由计算节点和服务节点两个部分组成。计算节点运行称作Catamount的轻量级操作系统,服务节点运行Linux操作系统。该系统主要是为了替代ASCI Red,理论峰值将达到40万亿次。 ASCI随着第一个十年计划的完成,目前已经开始了第二个十年计划,该计划已经更名为ASCP(高级模拟与计算计划)。最新的发展规划认为第一个十年主要是通过开发一系列强大的工具和系统,验证基于模拟研究方法的可行性。第二个十年计划将要真正利用这些系统进行科学探索,进一步提高精度和正确性,逐步把模拟作为一种预测工具用于前沿的科学研究。同时第二阶段全面把下一代超级计算机系统的验证目标设定为每秒千万亿次。
美国HPCS计划
除了ASCI研制计划之外,美国国防部高级研究计划局于2001年初提出了HPCS(高效能计算系统)计划。该计划的目标开始就是面向千万亿次规模的计算机系统需求,针对当前高端计算机系统开发以及应用中存在的问题,研制适合于高端国家安全应用的高性能计算系统,填补目前高性能计算和量子计算之间的空白。
HPCS计划为期8年,分为三个阶段实施。第一阶段为概念研究阶段,第二阶段是研究、开发阶段,第三阶段是大规模开发阶段。整个HPCS的主要设计目标是高性能、良好的可编程性、可移植性以及可靠性。高性能的主要目标是在美国重要的国家安全应用方面,将目前的系统性能提高10~40倍;可编程的主要目标是减少HPCS应用方案的开发时间,降低系统的运行以及维护成本,提高系统使用效率;可移植性是指将研究和运行的HPCS应用软件和系统平台分离;可靠性的目标是针对外界的攻击、硬件故障以及软件错误开发相应的保护技术。因此HPCS主要提出的课题有:高带宽、低延迟、平衡的系统结构、可靠性策略、性能测试、系统伸缩性。
2002年开始的是为期一年的HPCS概念研究阶段。参与这个阶段研究的厂商主要包括Cray、HP、IBM、SGI和Sun五家,还有MIT的林肯实验室专门进行应用分析和性能评测。经过竞争和淘汰,第二阶段参与的企业为Cray、IBM和Sun三家。
1.Cray两步走
Cray计划分两步完成自己的千万亿次设计目标。第一阶段推出一种称为Rainier系列的机器,以整合Cray现有的XD1、XT3、X1/X1E三种平台,形成一种新的Rainier的计算节点也是异构的系统,包括基于AMD皓龙处理器的标量计算节点、向量计算节点,还包括其他特殊计算节点,比如FPGA可重构节点和MTA多线程节点等,各种不同的处理器节点在统一的框架下进行管理。
第二阶段Cray计划推出一种名为Cascade的平台,这是Cray更为长期的一项计划,将融合更多的创新性技术。Cascade将采用统一的高带宽光互联网络,节点将包含向量部件、粗粒度的多线程处理器、与DRAM结合支持细粒度并行的PIM部件等。Cascade还提供分布式共享内存、多层次多线程执行模型、硬件支持的分析和调试功能。编程模型上提供对UMA和NUMA的混合模型,并计划开发一种高级编程语言。
2.IBM PERCS计划
IBM针对HPCS提出了PERCS计划,该研究包括处理器、存储控制、I/O、编译和运行环境等各个方面的研究队伍。其主要的研究内容包括:片上多处理器,PERCS将采用IBM Power7处理器;智能内存,将在DIMM内存条上增加一个智能Hub芯片,实现预取、Scatter/Gather、重排序、缓存等功能;在编程模型方面,实现了一种名为X10的编程语言,而且支持OpenMP。此外,IBM还专门开发了一种称为K42的操作系统,专门支持大规模处理系统;为了进行前期的研究,他们还开发了PERCSim模拟器来支持各个研究小组的工作。
3.Sun HERO项目
Sun提出了HERO项目,其中一些核心的创新技术包括:片内多线程技术、Proximity通讯技术、区间计算技术、保护指针。
目前,HPCS已经进入第三阶段,其中Sun被淘汰出局。现在IBM和Cray公司基于各自提出的技术开始为HPCS制造运算速度千万亿次的超级计算机。
日本高性能计算进展
除了美国,日本很早就从事高性能计算机的研制工作,其中比较有代表性的是NEC公司。
1983年,NEC就了其代号为SX-1和SX-2的超级计算机,其后几乎NEC以5年一代的速度不断推出新产品。
2002年,NEC为日本太空探索局等机构安装的地球模拟器速度达到了每秒35万亿次,拥有超级计算机领域最高性能桂冠长达3年之久。
地球模拟器通过设置“虚拟地球”以预测和解析整个地球的大气循环、温室化效应、地壳变动、地震发生等自然现象。硬件上地球模拟器的设计基于NEC以前的一款名为SX-6的超级计算机的架构。
整个地球模拟器包含640个节点,每个节点包含8个向量处理器和16GB内存,整体上组成5120个处理器和10TB内存的超级计算机系统。其中两个节点共享一个机柜,每个机柜耗电20 kW。系统具有700 TB的磁盘阵列和1.6 PB的磁带存储。地球模拟器几乎比同时代的美国的ASCI White超级计算机快5倍。NEC从1999年10月份开始构建这台超级计算机,到2002年才正式完工,共耗资72亿日元。
日本的科研机构和大学在超级计算机方面也获得很大的成就。2006年6月,日本的RIKEN研究所宣布他们完成了一台名为MDGRAPE-3的超级计算机系统。这是一台专用于分子动力学研究的超级计算机。该机器由总共4808个定制的MDGRAPE-3芯片,外加用于主控的Xeon处理器等组成。
该研究所宣称MDGRAPE-3性能已经达到千万亿次的目标,比目前最快的超级计算机Blue Gene/L还要快3倍,但是因为其专用性,不能运行Top500的测试程序,因此无缘Top500排行榜。除此之外,日本东京大学的GRAPE项目也在高性能计算的某些领域获得了很高的成就。
中国高性能计算进展
除了美、日之外,我国在高性能计算机方面的努力也很值得关注。有很多从事高性能计算机研究的企业和科研单位涌现出来,比如开展高性能计算算法研究的单位有中国科学院、中国工程物理研究院、国防科技大学、中国科技大学等单位。硬件制造也有不少单位,比如曙光信息产业有限公司、联想集团等。他们在各自的领域获得了很多令人瞩目的成就。
2004年6月,浮点运算速度达到每秒11万亿次的曙光4000A超级计算机落户上海超级计算中心。这台超级计算机进入当时的全球超级计算机排行榜前10名,使得我国成为继美国和日本之后,第三个能研制10万亿次商业高性能计算机的国家。
曙光4000A在大规模集群计算、网格技术等方面有所突破,形成了鲜明的技术特色。曙光4000A在工业标准的主板尺寸上实现了4个64位AMD皓龙处理器的SMP系统。2U的服务器采用标准的机箱、电源、风扇等部件,有独到的通风设计和部件布局。通过网格路由器、网格网管、网格钥匙、网格视图等网格部件的研制,曙光4000A在网格环境下能更好地服务于具有多样性的用户需求。通过在主板上集成管理接口,开发大规模集群专有的管理网络,使得大规模集群能够被有效地管理和控制,使得管理员不需要靠近计算机就能控制其运行。通过合理划分集群软件栈,将公共支撑部分提取成为集群操作系统的核心,改变了集群上系统软件缺乏统一框架的现状。曙光4000A的Linpack实测速度达到每秒8.061万亿次,效率达到71.56%,这个结果是当时世界上所有采用AMD皓龙处理器的高性能计算机中速度最快且效率最高的。曙光4000A跟ASCI White相比,价格是后者的10%,系统占地是后者的60%,功耗为后者的30%。
联想公司承担着国家863计划“高性能计算机及其核心软件”专项课题,在此基础上制造了深腾6800超级计算机,该计算机于2003年10月完成。深腾配置了1060个64位安腾2代处理器、2.6TB内存、80TB磁盘存储。
高性能计算范文3
“顶天”更要“立地”
很多高性能计算机的从业者已经淡化了对“运算速度”的追求。曙光4000A速度超过每秒10万亿次时,尽管外界给予了众多的掌声,但该产品的主要研发者孙凝晖心情非常平静。他说,应用才是更大的挑战。采访中,他说中科院计算所系统结构研究所未来的重点是做“普及大众的计算机”,怎样把高性能计算机的成本降下来、稳定性提高、功耗降低、管理更方便,这是比提高运算速度更难的事。
孙凝晖说,高性能计算机的发展可分为三个阶段: 第一阶段是打破“玻璃房子”,国外不再对中国实行禁运;第二是高性能机要产业化,走下神坛;第三阶段是“普及化”,希望一些科研和设计人员的桌面上能装一个高性能计算机。
中国经济的体制结构正在发生转变,粗放型的经济增长模式正在萎缩,取而代之的,是越来越多地依靠科技研发和原创设计商业机会,这意味着普通的商业用户对高性能计算机的需求会增多。
在曙光公司的规划里,2008年将研制出运算速度达到每秒百万亿次的高性能计算机。但曙光总裁历军坦率地对记者说,让他更高兴的是,到今年10月份为止,曙光高性能机器已经卖了290多套。“‘卫星’(指运算速度在世界水平的高性能计算机)要放,因为那样可以提高品牌的认可度,但最为重要的是,产品卖得好,企业能活下去,能赚钱。”
“运算速度进入T0P 500的那些机器,如同高性能计算机的‘塔尖’,没有广泛应用的‘塔身’和‘塔基’,这个塔是摇摇欲坠的。”王恩东说,我国高性能计算机一定要重视应用。
“顶天立地”是我国高性能计算机发展的指导思想,是指企业在技术上要“顶天”,以技术发展为先导,立足技术领先;应用上要“立地”,将技术融入实际应用的解决方案中。
相对“顶天”,国产高性能计算机的“立地”更难。
“国外品牌进入银行、电信等领域比较早,经验很丰富,而且很多软件就是IBM、HP等公司与其他软件公司联合开发的,所以国产高性能服务器要进入银行等金融市场非常难。”联想集团首席科学家祝明发分析说,这种状况形成了“蛋生鸡和鸡生蛋”的怪圈,因为国产品牌在实际上运用少,发展比较缓慢;发展得慢,用户信任度低,国内品牌在实际使用中就越少。
当然,国产品牌在商业领域的应用也并非毫无优势。河南漯河市公安局经过比较,2004年开始采用了天梭TS20000系统,2005年10月多个关键应用正式在浪潮天梭TS20000系统中运行。漯河市公安局通讯科张居辉科长在接受采访时说,在综合比较国外品牌和国内品牌的高性能服务器之后,发现国外品牌的造价太高,远超过了原先的预算,而且机器系统复杂,该局现有的技术人员恐怕维护起来有一点吃力,如果请国外公司来维护,费用又是一大笔钱。浪潮的天梭在这两方面比较有优势。而且从业务应用上看,也够用了。
依靠价格“立地”是中国很多IT产品跟国外品牌抢市场的法宝之一,但最后能制胜,还得靠质量和提供符合客户需求的应用。高性能计算机也不例外。
模式要创新
由于受到资金、应用水平等因素的限制,中国高性能计算曾经长期盘踞在以政府主导比较集中的能源、气象、政府等领域。让更多的普通用户应用高性能计算,让高性能计算平民化,一直以来是业内专家学者和用户多方所提倡的。
但用户之间的经济实力、应用需求是千差万别的,让他们都通过自行购买高性能计算产品来用上高性能计算是不切实际的。即使都来购买,目前也存在着资源分散、应用效率不高的弊病。而将高性能计算作为一种公共服务,立足高性能计算应用需求集中的某一地域,面向地区性用户提供这种公共服务的机构平台的出现,为高性能计算的平民化开创了一种新的模式。作为上海信息港主体工程之一,由上海市政府投资建设,坐落于浦东张江高科技开发园区内的上海超级计算中心,已经成为了这种模式应用探索的一面旗帜。
上海超级计算中心(SSC)成立于2000年12月,是中国第一个面向社会开放、资源共享的高性能计算公共服务平台。上海超级计算中心自投入运行以来,本着随需应变、合作共赢的理念,为上海各行业提供了大量的高性能计算应用服务,在气象预报、药物设计、生命科学、汽车、新材料、土木工程、物理、化学、航空、航天、船舶等10个应用领域取得了一批重大成果,充分发挥了公共服务平台的重要作用。2004年上海超级计算中心引进了峰值速度超过10万亿次/秒的“曙光4000A”高性能计算机,更是实现了中心高性能计算研发与应用双跨越。
上海超级计算中心副主任袁俊告诉记者,“上海超级计算中心目前配置了相对比较丰富的高性能计算应用软件,并且组建了一支高素质的人才队伍。上海超级计算中心的发展目标,就是立足上海、辐射华东、服务全国,努力成为世界一流的高性能计算公共资源服务中心、高性能计算技术支持中心、高性能计算增值服务中心。
值得一提的是,曙光4000A是曙光公司和上海超级计算中心联合开发的。曙光公司总裁历军认为,用户和制造商联合开发高性能计算机是未来的一种有效的合作方式,用户更了解需求,双方合作的产品将更加符合市场的需求。
人才培养不容忽视
“对于一个企业而言,它的目标就是利润。目前中国企业规模小,很多难以承担类似高性能计算这样投入大、回报时间长的产品,企业进入或者退出高性能计算领域都是可以理解的。高性能计算属于基础产业,必须由政府牵头去进行研究推进。”一位老院士接受采访时说。在这次采访中,相关的从业人员呼吁政府加大推进高性能计算机发展的声音不止一次听到。
浪潮集团高级副总裁王恩东甚至建议,国家相关机构在采购高性能机时,应优先采购国产品牌。但目前这点完全没有体现出来。
国家和相关高校要推进高性能人才的培养也成为焦点。 目前中国专门从事高性能计算研究的人才积累不如国外,跨学科高性能计算应用人才缺乏,持续加强高性能计算人才的培养刻不容缓。
作为人才培养摇篮的教育机构,对于担负起高性能计算人才的培养责无旁贷。目前有一些高等院校已经搭建起高性能计算系统,高性能计算在高校的普及已经逐渐拉开。充分利用目前设备,立足自身需求,培养更多的复合型高性能计算人才,应该是下一阶段高等院校高性能计算应用的一个重点。
高性能计算范文4
“2012年8月,陕西省工业和信息化厅同意成立陕西省高性能计算研究中心,并委托西安邮电大学进行建设。”陕西省高性能计算研究中心主任周晓辉教授介绍说,目前,该研究中心组织了一支强有力的专家团队,其中包括国家外专局专家1人、陕西省“百人计划”特聘专家3人、陕西省青年科技新星2人。
值得一提的是,与传统高性能计算研究中心不同,陕西省高性能计算研究中心以解决陕西省当前信息化问题的高性能计算应用开发为目标,作为陕西省信息化建设的重要组成部分。该中心遵循陕西省信息化顶层设计“以需求为主导,以应用为目的”的方针,一切科研和实施工作均以服务陕西3800万居民为根本目标,为陕西省电子政务、驻陕企业、农村信息化等多方面提供高性能计算服务。
“为了将电子政务建设落到实处,陕西省政府要求各所属单位数据中心集中到省信息化中心,实现各部门数据互联互通,正因如此,在研究中心内,我们可以获取所有职能部门的数据,进行大数据分析、处理,同时,还可以在最短的时间内实现跨部门的数据库整合。”周晓辉表示,“其实,不论是政府还是行业用户对于高性能计算均有着庞大的需求,但需要强调的是,我们不仅需要领先的高性能计算系统,更应该借助这些系统对国计民生产生价值。”
正是在这样的目标驱动下,周晓辉带领陕西省高性能计算研究中心建立了金融风险控制模型。据悉,该模型主要基于蒙特卡洛模拟,目前美国金融界已经大量应用蒙特卡洛模拟来量化风险,它是一个关于概率的算法,非常适合研究社会问题。
“众所周知,金融行业是一个瞬息万变的行业,依靠传统CPU的运算能力,只能进行粗粒度的长期风险管理,而实现市场变化的及时反应,还需要更加高效的平台,为此,我们选择了英特尔作为我们技术层面的合作伙伴,通过其微异构架构,实现高性能计算系统性能的大幅提升。”周晓辉说。
其实,对于上述问题,有业内人士早已提出,建设HPC不是为了建设,而是为了应用,虽然规模可以快速提升上去,但是应用开发将受到极大的挑战。
用比较小的核、做高度的集成、仍然遵循x86处理器架构、提升内部通信的效率、使用单一的编程模式——这就是英特尔至强与至强融核组成的英特尔微异构架构。
“在金融风险模式设立之初,也是依托传统的x86平台进行开发,但不久我们发现,借助现有平台,我们无法对金融数据进行快速的实时分析,有效的风险管理更是成为空谈。”陕西省高性能计算研究中心总工程师华诚表示,“如果为提升性能,将其从x86平台迁移到CPU+GPU异构平台,最长可能需要1个月的时间,而且开发难度高,风险也不可控,我们很多做研究的同事都不是计算机专业出身,在x86平台上进行开发还可以胜任,但要在CPU+GPU异构平台上进行开发则难度太大。”
高性能计算范文5
消除平台和应用之间的距离
如果说ChinaGrid一期工程的成果是搭建高性能计算的网格平台,其二期工程的目标显然是希望让网格平台的资源能够被更好地使用起来。这是否意味着,ChinaGrid与英特尔这类厂商的合作主题也会产生一些变化呢?
来自上海交通大学的林新华老师告诉记者,除了高性能计算平台的建设外,“真实应用工作负载”正在成为他们目前与英特尔合作的一个重要方向。之所以要加强在这个领域的合作,主要是因为在以往高性能计算设备选型的过程中,他们发现有时即使是采购了性能很强的计算平台,运行实际应用的时候依旧会出现计算瓶颈,而有时对于只有较低运算需求的应用,计算平台的性能又会被极大浪费。可以说,在采购之前,他们预计采购的计算平台能否最终真正支撑应用的需求,他们也无法预测,而这种风险很容易造成平台投资的浪费。
在他看来,直到开始和英特尔进行“真实应用工作负载”的合作后,他们才找到了高性能计算平台采购的标尺。英特尔为他们提供了一个仿真计算环境,可以把应用放到仿真计算环境中进行测试,再根据测试结果对其高性能计算环境进行调优。在其近期的的一个关于等离子物理研究的应用中,借助这个测试,经过调优的计算平台的性能比他们之前使用的快了40%。
林新华老师表示,教育网格建设高性能计算平台的目的不是为了构建一个性能强大的计算平台,最终目标还是为应用服务。但显然,当前高校在平台建设的过程中,依旧普遍缺乏判断应用与高性能计算平台之间的距离的方法。如果高性能计算技术的提供者可以帮助高校消除两者之间的距离,对于ChinaGrid的发展会更有实际意义。
通过标准化实现可扩展
覆盖全国13个省市、20所高校,聚合计算能力和存储能力分别达到了16万亿次和180TB,成功开发和部署了包括生物信息学、图像处理、计算流体力学、海量信息处理、大学课程在线在内的五类应用网格,作为中国教育和科研领域的战略性基础设施,以提供高性能计算和信息服务为建设目标的ChinaGrid(中国教育科研网格)过去8年的建设成果可谓硕果累累。
但是,ChinaGrid工作组成员、清华大学教授郑纬民也表示,各大学校的资源共享、实现统一调配等问题,在当前的网格建设中依旧存在很多难点。所以,ChinaGrid二期中新增的高性能计算平台的所有权将全部归属于ChinaGrid。ChinaGrid将通过建设7个中心和7个分中心对会员单位分配计算资源。
高性能计算范文6
伴随着基因组研究日新月异的快速发展,相关信息出现了爆炸性增长,迫切需要对海量生物信息进行处理。以DNA碱基数为例,其增长速度呈指数性增长,大约每14个月就会增长一倍,这种增长速度只有计算机运算能力的增长可以与之相比。所以在当前基因组信息爆炸的时代,需要建立超大规模计算系统,用更准确、更可靠的方法来分析这些数据,从中获得有用的信息是生物信息学取得成果的决定性步骤。
近日,具有万亿次浮点运算能力、基于四核处理器的联想高性能机群――深腾1800落户于上海交通大学,承载着该校在生命科学研究领域的多种核心应用软件。上海生物信息技术研究中心主任李亦学在接受记者采访时说: “生物与计算结合最早叫做计算生物学,从要求来讲,能够进行大规模计算即可,对单个CPU结点的内存没有多大的要求,但随着生物学的发展,对计算机的要求变得比较复杂。一个完整的解决方案,要求对大量不同的数据库同时进行快速检索,然后是数据整合,同时还要做很多并发计算,很多计算是非常耗内存的。实际上并不一定非得要求计算能力非常高,但一定要可靠。再者,需要同时并发完成许多不同的计算。”
李亦学说,他们在进行生物信息计算时会同时存在几十种不同的任务,这不但需要计算机运算速度快,还要求有很大的共享内存。现代生物学为了获得高速运算,必须把所有的数据放在内存中进行操作,这样会节省时间。如果没有很大的共享内存,他们的很多案例就没有办法做了。比如大的基因组测序数据的拼接工作,内存要30G左右,大内存的胖结点可以做到。而四核的发展,其实可以把每个结点共享内存加大,在性价比方面也比较高,这种发展非常符合生物学发展对复杂生物系统计算性能的要求。