帮助 关于我们

返回检索结果

新疆天文台Taurus高性能计算系统
Taurus High Performance Computing System of Xinjiang Astronomical Observatory

查看参考文献12篇

张海龙 1,2   冶鑫晨 1   王杰 1   聂俊 1,2   陈龙飞 1,3   托乎提努尔 1   崔辰州 4   李长华 4   朱艳 1,3   张萌 1,3  
文摘 新疆天文台Taurus高性能计算系统由1个登陆节点、16个计算节点、2个I /O节点、100 TB高速存储组成。其中央处理器理论双精浮点计算能力6.758 4 Tflops,通过Linpack测试实际峰值为6.289 Tflops,可提供计算能力为理论值的93.06%; 图形处理器理论计算能力18.72 Tflops,实际测试计算峰值为14.882 Tflops,计算效率为理论值的79.5%。系统计算与存储节点均采用56 Gb Infiniband交换互连,通过IOZone测试存储系统,单节点写速度可达460 MB /s,多节点写速度可达800 MB /s。系统已在多相滤波及消干扰图形处理器算法加速、蒙特卡罗模拟等领域得到了应用。
其他语种文摘 Taurus high performance computing system of Xinjiang Astronomical Observatory has 1 login node,16 compute nodes,2 I /O nodes and 100TB high-speed storage. In theory,the double precision floatingpoint computation capacity of CPUs is 6.7584Tflops. The actual peak turns out to be 6.289Tflops tested by Linpack,the available computation capability is 93.06% of the theoretical value. The computation capacity of the GPUs is 18.72Tflops in theory,while its practical peak is 14.882Tflops,the available computation capability is 79.5% of the theoretical value. The calculation nodes and the storage nodes are connected by 56Gb Infiniband network. Using IOZone for testing the storage performance,single-node writing reaches 460MB /s and multi-node writing can be 800MB /s. The Taurus HPC system has been applied in various fields such as GPU algorithm acceleration and Monte Carlo simulation.
来源 天文研究与技术 ,2018,15(3):332-339 【核心库】
关键词 HPC ; Lustre ; IOZone
地址

1. 中国科学院新疆天文台, 新疆, 乌鲁木齐, 830011  

2. 中国科学院射电天文重点实验室, 中国科学院射电天文重点实验室, 江苏, 南京, 210008  

3. 中国科学院大学, 北京, 100049  

4. 中国科学院国家天文台, 北京, 100101

语种 中文
文献类型 研究性论文
ISSN 1672-7673
学科 天文学;自动化技术、计算机技术
基金 国家973计划 ;  国家自然科学基金 ;  中国科学院青年创新促进会项目 ;  中国科学院天文台站设备更新及重大仪器设备运行专项经费资助
文献收藏号 CSCD:6272014

参考文献 共 12 共1页

1.  杨哲睿. 大规模天文数据分析及多维信息可视化平台的建设和管理. 科研信息化技术与应用,2015,6(5):73-83 CSCD被引 1    
2.  Fan Z. GPU cluster for high performance computing. Proceedings of the ACM/IEEE SC2004 Conference,2004:47-47 CSCD被引 2    
3.  Kirk D. NVIDIA CUDA software and GPU parallel computing architecture. Proceedings of the 6th international symposium on Memory management,2007:103-104 CSCD被引 7    
4.  Chervenak A. The data grid: towards an architecture for the distributed management and analysis of large scientific datasets. Journal of Network and Computer Applications,2000,23(3):187-200 CSCD被引 52    
5.  Dongarra J J. The LINPACK benchmark: past,present and future. Concurrency and Computation: Practice and Experience,2003,15(9):803-820 CSCD被引 32    
6.  Barrett R F. Complex version of high performance computing LINPACK benchmark (HPL). Concurrency and Computation: Practice and Experience,2010,22(5):573-587 CSCD被引 2    
7.  Zhao T. Evaluation of a performance model of lustre file system. 2010 Fifth Annual ChinaGrid Conference,2010:191-196 CSCD被引 1    
8.  Kosta L. Measuring I/O Performance of Lustre and the Temporary File System for Tradespace Applications on HPC Systems. Proceedings of the SouthEast Conference,2017:187-190 CSCD被引 2    
9.  Yildiz O. On the root causes of cross-application I/O interference in HPC storage systems. 2016 IEEE International Parallel and Distributed Processing Symposium,2016:750-759 CSCD被引 1    
10.  Pfister G F. An introduction to the infiniband architecture. High Performance Mass Storage and Parallel I/O: Technologies and Applications,2001:617-632 CSCD被引 1    
11.  张春明. 一种Hadoop小文件存储和读取的方法. 计算机应用与软件,2012,29(11):95-100 CSCD被引 13    
12.  Lamberts T. Water formation at low temperatures by surface O 2 hydrogenation III: Monte Carlo simulation. Physical Chemistry Chemical Physics,2013,15(21):8287-8302 CSCD被引 1    
引证文献 2

1 张海龙 基于MPI和Taurus高性能计算系统的Jacobi并行迭代算法 吉林大学学报. 工学版,2019,49(2):606-613
CSCD被引 0 次

2 张海龙 新疆天文台脉冲星数据检索 中国科学. 物理学, 力学, 天文学,2019,49(9):099516
CSCD被引 0 次

显示所有2篇文献

论文科学数据集
PlumX Metrics
相关文献

 作者相关
 关键词相关
 参考文献相关

版权所有 ©2008 中国科学院文献情报中心 制作维护:中国科学院文献情报中心
地址:北京中关村北四环西路33号 邮政编码:100190 联系电话:(010)82627496 E-mail:cscd@mail.las.ac.cn 京ICP备05002861号-4 | 京公网安备11010802043238号