新疆天文台Taurus高性能计算系统
Taurus High Performance Computing System of Xinjiang Astronomical Observatory
查看参考文献12篇
文摘
|
新疆天文台Taurus高性能计算系统由1个登陆节点、16个计算节点、2个I /O节点、100 TB高速存储组成。其中央处理器理论双精浮点计算能力6.758 4 Tflops,通过Linpack测试实际峰值为6.289 Tflops,可提供计算能力为理论值的93.06%; 图形处理器理论计算能力18.72 Tflops,实际测试计算峰值为14.882 Tflops,计算效率为理论值的79.5%。系统计算与存储节点均采用56 Gb Infiniband交换互连,通过IOZone测试存储系统,单节点写速度可达460 MB /s,多节点写速度可达800 MB /s。系统已在多相滤波及消干扰图形处理器算法加速、蒙特卡罗模拟等领域得到了应用。 |
其他语种文摘
|
Taurus high performance computing system of Xinjiang Astronomical Observatory has 1 login node,16 compute nodes,2 I /O nodes and 100TB high-speed storage. In theory,the double precision floatingpoint computation capacity of CPUs is 6.7584Tflops. The actual peak turns out to be 6.289Tflops tested by Linpack,the available computation capability is 93.06% of the theoretical value. The computation capacity of the GPUs is 18.72Tflops in theory,while its practical peak is 14.882Tflops,the available computation capability is 79.5% of the theoretical value. The calculation nodes and the storage nodes are connected by 56Gb Infiniband network. Using IOZone for testing the storage performance,single-node writing reaches 460MB /s and multi-node writing can be 800MB /s. The Taurus HPC system has been applied in various fields such as GPU algorithm acceleration and Monte Carlo simulation. |
来源
|
天文研究与技术
,2018,15(3):332-339 【核心库】
|
关键词
|
HPC
;
Lustre
;
IOZone
|
地址
|
1.
中国科学院新疆天文台, 新疆, 乌鲁木齐, 830011
2.
中国科学院射电天文重点实验室, 中国科学院射电天文重点实验室, 江苏, 南京, 210008
3.
中国科学院大学, 北京, 100049
4.
中国科学院国家天文台, 北京, 100101
|
语种
|
中文 |
文献类型
|
研究性论文 |
ISSN
|
1672-7673 |
学科
|
天文学;自动化技术、计算机技术 |
基金
|
国家973计划
;
国家自然科学基金
;
中国科学院青年创新促进会项目
;
中国科学院天文台站设备更新及重大仪器设备运行专项经费资助
|
文献收藏号
|
CSCD:6272014
|
参考文献 共
12
共1页
|
1.
杨哲睿. 大规模天文数据分析及多维信息可视化平台的建设和管理.
科研信息化技术与应用,2015,6(5):73-83
|
CSCD被引
1
次
|
|
|
|
2.
Fan Z. GPU cluster for high performance computing.
Proceedings of the ACM/IEEE SC2004 Conference,2004:47-47
|
CSCD被引
2
次
|
|
|
|
3.
Kirk D. NVIDIA CUDA software and GPU parallel computing architecture.
Proceedings of the 6th international symposium on Memory management,2007:103-104
|
CSCD被引
7
次
|
|
|
|
4.
Chervenak A. The data grid: towards an architecture for the distributed management and analysis of large scientific datasets.
Journal of Network and Computer Applications,2000,23(3):187-200
|
CSCD被引
52
次
|
|
|
|
5.
Dongarra J J. The LINPACK benchmark: past,present and future.
Concurrency and Computation: Practice and Experience,2003,15(9):803-820
|
CSCD被引
32
次
|
|
|
|
6.
Barrett R F. Complex version of high performance computing LINPACK benchmark (HPL).
Concurrency and Computation: Practice and Experience,2010,22(5):573-587
|
CSCD被引
2
次
|
|
|
|
7.
Zhao T. Evaluation of a performance model of lustre file system.
2010 Fifth Annual ChinaGrid Conference,2010:191-196
|
CSCD被引
1
次
|
|
|
|
8.
Kosta L. Measuring I/O Performance of Lustre and the Temporary File System for Tradespace Applications on HPC Systems.
Proceedings of the SouthEast Conference,2017:187-190
|
CSCD被引
2
次
|
|
|
|
9.
Yildiz O. On the root causes of cross-application I/O interference in HPC storage systems.
2016 IEEE International Parallel and Distributed Processing Symposium,2016:750-759
|
CSCD被引
1
次
|
|
|
|
10.
Pfister G F. An introduction to the infiniband architecture.
High Performance Mass Storage and Parallel I/O: Technologies and Applications,2001:617-632
|
CSCD被引
1
次
|
|
|
|
11.
张春明. 一种Hadoop小文件存储和读取的方法.
计算机应用与软件,2012,29(11):95-100
|
CSCD被引
13
次
|
|
|
|
12.
Lamberts T. Water formation at low temperatures by surface O 2 hydrogenation III: Monte Carlo simulation.
Physical Chemistry Chemical Physics,2013,15(21):8287-8302
|
CSCD被引
1
次
|
|
|
|
|