Кластер
ВЦ РАН был спроектирован в 2003 г.
-
Вычислительные узлы: 8
-
Оперативная память: 32GB (2x2 GB на узел)
-
Память на жестком накопителе: 288GB
-
Вычислительная сеть: Myrinet 2000
-
Управляющая сеть: Ethernet 100Base-T
Оборудование
Оборудование кластера, выбранное на этапе
проектирования
.
Вычислительные узлы кластера:
-
CPU: 2*Intel Xeon DP 2600 MHz, 512 cache
-
MB: TYAN Thunder i7500 S2720UGN, 2xXEON, U160, up12GB
-
RAM: 4x1GB DDR SDRAM, PC2100, ECC
-
HDD: SCSI IBM 36 Gb, IC 35L036, U160
Управляющий узел кластера:
-
CPU: Intel Pentium 4 2260 MHz, 512Kb cache, 533MHz
-
MB: ASUSTek P4PE, i845pe, 533MHz, 3xDDR, UDMA100
-
RAM: 512Mb DDR SDRAM DIMM 333MHz (PC-2700)
-
HDD: 4xIBM 36 Gb IC35L036, U160
-
Video: AGP GigaByte GV-AG32S, ATI Rage 128 Pro, 32M
-
CD-RW: NEC 9100, IDE, internal, 40/10/40x
-
Net: Ethernet 100Base-T, PCI Intel EtherExpress PRO/100+
-
Other: SCSI RAID - PCI LSI MegaRaid SCSI 320-1
Вычислительная сеть: Myrinet-2000
-
Универсальный Myrinet/PCI интерфейс: 8*M3F-PCI64B-2 (64-bit, 33MHz, 2Mb)
-
Коммутатор Myrinet-2000: M3F-W16M (16-ports, 2U)
-
Myrinet-2000 оптоволоконный кабель: 8*M3F-CB-5M (5 meters)
Управляющая сеть: Ethernet 100Base-T
-
Сетевой интерфейс Ethernet 100Base-T/PCI: 16*PCI Intel EtherExpress PRO/100+
-
Коммутатор Ethernet 100Base-T: Intel Express 410T Standalone Switch
Управляющая сеть: Ethernet 100Base-T
-
Сетевой интерфейс Ethernet 100Base-T/PCI: 16*PCI Intel EtherExpress PRO/100+
-
Коммутатор Ethernet 100Base-T: Intel Express 410T Standalone Switch
Дополнительное оборудование:
Программное обеспечение кластера
Системное ПО кластера:
-
Операционная система Linux RedHat 9
-
Система управления кластером OSCAR v. 3.0
Средства разработки параллельных программ:
-
Компиляторы языков C/C++ : gcc v.3.2.2, gcc v.4.0.1
-
Компиляторы языка Фортран 90 : ifc v. 7.1.044, ifort v. 8.1.030
-
Библиотеки взаимодействий (низкий уровень обменов): API GM-2.0.2
-
Библиотеки взаимодействий (уровень MPI): LAM-7.1.1, MPICH-GM v.1.2.6-14b
-
Библиотеки линейной алгебры: ATLAS v. 3.6.0, Intel MKL v. 7.2.1.008,
Lapack
-
Параллельные библиотеки: BLACS, ScaLapack, FFTW v.
3.0.1
-
Специализированные библиотеки: NetCdf v. 3.5.1, Gts v.
0.7.4
Тестовые программы:
-
Perftest - характеристики вычислительной сети
-
PMB - эффективность реализации MPI
-
Linpack - производительность, эффективность, масштабируемость
Новый 2 процессорный 4-х ядерный сервер для GRID вычислений
Оборудование:
CPU: Intel Xeon DP 5160 3000 MHz, 4MB cache, 1333 MHz, Woodcrest, 80 W,
HT,VT,EM64T,DBS,XD
MB: Intel S5000VSA SATA, 2xSoc771, Intel S5000P, FSB1333, 8xDDR2-667 Reg
ECC, SVGA, SATA RAID, 2x1Gb LAN
RAM: 4x 1GB DDR2 Fully Buffered DIMM, 667 MHz, ECC, Transcend
HDD: 3xFujitsu MAW3073NP, 73.5 GB, Ultra320, 68pin, 1000rpm
Video: AGP GigaByte GV-AG32S, ATI Rage 128 Pro, 32M
DVD-RW: DVR-111D, 16x, 2.4 Dual Layer, Black
Net: 2x1Gb LAN
SCSI RAID - PCI-X Intel RAID controller SRCU42X, Ultra320 SCSI, 2ch, 128
Mb(RAID:0, JBOD, 5,50, 1, 10)
Программное обеспечение сервера
Системное ПО кластера:
-
Операционная система Linux RedHatEnterprise Server 4
- Версия ядра 2.6.9-42
- Globus v. 4.0.4
-
Система управления сервером OSCAR v. 5.0
Средства разработки параллельных программ:
-
Компиляторы языков C/C++ : gcc v.3.4.6
-
Компиляторы языка Фортран 90 :gfortran, ifort v. 9.1.043
-
Библиотеки взаимодействий (уровень MPI): LAM-7.1.2, MPICH- v.1.2.7
-
Библиотеки линейной алгебры: ATLAS v. 3.7.31, Intel MKL v. 9.0.18,
Lapack
-
Параллельные библиотеки: BLACS, ScaLapack, FFTW v.
3.0.1
-
Специализированные библиотеки: NetCdf v. 3.6.2
Ресурсы Internet
Дата последней модификации этой страницы: 6 июня 2007 г.