Slide 0
19 September 2000
Reporter: [email protected] -- From: [email protected]
Состояние проекта «Вычислительные ресурсы для БАК в С.Петербурге»
Авторы: А.Н. Лодкин, А.А. Орешкин,
Т.С. Сереброва, А.Е. Шевель
Докладчик: А.Е. Шевель
Slide 1
[email protected]
10 October 2000
Вычислительные ресурсыдля Большого Адронного Коллайдера
Введение
Масштабы вычислительных потребностей
Региональные вычислительные ресурсы
Вычислительные ресурсы в С. Петербурге
Вычислительные установки для конечных пользователей:
Вычислительный кластер в ПИЯФ;
Вычислительный кластер в Stony Brook;
Какие ресурсы можно использовать в ПИЯФ и С.Петербурге.
Заключение
Slide 2
[email protected]
10 October 2000
Slide 3
[email protected]
10 October 2000
Slide 4
[email protected]
10 October 2000
Оценки потребностей
Slide 5
[email protected]
10 October 2000
Slide 6
[email protected]
10 October 2000
Типы данных (терминология)
RAW – Raw Data
(около 1 МБ/событие);
ESD – Event Summary Data
(около 100 КБ/событие);
AOD – Analysis Object Data
(около 10 КБ/событие);
TAG – Tag Data (около 100 Б/тег).
Slide 7
[email protected]
10 October 2000
Примерная схема обработки
Slide 8
[email protected]
10 October 2000
Региональные вычислительные центры
Tier-0 CERN.
Tier-1 – большой региональный компьютерный центр национального масштаба, имеющий все виды сервиса.
Tier-2 – менее крупный вычислительный центр.
Tier-3 – вычислительный ресурс институтского (университетского) масштаба (спутник для Tier-2/Tier-1).
Tier-4 – индивидуальный компьютер.
Slide 9
[email protected]
10 October 2000
Родственные проекты
CERN GRID site http://grid.web.cern.ch/grid/
Particle Physics Data Grid (http://www.cacr.caltech.edu/ppdg/)
High Energy Physics Grid Initiative (http://nicewww.cern.ch/~les/grid/welcome.html)
MONARC Project (http://www.cern.ch/MONARC/)
Slide 10
[email protected]
10 October 2000
Идейные мотивы
В прошлом (1999) году эта книга стала знаменитой…
Сразу было представлено несколько запросов на финансирование в различные фонды и агенства.
Slide 11
[email protected]
10 October 2000
Slide 12
[email protected]
10 October 2000
Вычисления для БАК в С.Петербурге
Возможные партнёры
Петербургский Институт Ядерной Физики;
Петербургский Государственный Университет (физфак,…);
Петербургский Государственный Технический Университет (физмех,…);
Институт Высокопроизводительных Вычислений и Баз Данных;
RUNNET ?
Slide 13
[email protected]
10 October 2000
Существующие и предполагаемые каналы связи
Slide 14
[email protected]
10 October 2000
Вычислительная мощность
Оценки для регионального вычислительного центра дают около 90К SPECint95
http://nicewww.cern/ch/~les/monarc/base_config.html
Pentium III/700 имеет около 35 SPECint95
Около 2570 процессоров или около 640 машин с 4 процессорами
или 640/4 (к-во ин-тов) = около 160 машин.
Slide 15
[email protected]
10 October 2000
BCFpc hardware (picture)
Slide 16
[email protected]
10 October 2000
Другой примервычислительного кластера (1)
Университет в Stony Brook (NY), химический факультет, лаборатория ядерной химии
DEC Alpha 4100 (500 MHz).
32 машины (dual PIII/500, 256 MB);
Ленточный робот емкостью 3 TB;
RAID массив 1.5 TB;
Программы из PHENIX, PBS, etc.
Slide 17
[email protected]
10 October 2000
Вычислительный кластер в Stony Brook (1)
Slide 18
[email protected]
10 October 2000
Вычислительный кластер в Stony Brook (2)
Slide 19
[email protected]
10 October 2000
Вычислительный кластер в Stony Brook (3)
Slide 20
[email protected]
10 October 2000
Технические проблемы
Надёжность хранения данных
Атаки сетевых хулиганов из Интернет и Интранет;
Резервные копии важных компонентов;
Поддерживать на кластере свежее программное обеспечение.
Ведение кэша для всех скопированных с удалённых серверов объектов данных.
Подходящая система пакетной обработки (балансировка загрузки машин кластера).
Slide 21
[email protected]
10 October 2000
Возможности в ИВВиБД
Вторичная память на лентах
280 картриджей по 10 ГБ.
SPP-1600 – 8-процессорная вычислительная установка HP (под управлением HP-UX – вариант Unix).
Отделом ОВС установлена библиотека программ ЦЕРН и ряд сопутствующих продуктов.
Slide 22
[email protected]
10 October 2000
Slide 23
[email protected]
10 October 2000
Slide 24
[email protected]
10 October 2000
Slide 25
[email protected]
10 October 2000
Возможный план работ на ближайшее время
Установить оборудование: PCs (около 0.8-1.3 GHz, 0.5GB оперативной памяти), магнитофон типа DLT-8000, коммутатор 24 порта по 100 Мбит и одним портом 1 Гбит.
Установить программное обеспечение: Objectivity/DB, GLOBUS и т.д.
Приготовить и проверить логические соединения с ИВВиБД, ЦЕРН и др..
Slide 26
[email protected]
10 October 2000
Заключение
Относительно новая ситуация для ПИЯФ:
Основное направление - организация доступа к вычислительным ресурсам вне ПИЯФ.
Необходимо интегрировать все доступные технические, административные и финансовые ресурсы.