On-Line Библиотека www.XServer.ru - учебники, книги, статьи, документация, нормативная литература.
       Главная         В избранное         Контакты        Карта сайта   
    Навигация XServer.ru








 

О степени пригодности Интернет для обучения и проведения научных исследований

В.П.Шириков, Л.А.Калмыкова

Оценку указанной пригодности можно сформировать, в основном, с учетом следующих трех показателей:

1) Реактивность и пропускная способность Интернет;

2) Отлаженность, реальная согласованность и освоенность программных изделий разных фирм для реализации интероперабельных распределенных информационно-вычислительных систем на основе www/CORBA/DBMS/Java/C++...-технологии;

3) Степень наполнения ресурсов Интернет (библиографических, фактографических и т.п.)

Проблема обеспечения удовлетворяющей всех реактивности и пропускной способности Интернет, пожалуй, самая насущная (без ее решения нереально говорить о приемлемом решении двух других) и самая трудная, потому что в большей степени зависит от трех факторов: финансового, технического и программного (имеется в виду "системное" программное обеспечение типа протокольного, программное наполнение рутеров и переключателей, средства динамического управления проводкой трафика по линиям связи при реализации сервиса QoS/DS/Managed Bandwidth).

Насколько все это нужно, скажем, для научных исследований и в каком географическом масштабе (локальном по организациям, национальном, международном)? Смотря для каких и когда. Если говорить о реальных масштабах сетевого обмена информацией, то сейчас считается происшедшей инверсия "закона 80/20", существовавшего в мире 80-х годов (80% межкомпьютерных обменов происходило внутри LAN и только 20% - между ними, т.е. между "сайтами"; более того, внутри LAN картина была похожей: трафик внутри группы был намного больше межгруппового, см. [1]. Сейчас все наоборот). Более того, появились работы (и целые предметные области), которые в принципе невозможно эффективно выполнять без сетевого обмена. Примером являются исследования, проводимые международными коллаборациями вокруг экспериментов на ускорителях в области физики высоких энергий. Есть не так много смежных дисциплин, которые выставляли бы столь же жесткие, повышенные требования к способностям Интернет: более-менее подходящие примеры есть в области космических исследований, метеорологии, климатологии, биоинформатике, науке о Земле (например, по проекту EOS DIS от NASA и геологического общества США, см. [1]).

Два года назад Международный Комитет по ускорителям будущего (ICFA), куда входят и представители Российских физических центров, образовал сетевую службу ICFA-NTF (см. [2,3]).

Комитет ICFA представляет интересы около 20000 пользователей в 20 больших Лабораториях (в ранге институтов) и 400 университетов в 100 странах мира. Задачей NTF стало изучить и оценить состояние компьютерных сетей, используемых всем указанным сообществом, анализируя их возможную эволюцию в ближайшие 10 лет (в частности, ко времени начала работы ускорителя LHC в ЦЕРНе); выработать рекомендации по улучшению общей ситуации с сетевым обеспечением для нужд физики высоких энергий и ядерной физики. Для решения этой задачи в составе NTF было образовано пять рабочих групп под общим руководством Дэвида О. Вильямса (ЦЕРН):

Status WG, Monitoring WG, Remote Regions WG, Reguirements WG и Recommendations WG. Результаты их годовой работы в виде отчетов-обзоров размещены на серверах ЦЕРН и SLAC, их копии есть на сервере ЛВТА ОИЯИ (см.[1]-[6], см. также нашу заметку через подраздел "Problems at Network support for tasks in HEP", http://www.jinr.ru/info.html), и мы отметим здесь основные положения указанных материалов.

Каждая из организаций-членов ICFA использует подключение своей локальной сети к национальной акадимической/исследовательской сети или собственные прямые каналы международной связи, а также каналы, связывающие национальные сети. Так, сети типа ACONET (Австрия), GARR (Италия), DFN (Германия), Super Janet (Великобритания) и другие национальные европейские сети, построенные на сетках каналов с пропускной способностью от 2 до 155 Мврs, объединены трансевропейскими опорными сетями типа Ebone и QUANTUM/TEN-155: пропускная способность связи между опорными узлами АТМ/IP-ориентированной ТЕN-155 составляет 155 Мврs, подключение национальных сетей к таким узлам в настоящий момент - на скоростях от 10 Мbрs до 34/45/155 Mbps (см. [7]).

Американские исследовательские Лаборатории подключены к ESnet, финансируемой DoE и имеющей пропускную способность до 622 Mbps.

Так FNAL, Лаборатория Ферми(Батавия), имеет два канала по 155 Mbps с ESnet; LBNL и LANL - по каналу 622 Mbps. У ESnet есть линии связи с TEN-155 и рядом отдельных европейских центров (например с ЦЕРН и DESY) с пропускной способностью 90/155 Mbps. На таком же уровне связь японской национальной сети NACSYS с TEN-155 и ESnet.

Американские университеты либо подключаются к ESnet, либо пользуются инициативной опорной сетью Интернет2 (пропускная способность 622 Mbps, используется технология vBNS разработки NSF/MCI).

Сетевая нагрузка (на ресурсы национальных сетей и международные линии связи) от сообщества ICFA составляет около 5% от всего объема трафика академических и исследовательских сетей (например, в 1997 году из 500 Mbps по связям национальных сетей через трансатлантические кабели (при их суммарной пропускной способности 20 Gbps) около 25 Mbps приходилось на членов сообщества ICFA).

С вхождением Российских научно-образовательных организаций в указанное выше сетевое сообщество - положение особое. Формально российской национальной сетью для науки и высшей школы, повидимому, считается RBNet, финансируемая Министерством науки и технологий РФ, однако ее естественными дополнениями являлись и RUNNet, FreeNet, EmNet. : . Все они имели по крайней мере по одному внешнему каналу на Запад, с емкостью от 256 Kbps до 6 Mbps на канал. Ни в каком из сетевых проектов, упомянутых выше (или тех, что еще будут упоминаться), типа TEN-34/QUANTUM/TEN-155, Россия, похоже, не участвует, и в документах ICFA-NTF есть только упоминание о соединении ряда физических институтов бывшего СССР с DESY через систему Radio-MSU. По этой причине научные центры России, даже имеющие неплохие каналысвязи с центрами коммутации в Москве и Петербурге (от 2 до 10 Mbps), испытывают массу неудобств из-за низкой пропускной способности интернациональных линий связи.

На какие виды операций в Internet приходятся указанные выше затраты, из чего состоит трафик сообщества ICFA?

50-60% - обмен физическими данными (в т.ч. 6-8% через AFS);

15-20% - Web (включая почту).

Остальное -Х-Windows внутри континентов, telnet - между (там его доля велика), Java/CORBA технология.

Доля видеоконференций и т.п. пока невелика (140 часов в 1997г. у ЦЕРНа, затем рост и 140 часов к марту 1998г. у коллабораций LHC через систему VRVS).

Оценка качества по проценту потерь пакетов (в основном для "интерактивной" работы):

хорошо (близко к идеальному) при потерях в пределах 1%,

терпимо (приемлемо) до 5%,

нетерпимо (недопустимо) при более чем 10%.

Каждая проводка трафика через Интернет идет в среднем через 15-20 промежуточных узлов (маршрутизаторов, переключателей), и важна их реактивность по времени (скажем, в пределах 400 милисекунд от начальной до конечной точки - по ping или traceroute).

По результатам измерений, проводившихся из FNAL и SLAC весной 1998 г. на линиях с Европой, признана очень хорошей связь с ЦЕРН, Германией (DESY), Италией, Швейцарией, частью Франции; средней - с Чехией, Данией, Польшей, Швецией; близкой к недопустимой - с Бельгией, Голландией, Ирландией, UK, некоторыми французскими университетами, Венгрией, Германией для американских университетов; с Россией как членом ICFA.

Связь с Канадой - от приемлемой до плохой (в зависимости оттого - с кем). Качество связи (производительность) по США, особенно внутри ESnet и между ESnet и vBNS - очень хорошее, в Европе (между "сайтами") хорошее в рамках связей через TEN-34/155.

Положение в остальной части мира признано плохим. Главная причина низкой производительности - перегруженность стыка сетей и трансконтинентальных линий связи.

Итак, с применением интерактивного режима использования Интернет (включая режим реального времени) у мирового Сообщества ICFA в целом дело уже обстоит неважно, и практически по-настоящему распределенные глобальные интероперабельные информационно-вычислительные системы с применением JAVA/CORBA технологии отсутствуют. Нужно сразу сказать, что на прогресс в их внедрении влияют и проблемы недостаточной согласованности / совместимости или освоенности программных продуктов разных фирм, занимающихся реализацией ORB, сопряжением CORBA с WWW и т.д.

Часть трудностей в освоении и применении Java/CORBA технологии при построении информационно-вычислительных систем отмечена, например, в сообщении [8]; здесь же говорится и о том, что "интеграция технологий WWW и CORBA не представляет собой какого-либо законченного решения, которое можно "взять с полки".

Каковы же предвидимые потребности физики высоких энергий и ядерной физики в услугах Интернет, насколько он будет способен их удовлетворять?

Уже сейчас идет массовый съем и обработка данных (событий) с экспериментальных детекторных установок типа BaBar, CDF, STAR, DO, RHIC, KLOE, NA48, NA49, COMPASS и т.д. с накоплением ежегодно сотен Терабайт информации (до Петабайта у некоторых после 2005 года); каждая из установок ATLAS, CMS и ALICE, начинающих работать на коллайдере LHC (ЦЕРН) в 2005 году, будет накапливать более Петабайта (PB) ежегодно. Как подготовка самих экспериментов (проектирование, моделирование и т.д.), так и их ведение (организация и контроль сеансов работы, калибровка аппаратуры, обработка данных) - дело

международной коллаборации. Практически все коллаборации ориентируются на распределенное управление, хранение и обработку данных. Например, детектор BaBar в SLAC'е (Стенфорд) даст в 2000 году по 200 Гигабайт информации в сутки; в коллаборации BaBar есть региональные центры (INFN в Риме, IN2P3 в Лионе, RAL в Англии) и предполагается, что будет производиться копирование накапливаемых "сырых" данных для региональных центров, чтобы они независимо от базового центра вели часть обработки.

У коллабораций CMS и ATLАS - более централизованная модель обработки; с передачей в периферийные центры только реконструированных (по геометрии) событий, частями и по запросу. Передача 200 Гигабайт хотя бы в один региональный центр в течение рабочего дня требует наличия у Центральной Лаборатории линии связи на 50 Mbps. Дневная производительность установок типа PHENIX и STAR - до 500 Гигабайт в 2000 году ... . Транспортировка лентами с емкостью от 0,2 до 1,6 Терабайт частично решает проблему, но неоперативна. В 2005 году речь пойдет о ежедневных Терабайтах, а следовательно о линиях связи для их передач на скоростях от 100 Mbps до 1 Gbps и более из Центральных Лабораторий. Ясно, что проблема потерь пакетов при таких передачах (даже порядка 1%) резко обостряется. Считается, что каждый индивидуальный физик (член коллаборации) должен иметь не менее 0.75 Mbps - связи со своей техникой (PC, рабочей станцией), организация - от 300 до 2.5 Gbps, национальная сеть 100 организаций - от 50 до 100 Gbps; в предположении, что 10-20% обменов - внешние (за пределы национальной сети), то на международной линии каждой национальной сети нужно иметь полосу пропускания порядка 10 Gbps. (см. [1] - [3]).

Есть и другая общая форма требования к увеличению пропускной способности и реактивности Интернет для задач физики высоких энергий и ядерной физики: удвоение каждый год, т.е. тысячекратное увеличение за 10 лет.

Насколько считается это реальным с технической, программной и финансовой точки зрения? Насколько обоснована уверенность в том, что с 2000-го года в Internet'е для физиков (по крайней мере западных) основными будут 155/622 Mbps - линии связи, а с 2005 года будут доступны гигабитные скорости обмена?

В материалах [1] - [6] и [8] фиксируются следующие реалии:

I. Совершенствование техники связи (имеющиеся достижения):

1) Использование на телефонных линиях технологии xDSL для мегабитных/сек подводок информации к PC/рабочей станции индивидуального пользователя;

Наличие образцов модемов с пропускной способностью, не уступающей технике DSL;

2) Применение технологии WDM/DWDM на оптических линиях связи (наличие уже в 1997 году коммерческих стандартов на реализацию в оптоволокне от 8 до 16 каналов по 2.5 Gbps, наличие с 1997 г. в реальной эксплуатации WDM-линий по несколько десятков Gbps у ISP типа MCI);

Использование подобной технологии в проектах сетей США: NGI (Next Generation Internet), PACI, National Grid, SuperNet и др.; в проекте Oxygen по кабельной трансконтинентальной связи (с пропускной способностью от 1.2 до 622 Gbps к 2002 году). Заметим, что в опытном порядке реализована и терабитная скорость цифровой передачи по волокну (при теоретическом пределе от 50 до 75 Tbps при цифровой и 150 Tbps - аналоговой технике);

3) Развитие техники беспроводной связи (622-мегабитные каналы на ряде имеющихся экспериментальных спутников);

4) Прогресс в технике пакетной передачи, наличие маршрутизаторов / переключателей с пропускной способностью до 100 Gbps (более 10 миллионов пакетов в секунду) при наблюдаемой устойчивой тенденции роста скорости срабатывания схем, организации их параллельной работы и т.д.

II. Активное введение в практику использования Интернет программного и технического обеспечения QoS/DS/Managed Bandwidth Service. Как технический термин - это метод оптимизации использования сетевой пропускной способности, при котором различные (по своей природе, принадлежности и назначению) потоки данных, делящих одни и те же линии связи, трактуются имеющими разничные уровни приоритета.

В реализации могут применяться очереди ожидания, резервные полосы пропускания и т.п. Элементы этой технологии применялись еще в 1996/97 годах на линии ЦЕРН - США для обеспечения трафика видеоконференций (использовались устройства типа Cisco Stratacom Multiplexer). На маршрутизаторах реализуется политика идентификации спецтрафика для отправки его пакетов с приоритетом, проводки через предназначенные для этого линии связи (если есть) и т.д.

Технология QoS/DS наиболее оптимально реализуется на (ATM + IP) ориентированных сетях, и в частности была предусмотрена для реализации проекта QUANTUM/TEN-155 трансевропейской опорной сети, которая обещает предоставить емкость в 622 Mbps к 2001 году и последующий переход на гигабитные скорости [7].

III. Развитие и упрощение межсетевых соглашений, надежды на сокращение числа провайдеров для академическихи исследовательских организаций (в идеале - до одного, типа World Com)

IV. При устойчивой тенденции совершенствования сетевых технологий и возможностей (и соответствующем снижении как себестоимости средств связи, так и, в меньшей степени, их рыночной стоимости) можно надеяться (при условии регулируемой финансовой политики и пользовательского влияния на рынок сетевых услуг) на сохранение и в будущем затрат на оплату сетевых услуг примерно в том же объеме, что и сегодня, но при описанном выше росте объема и качества трафика.

Общая рекомендация для сообщества ICFA:

Поскольку собственного Intranet/Extranet завести не по средствам, а от применения Internet никуда не уйти, оно должно: развиваться в рамках существующих обстоятельств и возможностей, максимально совершенствуя (или лоббируя это совершенствование) свои "домашние сети"; содействовать развитию и применению средств типа QoS/DS, особо влияя на развитие и удешевление трансконтинентальных связей; инициировать проекты по разработке и реализации оптимальных сетевых моделей обработки данных (например, структур по схеме "клиенты - Java агенты - серверы"); объединяться с представителями других дисциплин в выработке мер и системы отношений с провайдерами сетевых услуг.



Литература по Internet