Nadrabianie zaległości w wysoko wydajnym przetwarzaniu komputerowym musi odbywać się na poziomie Europy, mówi ekspert
Badania w dziedzinie zmian klimatycznych, genetyki, inżynierii materiałowej - moc obliczeniowa o dużej wydajności stała się kluczowym czynnikiem powodzenia zarówno w nauce, jak i w inżynierii, ponieważ umożliwia badaczom sprawdzenie ich teorii i modeli w symulacjach. Jednak superkomputery są nadal w dużej mierze finansowane i eksploatowane na poziomie kraju, oddzielnie, a nie w ramach sieci dysponujących znacznie większymi mocami obliczeniowymi. Uczestnicy projektu partnerstwa na rzecz zaawansowanych obliczeń w Europie (Partnership for Advanced Computing in Europe - PRACE) są zdecydowani zmienić tę sytuację przez stworzenie stałej europejskiej infrastruktury wysoko wydajnego przetwarzania komputerowego. W ciągu najbliższych dwóch lat w projekt PRACE Komisja Europejska zainwestuje ponad 20 milionów euro ze środków siódmego programu ramowego (7PR). A partnerzy projektu z Austrii, Finlandii, Francji, Grecji, Hiszpanii, Holandii, Niemiec, Norwegii, Polski, Portugalii, Szwajcarii, Szwecji, Wielkiej Brytanii i Włoch mają nadzieję, że w połowie lub najdalej pod koniec 2009 r. będą w stanie zbudować system petaflopowy: maszynę zdolną do wykonania kwadryliona operacji na sekundę. Wizja jest następująca: stworzenie obejmującej całą Europę sieci superkomputerów, zapewniającej najlepszym europejskim naukowcom i inżynierom dostęp do wysoko wydajnej mocy obliczeniowej, będącej odpowiedzią na międzynarodowe wyzwanie, któremu nie mogą sprostać krajowe centra obliczeniowe o dużej wydajności. Sieć będzie dostępna bez względu na kraj pochodzenia zainteresowanych nią użytkowników - kryterium stanowić będzie ocena ich projektów przez niezależnych ekspertów. - Nauka i gospodarka potrzebują mocy obliczeniowej na najwyższym poziomie - ta pierwsza, by prowadzić nowatorskie badania, ta druga, aby kreować innowacje - mówi prof. Achim Bachem, przewodniczący Ośrodka Badawczego Jülich i koordynator projektu PRACE. - Superkomputery stały się niezbędnym narzędziem we wszystkich naukach przyrodniczych. W przyszłości skokowy przyrost wiedzy będzie możliwy tylko z pomocą nauk wykorzystujących symulacje. - Sądzę, że Stany Zjednoczone rzeczywiście zorientowały się, że przetwarzanie komputerowe o dużej wydajności jest technologią o ogromnym znaczeniu dla rozwiązywania kwestii naukowych czy gospodarczych - wyjaśnia prof. Bachem w wywiadzie. - W tej tak ważnej technologii dysponują one 10-krotnie większą mocą niż Europa. Tak więc USA są zdecydowanie numerem jeden, ale Japonia i Azja są również bardzo silnymi konkurentami. Według rankingu TOP500, wskazującego 500 najpotężniejszych publicznie znanych systemów komputerowych na świecie, siedem z pierwszych 10 systemów znajduje się w USA. Tylko dwa z nich są w Europie, jeden w Niemczech i jeden w Szwecji, a jeden zlokalizowany jest w Indiach. - Jeśli chcemy wspierać nasz przemysł, uważam, że musimy nadrobić zaległości, a to możemy zrobić tylko na poziomie europejskim - zwrócił uwagę prof. Bachem. Słuszność tego stwierdzenia potwierdza fakt, że dogonienie liderów w dziedzinie wysoko wydajnego przetwarzania danych (HPC) będzie wymagało znacznych nakładów: - Infrastruktura dla przetwarzania komputerowego o dużej wydajności, odpowiadającego zadaniom stojącym przed nami dzisiaj i tym, które pojawią się w najbliższych latach, będzie kosztować około 400 do 500 milionów euro w okresie dwóch lat - wyjaśnia prof. Bachem. - Jest to zdecydowanie za dużo dla jednego kraju. I trzeba uznać to za wspólną europejską infrastrukturę badawczą wspieraną przez wszystkie kraje w Europie. Jednak wcześniej trzeba przezwyciężyć wiele trudności, z których największe mają charakter raczej prawny niż techniczny, mówi prof. Bachem: - Jeśli rzeczywiście chcemy budować infrastrukturę europejską, musimy zdecydować, który model jest najodpowiedniejszy. Czy powinien to być model wzorowany na CERN [Europejskiej Organizacji Badań Jądrowych], czy na ESA, Europejskiej Agencji Kosmicznej, czy na jakiejś innej organizacji europejskiej? Określenie odpowiedniej osobowości prawnej, uwzględniającej wszystkie ograniczenia, jakie mamy w różnych krajach, nie jest łatwe. Wyzwania techniczne będą dwojakiego rodzaju. Z jednej strony badacze zaangażowani w projekt PRACE będą musieli opracować odpowiedni system sprzętu petaflopowego pracujący ze 100 tysiącami procesorów. Z drugiej strony istnieje kwestia oprogramowania: - Nie jesteśmy jeszcze przyzwyczajeni do wykorzystywania tak wielu procesorów. Musimy więc dokonać zmian w naszych algorytmach, być może będziemy zmuszeni przeprojektować również nasze teorie, aby rozwiązać problemy stwarzane przez taką liczbę procesorów - stwierdza prof. Bachem. Mimo to jest on przekonany, że cel, jakim jest system petaflopowy, zostanie osiągnięty w ustalonych ramach czasowych. Ale w tak szybko rozwijającej się dziedzinie jak komputery na tym oczywiście nie można poprzestać. Gdzie będzie przetwarzanie komputerowe o dużej wydajności za 20 lat? - Bardzo trudno jest spoglądać tak daleko w przyszłość - mówi prof. Bachem - ale sądzę, że za 20-25 lat będziemy już daleko za egzaflopem, który jest następnym etapem po petaflopie. Być może będziemy już mieć pierwszy prototyp komputera kwantowego. Jeśli będziemy dalej świadkami tak gwałtownego wzrostu, jak ten obserwowany w ostatnich 20 latach, będą istnieć niewiarygodnie szybkie maszyny potrzebujące niewiarygodnie dużo przestrzeni, i maszyny te będą wyglądały zupełnie inaczej niż te, którymi dysponujemy dzisiaj.