Supercomputer lub supercomputer jest komputer celu uzyskania możliwie najwyższej wydajności z technikami znanymi w czasie swojej konstrukcji, w szczególności w odniesieniu do szybkości obliczania .
Superkomputery naukowe nazywane są „wysokowydajnymi komputerami obliczeniowymi” (w języku angielskim : obliczenia o wysokiej wydajności lub HPC). Dyscyplina ta jest podzielona na dwie części: na sprzętową część (projektowanie elektroniczne narzędzia obliczeniowego) oraz oprogramowania część (adaptacyjny oprogramowanie obliczeń do narzędzia). Te dwie części dotyczą różnych dziedzin wiedzy.
Pierwsze superkomputery (lub superkomputery) pojawiły się w latach 60 . W 1961 roku IBM opracował IBM Stretch lub IBM 7030, z których jedna jednostka działała we Francji w 1963 roku.
W tym czasie, aż do lat 70. XX wieku , największym na świecie producentem superkomputerów była firma Control Data Corporation (CDC) wraz z jej projektantem Seymourem Crayem . Następnie firma Cray Research , założona przez Seymoura Craya po jego odejściu z CDC, miała przewagę nad innymi konkurentami, aż do około 1990 roku. W latach 80. , podobnie jak to, co było produkowane na rynku mikrokomputerów w latach 70., weszło w to wiele małych firm. rynku, ale większość z nich zniknęła podczas „ krachu ” rynku superkomputerów z połowy lat 1990-tych .
To, do czego odnosi się termin superkomputer, zmienia się w czasie, ponieważ najpotężniejsze komputery na świecie w pewnym momencie dorównują, a następnie przewyższają maszyny w powszechnym użyciu wiele lat później. Pierwsze superkomputery CDC były prostymi komputerami jednoprocesorowymi (ale czasami z nawet dziesięcioma procesorami peryferyjnymi do obsługi wejścia / wyjścia ) około dziesięć razy szybciej niż konkurencja. W latach siedemdziesiątych większość superkomputerów przyjęła procesor wektorowy , który raz dekoduje instrukcję i stosuje ją do całej serii operandów .
Dopiero pod koniec lat osiemdziesiątych przyjęto technikę systemów masowo równoległych , wykorzystując tysiące procesorów w jednym superkomputerze. Obecnie niektóre z tych równoległych superkomputerów wykorzystują mikroprocesory typu „ RISC ”, przeznaczone do komputerów szeregowych, takich jak PowerPC czy PA-RISC . Inne superkomputery wykorzystują tańsze procesory typu „ CISC ”, mikroprogramowane w RISC w chipie elektronicznym ( AMD lub Intel ): wydajność jest trochę niższa, ale kanał dostępu do pamięci - często wąskie gardło - jest znacznie mniej obciążony.
W XXI th wieku , superkomputery są zwykle zaprojektowane jako unikalnych modeli przez producentów komputerów „tradycyjny” jak International Business Machines (IBM), Hewlett-Packard (HP), albo Bull , mają za sobą długą tradycję w tej dziedzinie (IBM) lub że kupili w latach 90-tych wyspecjalizowane firmy, które znajdowały się w trudnej sytuacji, aby zdobyć doświadczenie w tej dziedzinie.
Superkomputery wykorzystywane są do wszystkich zadań, które wymagają bardzo dużej mocy obliczeniowej , takich jak prognozy pogody , badania klimatu (na ten temat można znaleźć programów finansowanych przez G8-HORCs ), modelowanie obiektów chemicznych ( obliczenie struktury i właściwości , modelowania molekularnego , etc . ), symulacje fizyczne (symulacje aerodynamiczne , obliczenia wytrzymałości materiałów pozorowanym wybuchu od broni jądrowej , badań syntezy jądrowej , itd. ), The cryptanalysis lub symulacje w finansach i ubezpieczeniach ( stochastyczny obliczeniowej ).
Cywilne i wojskowe instytucje badawcze należą do największych użytkowników superkomputerów.
We Francji maszyny te znajdują się w krajowych uniwersyteckich ośrodkach obliczeniowych, takich jak Institute for Development and Resources in Scientific Informatics (IDRIS), National Computer Center for Higher Education (CINES), ale także w Commissariat ds. Energii atomowej i alternatywnych źródeł energii. (CEA) lub w niektórych dużych firmach, takich jak Total , EDF lub Météo-France .
Superkomputery wywodzą swoją przewagę nad konwencjonalnymi komputerami z obu:
Prawie zawsze są projektowane specjalnie do określonego rodzaju zadań (najczęściej naukowych obliczeń numerycznych : obliczenia macierzowe lub wektorowe ) i nie poszukują szczególnych wyników w innych obszarach.
Architektura pamięci superkomputerów ma na celu ciągłe dostarczanie danych do każdego procesora w celu maksymalnego wykorzystania jego mocy obliczeniowej . Doskonała wydajność pamięci (lepsze komponenty i lepsza architektura) w dużej mierze wyjaśnia przewagę superkomputerów nad konwencjonalnymi komputerami.
Ich wejścia / wyjścia ( magistrala systemowa) jest zaprojektowany, aby zapewnić wysoką przepustowość , mniej opóźnień ponieważ ten rodzaj komputera nie jest przeznaczony do przetwarzania transakcji .
Podobnie jak w przypadku każdego systemu równoległego, obowiązuje prawo Amdahla , a projektanci superkomputerów poświęcają część swoich wysiłków na wyeliminowanie nierównoległych części oprogramowania i opracowywanie ulepszeń sprzętowych w celu usunięcia pozostałych wąskich gardeł .
Z jednej strony, superkomputery często wymagają kilku megawatów z energii elektrycznej . Ta żywność również musi być wysokiej jakości. W rezultacie wytwarzają dużą ilość ciepła i dlatego muszą być schłodzone, aby normalnie funkcjonować. Chłodzenie (np. Chłodzenie powietrzem ) tych komputerów często stanowi poważny problem z klimatyzacją .
Z drugiej strony dane nie mogą przepływać szybciej niż prędkość światła między dwiema częściami komputera . Gdy rozmiar superkomputera przekracza kilka metrów, czas opóźnienia między niektórymi komponentami jest liczony w dziesiątkach nanosekund . Dlatego elementy są tak rozmieszczone, aby ograniczały długość kabli łączących elementy. Na przykład na Cray-1 lub Cray- II były ułożone w okrąg .
Obecnie komputery te są w stanie przetwarzać i przesyłać bardzo duże ilości danych w bardzo krótkim czasie. Projekt musi zapewniać możliwość szybkiego odczytu, przesyłania i przechowywania tych danych. W przeciwnym razie moc obliczeniowa procesorów byłaby niedostatecznie wykorzystana ( wąskie gardło ).
20 najlepszych superkomputerów na świecie w czerwiec 2013.
Tabela prędkości obliczeniowych (R max ) najlepszych superkomputerów; 60-letnia skala logarytmiczna .
Rozkład według krajów 500 najlepszych superkomputerów wlistopad 2015.
W 1993The Ziemia Physics Institute of Paris (PGI) prowadzi komputerową CM-5/128 , które procesory użyje SuperSPARC , to jest w rankingu 25 th do TOP500 . Trzy lata później w1996The Institute of Scientific i rozwoju zasobów komputerowych (Idris) udaje się dotrzeć do 12 th miejsce na świecie z T3E zbudowany przez Cray .
W środku-2002, Najpotężniejszy superkomputery francuski rangi w 4 th w TOP500 The TERA -na procesorów Alpha do 1 GHz ( AlphaServer SC45 ) i opracowany przez firmę Hewlett-Packard ; należał do Komisji Energii Atomowej (CEA). Wstyczeń 2006TERA-10 od Bull powiedzie, to generuje mocy obliczeniowej 60 tera japonki i umieści 5 th światowym rankingu TOP500.
W czerwiec 2008Idrys i Blue Gene / P rozwiązanie dla IBM wydaje, według testu LINPACK , o mocy 120 teraflopów i wygrał 10 th miejscu.
W listopad 2009, pierwsza francuska maszyna została nazwana Jade . Należy do typu „ SGI Altix (en) ” i mieści się w National Computer Center for Higher Education (CINES) w Montpellier . Superkomputer jest w rankingu 28 th na świecie z 128 teraflopów w teście LINPACK. Wkrótce potem konfiguracja maszyny Jade została zakończona, aby osiągnąć wydajność 237 teraflopów. Maszyna przełącza się naczerwiec 201018 th wiersz TOP500. Jest to trzeci europejski system komputerowy i pierwszy francuski, przeznaczony do badań publicznych .
W listopad 2010Francuski rekord należy do TERA-100 firmy Bull . Położony w ETO w Bruyères-le-Châtel do potrzeb francuskiego jądrowej symulacji wojskowej , ze wydajność teraflopsach 1050, maszyna ta wzrośnie do 6 th na świecie i zdobył 1 st miejsce w Europie. Składa się z 17 296 procesorów Intel Xeon 7500 , każdy wyposażony w osiem rdzeni i połączonych siecią typu InfiniBand .
W marzec 2012, Curie , system zaprojektowany przez Bull za GENCI , zainstalowany na terenie Très Grand Center de CALCUL (TGCC) w Bruyères-le-Châtel, posiada moc 1.359 petaflopów. Staje się najpotężniejszym superkomputerem we Francji biorąc 9 th w światowych rankingach. Jest przeznaczony do dostarczania 2 petaflopów.
W Styczeń 2013, systemy Ada i Turing zbudowane przez IBM są instalowane w IDRIS w Orsay . Suma ich mocy przekracza petaflopy. Te dwie maszyny są dostępne dla badaczy. W marcu 2013 roku nastąpiła inauguracja superkomputera Pangea należącego do firmy Total , który stał się najbardziej wydajnym systemem, jaki kiedykolwiek zainstalowano we Francji. Jego moc obliczeniowa wynosi 2,3 petaflopsa. Odpowiednik 27.000 komputerów razem uzyskał 11 th miejsce na świecie.
W styczeń 2015, system Occigen , zaprojektowany przez Bull, Atos Technologies, dla GENCI jest zainstalowany na terenie CINES; ma moc 2,1 petaflopsa. W światowym rankingu TOP500 uplasował się na 26. miejsculistopad 2014.
W marzec 2016, Total ogłasza, że potroił moc obliczeniową swojego superkomputera Pangea , osiągając moc obliczeniową 6,7 petaflopów w szczytowej wydajności i 5,28 petaflopów w mocy użytkowej. Pozwala to na odzyskanie 11 th miejsce w TOP500, a tym samym stawia go na czele światowego sektora przemysłowego.
Rozwój superkomputerów sprawił, że Linux stał się systemem operacyjnym zasilającym większość z 500 najpotężniejszych superkomputerów na świecie, a Unix stopniowo ustępował miejsca Linuksowi, ale przez pewien czas zajmował czołowe miejsce na rynku superkomputerów (5%).
Windows był obsługiwany tylko przez dwa z 500 najpotężniejszych superkomputerów na świecie, czyli 0,4%, podczas gdy BSD był obecny tylko na jednym komputerze z 500 największych , czyli 0,2%. Wreszcie pozostałe konfiguracje („ mieszane ”, czyli zestaw kilku typów systemów operacyjnych) stanowiły 4,6%.
W listopad 2017, Linux zasila wszystkie z 500 najpotężniejszych superkomputerów na świecie.