Niebieskawe światło, tajemniczy blask i migotanie w półmroku: podobnie jak klejnoty koronne, HPE zaprezentuje na CeBIT to, co stanie się podstawą nowej generacji komputerów - pierwszego publicznie zaprezentowanego prototypu płytki węzłów. Nodeboard to podstawowa jednostka „The Machine”, nowej, skoncentrowanej na pamięci architektury komputerowej HPE, na którą producent postawił swoją przyszłość.

„Pilnie potrzebujemy nowej, zorientowanej na pamięć architektury komputerowej dla ogromnych ilości danych tworzonych przez Internet rzeczy (IoT) i aplikacji, takich jak autonomiczna jazda” – wyjaśniał raz za razem kierownictwo HPE publiczności wędrującej po halach. „W końcu jeden pojazd generuje cztery TB danych dziennie” — powiedział przed prasą Heiko Meyer, dyrektor zarządzający HPE Enterprise Germany. W autonomicznej jeździe dane służą nie tylko jako podstawa interakcji człowieka z systemami, jak poprzednio, ale wyniki ich błyskawicznej oceny same uruchamiają działania oparte na regułach, które są wielokrotnie dostosowywane do bieżącej sytuacji poprzez uczenie maszynowe. A tradycyjne architektury były na to zdecydowanie za wolne, ponieważ musiały mozolnie pobierać dane z dysku twardego do obszarów roboczych.

Jak teraz wygląda tablica węzłów? Jeśli spojrzysz na zdjęcie, po lewej stronie zobaczysz moduł bramy, który logicznie łączy ze sobą kilka płyt węzłów za pomocą podwójnej sieci szkieletowej. Fizycznie połączenie z nadmiarowym szkieletem składa się z podwójnie ułożonych, szybkich włókien szklanych, na które dane są przesyłane za pomocą fotoniki krzemowej, dzięki czemu impulsy cyfrowe są przekształcane w impulsy świetlne bezpośrednio na płytce, głównie za pomocą elementów półprzewodnikowych. Oszczędza to czas i przyspiesza połączenia. Połączenie składa się z szybkiego przesyłania do przodu o szybkości 600 GBit/s i równie szybkiego kanału zwrotnego, dzięki czemu na każdą kartę węzłową do komunikacji z całym systemem dostępne jest łącznie 1,2 TBit/s. Dostępną przepustowość można skalować za pomocą dodatkowych połączeń zaprojektowanych w ten sam sposób. W pewnym momencie cała komunikacja w obrębie płytki węzłowej również będzie odbywać się za pomocą impulsów świetlnych, ale do tego czasu technologia SiPho będzie musiała zostać dopracowana.

Gen-Z zamiast PCIe

Dalej po prawej stronie na płycie widać rdzeń architektury, procesor, a po prawej stronie banki pamięci bez dysku twardego, w tym programowalne komponenty, które przekierowują dostęp do właściwej pamięci. Każdy procesor otrzymuje dokładnie tyle pamięci, ile potrzebuje do zadania, które aktualnie przetwarza. Nie jest już dostępny za pomocą znanych technologii, takich jak PCI lub PCIe, ale dzięki nowemu standardowi połączeń Gen-Z.

Za Gen-Z, która zwielokrotnia przepustowość bezpośredniego dostępu do pamięci w porównaniu do PCIe, stoi rzadko duża grupa producentów. Właściwie w konsorcjum Gen Z brakuje tylko jednej nazwy: Intel. Nic dziwnego, skoro producentowi jak dotąd nie udało się dostosować architektur procesorów do nadchodzącej ery danych przy użyciu nowatorskich mechanizmów dostępu do pamięci. Nie ma nic złego w postrzeganiu generacji Z jako bezpośredniego ataku na technologie Intela w tej dziedzinie. Dlatego należy uważnie obserwować, czy producent również w niedalekiej przyszłości dołączy do tego komitetu, czy też wyczaruje coś własnego z kapelusza.

Jeśli cały system „Maszyny” zawiera więcej niż jedną kartę węzłową, dane dla przetwarzanego procesu mogą znajdować się w dowolnym miejscu systemu. Każde zadanie otrzymuje dokładnie tyle pamięci, ile potrzebuje, czyli tam, gdzie pamięć jest aktualnie wolna. Pamięć na płycie powinna jednak starczyć na sporo. Może pomieścić do petabajta. Każdy system posiada podwójną sieć szkieletową, do której płyty węzłowe są połączone obok siebie – obecnie planowanych jest do dziesięciu.

„Maszyna”: Duże zainteresowanie użytkowników

Kierownictwo HPE jednogłośnie podkreśla, że ​​zainteresowanie „Maszyną” jest ogromne, ponieważ technologia ta wcześniej wykonywała bardzo czasochłonne procesy o kilka rzędów wielkości szybciej. Andreas Hausmann, Chief Technologist Networking w HPE w Niemczech, poinformował o zakończonej przed CeBIT współpracy z Niemieckim Centrum Chorób Neurowegetatywnych (DZNE). „Wcześniej ukończenie analizy obrazu i wykonanie kolejnego kroku zajmowało od tygodnia do 14 dni. Dzięki „Maszynie” jest to skrócone do godzin lub minut.„Niezliczone obrazy przechowywane w pamięci systemu można porównać mniej więcej jednocześnie z nowym obrazem, aby odkryć pasujące wzorce i postawić odpowiednią diagnozę.

Jednak żadna koncepcja nie przetrwa pierwszych etapów jej realizacji w niezmienionej postaci. Najważniejsza zmiana dotyczy oprogramowania do „Maszyny”. „W tym momencie zmieniliśmy nieco zdanie” — powiedział Andrew Wheeler, wiceprezes i zastępca dyrektora HP Labs. Pierwotnie miał zostać napisany zupełnie nowy system operacyjny - teraz nowe moduły oprogramowania są opracowywane w społeczności otwartego Linuksa. „Kilka uniwersytetów wciąż prowadzi badania nad nowym systemem operacyjnym, ale otwarte oprogramowanie jest obecnie ważniejsze”, mówi Wheeler. Najważniejszą różnicą w stosunku do konwencjonalnych systemów operacyjnych Linux jest to, że cała logika wejścia/wyjścia jest pomijana bez wymiany, ponieważ w „Maszynie” nie ma dysków twardych. Według HPE często można dostosować programy do „Maszyny” po prostu usuwając z nich logikę wejścia/wyjścia, ponieważ nie spełnia ona już żadnej funkcji podczas pracy z „Maszyną” - wystarczy bezpośredni dostęp do pamięci.

Drugi punkt dotyczy technologii przechowywania, w którą wyposażone są płyty węzłowe. Przewidziane do tego memrystory są pamięciami nieulotnymi, które wymagają znacznie mniej energii niż pamięci DRAM i które HPE badało od dawna. Western Digital i SanDisk pracują nad ich wdrożeniem w ilościach opartych na rozwiązaniach HPE. Wheeler: „Producenci pamięci często pracują z małymi marżami, a wydajność jest w tej chwili po prostu zbyt mała.” Może być również tak, że Intel i Micron, z ich również nieulotną technologią 3D X Point (czytaj: 3D Crosspoint), są szybciej niż Western Digital osiągnąć niezbędną doskonałość produkcyjną. Wtedy, zgodnie z własnymi deklaracjami, HPE prawdopodobnie po raz pierwszy użyje tego typu pamięci w "Maszynie" - najważniejsze jest to, że jest ona nieulotna i opcjonalna, to motto.

Tak czy inaczej: w ciągu najbliższego roku, dwóch lat producent chce krok po kroku integrować ze swoimi produktami technologie, na których opiera się „The Machine” – fotonika krzemowa, architektura skoncentrowana na pamięci z architekturą genu. - Z-Interconnect i nieulotna, losowa pamięć jako zamiennik dysku twardego. Według HPE pierwsze produkty całkowicie oparte na technologii The Machine mogą powstać w wyniku połączenia z zakupionymi technologiami SGI w środowisku Big Data i HPE.

Czy „Maszyna” konkuruje z produktami takimi jak SAP HANA czy IBM Watson? HPE mówi, że nie. „Watson i HANA mogłyby wspaniale działać na „The Machine”, powiedział Wheeler. Wątpliwe jest, czy IBM postrzegałby to w ten sposób. W każdym razie ta architektura jest ucieczką do początków komputerów cyfrowych. Ponieważ na samym początku rozwoju komputera wykorzystywano również pamięć, która nie traciła swoich danych po wyłączeniu - tylko jej pojemność była znacznie mniejsza.

Więcej artykułów na temat „Maszyna”