Wiadomości Branżowe

Pandemia znacznie zwiększyła ilość przesyłanych danych. Coraz więcej firm do ich przetwarzania wdraża rozwiązania oparte na sztucznej inteligencji [DEPESZA]

Tylko w tym roku w wyniku pandemii koronawirusa na całym świecie zostanie przetworzonych 59 zetabajtów danych. Rosnąca w lawinowym tempie ilość przesyłanych informacji wymusza błyskawiczną cyfryzację firm i administracji. Podstawą w tym procesie jest sztuczna inteligencja, która jednak wymaga stosowania odpowiedniej infrastruktury IT. Powszechnie stosowane dziś rozwiązania przestają wystarczać, dlatego coraz więcej przedsiębiorstw decyduje się na inwestycje w serwery zaprojektowane stricte z myślą o sztucznej inteligencji i analizie wielkich zbiorów danych. Już teraz są wykorzystywane także w walce z pandemią.

– Sztuczna inteligencja będzie wymagała znacznych zasobów obliczeniowych. Kiedy technologia stanie się bardziej złożona, a koszty ogólne będą lawinowo rosnąć, znalezienie opłacalnych środowisk do prowadzenia intensywnych procesów będzie zarówno wymogiem, jak i przewagą konkurencyjną. Firmy będą musiały się dostosować i być elastyczne, zwłaszcza w zakresie infrastruktury. Technologie chmurowe – w szczególności hybrydowe – są i będą podstawą sztucznej inteligencji, ponieważ potrzebuje ona znacznych ilości danych – mówi agencji Newseria Biznes Jakub Grzywacz, Infrastructure Solution Architect w Goldenore.

Sztuczna inteligencja (SI) to jedna z fundamentalnych technologii w procesie cyfrowej transformacji, dla której motorem są dane. Według dotychczasowych szacunków IDC globalna baza danych miała zwiększyć się z 45 w ubiegłym do 175 zetabajtów w 2025 roku, przy czym prawie 30 proc. z nich będzie musiało być przetwarzanych w czasie rzeczywistym. Nowsze prognozy pokazują jednak, że tylko w tym roku na całym świecie zostanie przetworzonych 59 ZB danych. Do tego wzrostu przyczyniła się pandemia COVID-19.

IDC prognozuje, że wydatki firm na systemy SI będą znacząco przyspieszać, bo organizacje coraz szerzej wdrażają je w ramach swojej cyfrowej transformacji, aby utrzymać konkurencyjność w realiach cyfrowej gospodarki. W ciągu najbliższych czterech lat globalne wydatki na SI mają się podwoić z obecnych 50,1 mld dol. do ponad 110 mld dol. w 2024 roku przy średniorocznej stopie wzrostu na poziomie ponad 20 proc. Rozwiązania SI wymagają jednak odpowiedniej architektury.

– Korzystając z infrastruktury, która została zaprojektowana z myślą o obsłudze właśnie takich systemów, mamy pewność, że maksymalizujemy korzyści z pracy SI i informacji zawartych w naszych danych. Zastosowanie dedykowanych rozwiązań jest bardziej efektywne niż rozwiązań do ogólnych przeznaczeń. Dedykowana platforma dostarczy wyniki szybciej, co z kolei pozwala na szybsze reagowanie i podejmowanie decyzji – wskazuje Jakub Grzywacz.

W tej chwili firmy, które potrzebują bardzo dużych mocy obliczeniowych w celu przetwarzania danych w chmurze czy obsługi systemów SI, dość powszechnie korzystają z rozwiązań opartych na serwerach w architekturze x86 (stosowanej także w domowych komputerach). Część organizacji zaczyna od nich odchodzić, bo przestają być wystarczające, a ich skalowanie wymaga np. fizycznej rozbudowy centrów danych, co pociąga też za sobą większe koszty zasilania czy chłodzenia.

Co więcej, wraz ze wzrostem ilości danych serwery będą musiały dostosowywać się do rosnących potrzeb. Dlatego też z rozwiązaniami opartymi na x86 coraz skuteczniej konkurują na rynku serwery IBM Power Systems (oparte na procesorach POWER9 i autorskiej architekturze amerykańskiego producenta), zaprojektowane do przetwarzania ogromnych ilości danych i przystosowane do działania w chmurze. Ich skalowanie nie wymaga rozbudowy centrum danych dzięki zaawansowanej wirtualizacji sprzętu.

– Prawie każda firma lub organizacja wykorzystuje wirtualizację. Procesory Power zostały zaprojektowane z myślą o niej, a samo zastosowanie wirtualizacji skutkuje około 2-proc. narzutem na wydajność. Architektura x86 posiłkuje się rozwiązaniami firm trzecich i nie uzyskuje tak dobrych wyników – mówi ekspert z Goldenore. – Trzeba też pamiętać, że nie wszystkie procesory sprawdzają się np. przy obciążeniach związanych ze sztuczną inteligencją. W procesorach IBM Power mamy wykorzystaną akcelerację GPU za pomocą technologii NVIDIA NVLink 2.0 dla połączenia zarówno pomiędzy procesorami logicznymi i graficznymi, jak i graficznymi między sobą. U konkurencji akceleracja dotyczy wyłącznie procesorów graficznych.

Jak podaje IBM, po migracji i konsolidacji obciążeń na Power Systems zajęta powierzchnia serwerowni może zmniejszyć się o 85 proc., a zastosowanie tej technologii dodatkowo ogranicza koszty zużycia energii elektrycznej nawet do 80 proc. Obsługa platformy wymaga mniej pracy od administratorów, dzięki czemu mogą poświęcać więcej czasu na inne, innowacyjne projekty. Duża skalowalność powoduje też, że firma nie będzie mieć problemów z zaspokojeniem swoich rosnących potrzeb na moce obliczeniowe, związanych z nowymi projektami czy po prostu rozwojem przedsiębiorstwa.

Co istotne, w porównaniu z jednostkami klasy x86 serwery IBM Power Systems zapewniają dwukrotnie większą wydajność na każdy rdzeń procesora i pięciokrotnie szybszą przepustowość danych.

– Power Systems zostały zaprojektowane dla obciążeń wymagających dużej wydajności, takich jak analiza danych, sztuczna inteligencja czy aplikacje tworzone dla chmury. Natomiast x86 został stworzony dla wielu rynków, m.in. pod rozwiązania serwerowe, komputery PC i laptopy, była nawet próba wejścia na rynek smartfonów – wymienia Jakub Grzywacz.

Dla firm równie istotna jest niezawodność sprzętu, bo wszelkie zakłócenia w realizacji operacji oznaczają straty finansowe, których wysokość może sięgnąć od kilku do nawet kilkuset tysięcy dolarów.

– Serwery IBM cechują się również wysoką niezawodnością i odpornością na awarię, co prowadzi do długiego czasu dostępności i braku nieplanowanych przestojów działania systemów – podkreśla ekspert.

Według kwietniowego raportu ITIC, która co roku przeprowadza ankietę wśród ok. 1 tys. globalnych przedsiębiorstw na temat niezawodności serwerów i ich systemów operacyjnych, serwery IBM Power Systems okazały się pod tym względem najlepsze i otrzymały najwyższe oceny już po raz 12. z rzędu. W ich przypadku średni przestój z powodu nieprzewidzianych wad sprzętowych wyniósł w tym roku nieco ponad 1 minutę, podczas gdy przestój serwerów klasy x86 wahał się między 4,8 a18 min. Koszt takiego przestoju waha się od 24 tys. do nawet 90 tys. dol., tymczasem w przypadku IBM Power Systems wyniósł on 6 tys. dol. – wynika z obliczeń ITIC.

Brak kosztów związanych z przestojami to niejedyne oszczędności, jakie generuje IBM Power Systems. Fizyczny sprzęt to nie są jedyne wydatki niezbędne do działania systemów.

– Czynnikiem, który trzeba wziąć pod uwagę, jest całkowity koszt posiadania. Koszt samej platformy jest zazwyczaj stosunkowo niewielki w stosunku do kosztu oprogramowania, które na niej działa. W porównaniu do innych platform mniejsza liczba rdzeni zapewni taką samą wydajność, dzięki czemu całe rozwiązanie będzie wymagało zakupu mniejszej liczby licencji. Dodatkowo dzięki takiej konsolidacji firma oszczędza na kosztach przestrzeni, prądu czy klimatyzacji – wskazuje Jakub Grzywacz.

Procesory IBM POWER9 są już wykorzystywane m.in. w superkomputerze Summit, który swoje działanie opiera na sztucznej inteligencji. Jego moc obecnie jest używana m.in. do walki z koronawirusem. We współpracy m.in. z Białym Domem oraz Departamentem Energii Stanów Zjednoczonych IBM pomaga w uruchomieniu COVID-19 High Performance Computing Consortium, które zapewni bezprecedensową moc obliczeniową - 16 systemów o mocy ponad 330 petaflopsów, 775 tys. rdzeni procesorów, 34 tys. procesorów graficznych. Konsorcjum ma na celu pomoc naukowcom na całym świecie w lepszym zrozumieniu COVID-19, metod leczenia i potencjalnych leków.

Similar Posts

Subscribe
Powiadom o
guest
0 komentarzy
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x