Jak prognozują badacze rynku z International Data Corporation (IDC), w 2025 r. ludzie i maszyny będą generować już 175 zetabajtów danych. Gdyby zapisać je na zwykłych płytach DVD, dałoby to 23 stosy krążków sięgających aż do Księżyca. Roczny, średnio 27% przyrost danych powoduje również zwiększenie wymagań dotyczących infrastruktury IT.

- Sukcesy gospodarcze okażą się w przyszłości trwałe, tylko jeśli nadążą za pełną cyfryzacją i integracją. W coraz większym stopniu w przedsiębiorstwach będzie się wykorzystywać własne dane w tworzeniu wartości i coraz częściej w czasie rzeczywistym, na przykład w środowisku produkcji. Suwerenność danych staje się obecnie krytycznym czynnikiem sukcesu do utrzymania międzynarodowej konkurencyjności - mówi dr Karl-Ulrich Köhler – CEO Rittal International.

Trend 1: Suwerenność danych

Samodzielne przetwarzanie danych stanie się już kluczowym czynnikiem konkurencyjności firm. Dotyczy to wszystkich branż, w których dużą rolę odgrywa bezpieczeństwo danych, a ich analiza decyduje o sukcesie na rynku – na przykład w służbie zdrowia, branży mobilnej, bankowości i przemyśle produkcyjnym. Przedsiębiorcy już teraz zadają sobie pytania - jak w bezpieczny i efektywny sposób przetwarzać dane, czy modernizować własne centrum danych, inwestować w infrastrukturę typu Edge albo czy korzystać z chmury?

Z inicjatywy niemieckiego Ministerstwa Gospodarki i Energii (BMWi) w 2020 r. ma ruszyć zakrojony na szeroką skalę, europejski projekt cyfryzacji Gaia-X. Jego celem jest zbudowanie europejskiej chmury, która umożliwi bezpieczną cyfryzację i usieciowienie przemysłu. Będzie ona stanowiła podstawę do zastosowań nowych aplikacji opartych na sztucznej inteligencji. Idąc tym tropem spółka Fraunhofer Gesellschaft, utworzyła inicjatywę „International Data Spaces”. Ta wirtualna przestrzeń umożliwia firmom bezpieczną wymianę danych oraz zapewnia kompatybilność (interoperacyjność) własnego rozwiązania z uznanymi platformami chmurowymi.

Oznacza to, że rozproszone geograficznie mniejsze centra danych z otwartymi cloud stacks przeprowadzają pierwsze analizy bezpośrednio w miejscu powstawania danych, do dalszych analiz zaś używają chmury. Takim rozwiązaniem jest ONCITE. Gotowe centrum danych typu Edge-Cloud zapisuje i przetwarza dane bezpośrednio tam, gdzie powstają, dzięki czemu przedsiębiorstwa po połączeniu w sieć mogą zachować suwerenność danych wzdłuż całego łańcucha dostaw.

Trend 2: Standaryzacja w data center z wykorzystaniem OCP

Szybka modernizacja istniejących centrów danych staje się w przedsiębiorstwach coraz ważniejsza. Dzieje się to za sprawą stale rosnącej ilości danych do przetworzenia. Kluczowe aspekty to: standaryzowana technologia, efektywna pod względem kosztów eksploatacja oraz wysoka skalowalność infrastruktury. Dla coraz większej liczby dyrektorów ds. IT ciekawą alternatywą staje się technologia OCP (Open Compute Project) z centralnym rozdziałem prądu stałego w szafie IT. Jej główną przewagą jest fakt, że komponenty stałoprądowe stwarzają nowe możliwości optymalizacji kosztów. Zasilanie elektryczne wszystkich komponentów IT odbywa się centralnie, za pomocą zasilaczy n+1 na szafę, a mniej zasilaczy oznacza efektywniejsze chłodzenie. Jednocześnie wysoki stopień standaryzacji komponentów OCP upraszcza konserwację i zarządzanie częściami zamiennymi. Wzrost efektywności wynosi średnio pięć procent prądu całkowitego.

Eksperci firmy Rittal prognozują, że OCP w 2020 r. będzie w dalszym ciągu umacniać się jako kompleksowa platforma systemowa. Nowe produkty OCP do klimatyzacji szaf, zasilania lub monitoringu umożliwią szybką rozbudowę o komponenty stałoprądowe. Poza tym nowe produkty będą wspierać koncepcję centralnego zasilania awaryjnego, w której za zasilanie elektryczne odpowiada centralny system UPS. Dzięki temu dotychczasowe zabezpieczanie każdej szafy OCP za pomocą UPS na bazie baterii litowo-jonowych stanie się zbędne. Takie rozwiązanie znacznie zmniejsza ryzyko pożaru w centrum danych OCP.

Trend 3: Odzyskiwanie ciepła i bezpośrednie chłodzenie CPU

Centra danych emitują duże ilości energii w formie ciepła wydzielanego do otoczenia. Wraz z rosnącą gęstością mocy w centrach danych wzrasta również energia, którą potencjalnie można wykorzystać do innych celów. Dotychczas wykorzystywanie tak wygenerowanego ciepła było jednak zbyt drogie, zresztą użycie wytwarzanego przez bazujące na powietrzu systemy chłodzenia IT ciepła o temperaturze 40 stopni wciąż nie jest ekonomiczne.

Szafy IT, zwłaszcza w obszarze High Performance Computing (HPC), generują duże obciążenia cieplne, które często wynoszą ponad 50 kW. W przypadku HPC bezpośrednie chłodzenie procesorów wodą jest znacznie wydajniejsze niż chłodzenie powietrzem, a temperatury odpływu sięgają od 60 do 65 stopni. W przypadku takich temperatur możliwe jest na przykład podgrzewanie wody użytkowej, zastosowanie pomp ciepła lub nawet zasilanie sieci ciepłowniczej. Dyrektorzy ds. IT powinni jednak pamiętać, że nawet przy bezpośrednim chłodzeniu CPU wodą z szafy IT można odprowadzić tylko około 80% ciepła. Pozostałe 20% nadal wymaga klimatyzacji szaf IT. Rok 2020 przyniesie dalsze poszukiwania nowych możliwości spożytkowania niewykorzystanego dotychczas ciepła z centrów danych do celów gospodarczych.

Trend 4: Integracja środowisk multi-cloud

W przedsiębiorstwach coraz częściej pojawia się potrzeba pewności, że aplikacje chmurowe będą działały na popularnych platformach i w dowolnych krajach. Do tego niezbędna jest strategia multi-cloud. Z punktu widzenia zarządu danej firmy jest to decyzja strategiczna i oparta na przeświadczeniu, że organizacja rozwinie się we w pełni scyfryzowane przedsiębiorstwo.

Nowa strategia multi-cloud: to połączenie dużej liczby funkcji i skalowalności w hiperskali z bezpieczeństwem danych u lokalnych oraz wyspecjalizowanych dostawców takich jak Innovo Cloud. Wtedy wystarczy naciśnięcie guzika na desce rozdzielczej - jeden partner biznesowy, jeden rachunek. A wszystko dzieje się w tej samej chwili, w której zapada decyzja biznesowa. Właśnie to czyni strategię multi-cloud jednym z megatrendów najbliższych lat.

Źródło: Rittal