Serwerownie są energochłonne. Zasilanie komputerów, klimatyzacji serwerowni, a także pozostałego sprzętu sprawia, że rachunki za energię elektryczną mogą okazać się bardzo wysokie. Dlatego też trudno się dziwić, że przedsiębiorcy coraz częściej poszukują alternatywnych rozwiązań. I nie chodzi tylko o poszukiwanie odnawialnych źródeł energii, bo duże inwestycje związane z ich infrastrukturą często sprawiają, że OZE schodzą na dalszy plan. Rzecz raczej w poszukiwaniu oszczędności wewnątrz, czego przykładem może być free-cooling. Dzięki niemu można ograniczyć zużycie energii przez klimatyzację precyzyjną, bo w chłodniejsze dni używa powietrza atmosferycznego. Wbrew pozorom znaczenie ma też rozmieszczenie sprzętu komputerowego i szaf klimatyzacji przemysłowej. Dlatego przygotowany na samym początku dobry projekt, uwzględniający też rozmieszczenie tych urządzeń, które pojawią się z czasem, jest pierwszym krokiem do optymalizacji kosztów energii. Jednak, jak pokazała to firma DeepMind, można sięgnąć też po moce obliczeniowe komputerów i skorzystać z uczenia maszynowego, czy też szerzej – że sztucznej inteligencji.

Google przez lata działało w celu obniżenia kosztów energetycznych serwerowni giganta z Mountain View. Rozpoczęto od samych urządzeń – najpierw wybrano najbardziej wydajne serwery, następnie zdecydowano się na inwestycje w OZE. W ciągu pięciu lat uzyskano 3,5 raza więcej mocy obliczeniowej z takiej samej jak wcześniej energii. Kiedy Google w 2014 przejęło spółkę DeepMind, rozpoczęto prace nad dalszym usprawnieniem i właśnie wtedy sięgnięto po uczenie maszynowe, czego efektem było zmniejszenie potrzebnej energii elektrycznej o 40 proc. Warto zwrócić uwagę że stało się to już po wprowadzeniu dużych usprawnień. Dzięki temu, pośrednio inne firmy mogą skorzystać na mniejszym zużyciu prądu, jeśli tylko na co dzień używają w pracy chmury Google.

Nie da się ukryć, że chłodzenie jest jednym z najbardziej energochłonnych elementów centrów danych i serwerowni. Nie inaczej było w przypadku serwerów Google. Komputery zasilające takie usługi, jak Google Search, Gmail, czy YouTube, generują naprawdę dużo ciepła, więc potrzebują takich urządzeń, jak klimatyzacje przemysłowe, pompy, agregaty chłodnicze i chłodnie kominowe. Duża liczba czynników, zarówno wewnętrznych, jak i zewnętrznych, utrudniała zoptymalizowanie chłodzenia. Dlatego właśnie zdecydowano się na uczenie maszynowe, które mogło sprawić, że system sam będzie reagował na poszczególne zmienne.

Eksperci z DeepMind, we współpracy zespołem ds. centrów danych Google. Algorytmy szkolono z wykorzystaniem danych historycznych, które zostały już zebrane przez tysiące czujników w serwerowniach. Brano pod uwagę temperaturę, moc, prędkość obrotową pomp, wartości zadane, itp. – i wykorzystano je do treningu zespołu sieci neuronowych. Dodatkowo, dostarczono im też informacji na temat PUE, czyli Power Usage Effectiveness, który jest definiowany jako stosunek całkowitego zużycia energii w budynku do zużycia energii w IT. Później wyszkolono dwa dodatkowe zespoły sieci neuronowych, żeby przewidywały przyszłą temperaturę i ciśnienie w centrum danych w ciągu kolejnej godziny. Celem tych prognoz jest symulacja zalecanych działań na podstawie modelu PUE, aby zapewnić, że urządzenia nie przekroczą ograniczeń eksploatacyjnych.

Kiedy korzystano z obliczeń, umożliwiały one osiąganie 40 procentową redukcję ilości energii zużywanej do chłodzenia, co oznacza 15 procentową redukcję ogólnych kosztów PUE po uwzględnieniu strat.

W naszym wcześniejszym wpisie możecie poczytać o serwerowni Google.