O modelach AI było głośno wystarczająco długo, by ktoś przyjrzał się dokładnie ich wpływowi na środowisko
Kilka lat temu na łamach cashless.pl opisywaliśmy, że kopanie kryptowalut pochłania więcej energii elektrycznej niż wynosi roczne zużycie prądu np. w Polsce. Podobne doniesienia pojawiają się obecnie także na temat modeli AI, po które tak często sięgają obecnie fintechy oraz instytucje finansowe.
"Uczenie" sztucznej inteligencji, takiej jak Chat GPT, oraz jej późniejsza praca, również wiąże się ze zużyciem prądu. Im więcej tego prądu powstało np. ze spalania węgla, tym wyższy jest też ślad węglowy modelu. Jak jednak wskazują badacze z dwóch amerykańskich uniwersytetów, kolejnym problemem jest zużycie wody przez modele AI.
W opracowaniu "Jak uczynić sztuczną inteligencję mniej "spragnioną": Odkrywanie i rozwiązywanie ukrytego śladu wodnego AI" autorzy wskazują, że jedna rozmowa z chatbotem – w tym wypadku Chat GPT – w której pada od 20 do 50 pytań, wiąże się ze zużyciem 0,5 litra wody. Wyliczono, że tyle płynu potrzeba do chłodzenia serwerów oraz wyprodukowania energii elektrycznej, by Chat GPT mógł odpowiadać jednej osobie.
Wraz z wejściem na rynek nowszej wersji modelu, to zużycie może jeszcze wzrosnąć. Chociaż pół litra wody na pozór wydaje się niewielką ilością, należy pamiętać, że z GPT korzystają już miliony ludzi każdego dnia.
Zużycie wody przez centra danych, serwerownie etc. będzie rosło wraz z popularnością modeli AI. Należące do Google'a centra tylko w USA zużywają na chłodzenie 12,7 mld litrów wody, a aż 90 proc. z niej to woda pitna. Rodzi to wiele obaw, zwłaszcza w regionach, które coraz częściej muszą walczyć z suszą.
Model AI od Google, LaMDA, w trakcie nauki ma zdaniem badaczy pochłaniać "oszałamiające" ilości wody, liczone w milionach litrów. GPT-3 miał z kolei pochłonąć 3,5 mln litrów wody, ale tylko w trakcie "nauki", a więc dostosowania go do dalszej pracy, przed udostępnieniem go użytkownikom.