Zdjęcie: Adobe Stock
Im większy, szybszy i bardziej precyzyjny jest duży model językowy, tym więcej energii potrzeba do jego szkolenia i działania. Niemniej jednak akceptujemy tę rzeczywistość, ponieważ skupiamy się na nadrzędnym celu, jakim jest rozwijanie sztucznej inteligencji, stwierdził dr hab. inż. Paweł Kasprowski, profesor Politechniki Śląskiej.
„W naszym codziennym życiu wiele aspektów wymaga od nas poświęceń. Uważam, że tutaj sytuacja nie jest inna. Dla nas, jako cywilizacji, ewolucja AI jest niezbędna, wręcz kluczowa, dlatego przyznajemy, że ten postęp odbywa się kosztem znacznego zużycia energii i rosnącego śladu węglowego” – zauważył badacz w wywiadzie dla PAP.
Niedawno w Paryżu odbył się międzynarodowy szczyt AI Action Summit, w którym wzięli udział liderzy z około 80 krajów, przedstawiciele największych korporacji technologicznych i wybitni naukowcy. Jedna z dyskusji dotyczyła znacznych wymagań energetycznych związanych z AI (w szczególności z działaniem centrów przetwarzania danych) w obliczu wyzwania globalnego ocieplenia.
Jak podkreśla Paweł Kasprowski – koordynator Priorytetowego Obszaru Badawczego na Politechnice Śląskiej; Sztuczna inteligencja i przetwarzanie danych – wszystkie duże modele językowe (LLM), czyli modele AI, działają na solidnych systemach obliczeniowych.
„Badania przeprowadzone kilka lat temu wykazały, że pojedyncza sesja treningowa modelu – konkretnie starszego modelu GPT-3 – zużywa energię równą tej zużywanej przez ponad 100 gospodarstw domowych w Stanach Zjednoczonych przez rok i emituje tyle samo dwutlenku węgla, co ponad 30 lotów z USA do Australii. I to tylko podczas treningu i w przypadku starszego modelu. Obecnie te modele są znacznie większe i wymagają jeszcze więcej energii” – wyjaśnił Paweł Kasprowski.
Niemniej jednak sztuczna inteligencja może również „spłacić” swoje koszty. „Często rozwijamy AI, aby usprawnić pewne procesy, takie jak efektywność energetyczna, lub aby prognozować na przykład zapotrzebowanie na energię i potencjał jej dostarczania w określonym momencie ze źródeł odnawialnych, takich jak wiatr lub słońce. Modele AI są również wykorzystywane do optymalizacji ruchu, transportu publicznego, pojazdów autonomicznych lub w rolnictwie. Są to jedynie pojedyncze przypadki szerokich zastosowań, które prowadzą do znacznych oszczędności energii” – zauważył.
Jednocześnie badaczka zwróciła uwagę, że zdarzają się sytuacje, w których można nieświadomie „wylać dziecko z kąpielą” – kiedy algorytmy przyczyniają się do pewnych oszczędności, a jednocześnie zużywają nadmierną ilość energii.
Stwierdził jednak, że społeczność jest świadoma tego problemu, dlatego pojawiły się nowe inicjatywy mające na celu złagodzenie śladu węglowego związanego z rozwojem AI. Jedną z takich inicjatyw jest koncepcja „Green in AI”.
„Pozwólcie, że podam przykład, aby wyjaśnić problem. Mamy algorytm, który po uruchomieniu na moim komputerze potrzebuje 6 godzin, aby coś obliczyć. Dla mnie, użytkownika, jest to niezadowalające. Muszę to przyspieszyć. Jak? Najprostszym sposobem jest nabycie bardziej zaawansowanego, wydajnego komputera. Wtedy algorytm zajmie tylko 15 minut, ale przy znacznie wyższym koszcie energii. Alternatywnym podejściem jest optymalizacja samego algorytmu, sprawdzenie, czy jakieś obliczenia w kodzie są zbędne lub czy pewne obliczenia się powtarzają. Dlatego możemy skupić się na ulepszaniu samego kodu, pozwalając algorytmowi na szybsze obliczanie na moim obecnym sprzęcie, przy jednoczesnym wykorzystaniu znacznie mniejszej ilości energii” – wyjaśnił.
Dodał również, że pierwsze podejście jest dominujące, gdyż drugie, choć zyskuje na popularności, wymaga większych nakładów finansowych na zatrudnienie programistów i poświęcenie im czasu.
„Moim zdaniem w tym momencie wyzwanie znalezienia równowagi między rozwojem sztucznej inteligencji a rosnącym zapotrzebowaniem na energię i rosnącym śladem węglowym pozostaje nierozwiązywalne” – stwierdził Paweł Kasprowski.
Pracując nad tym tekstem, PAP zapytał ChatGPT: „Ile energii potrzeba na przeanalizowanie jednego pytania w ChatGPT?”
Oto odpowiedź: „Twoje obecne zapytanie nie jest szczególnie skomplikowane, więc przetwarzanie go za pomocą modelu takiego jak ChatGPT nie wymaga dużej mocy obliczeniowej w porównaniu do bardziej złożonych zapytań. Niemniej jednak nadal jest to część obliczeń wykonywanych przez serwery, które obsługują zapytanie, analizują je i generują odpowiedź. W tym przypadku, jako przybliżony szacunek, moglibyśmy uznać pobór mocy za kilka watów mocy obliczeniowej przez krótki okres czasu. (…)” To jest porównywalne na przykład z żarówką LED.
Agnieszka Kliks-Pudlik (PAP)
acp/ bar/ mhr/