Trenowanie modelu to zużycie energii w 100 gospodarstwach domowych przez rok
W ostatnich dniach w Paryżu odbył się międzynarodowy szczyt AI Action Summit, w którym udział wzięli przywódcy około 80 krajów, przedstawiciele globalnych gigantów branży technologicznej i wybitni naukowcy. Jednym z tematów było ogromne zapotrzebowanie na energię związane z AI (z działaniem centrów przetwarzania danych) wobec problemu globalnego ocieplenia.
Jak przypomina Paweł Kasprowski – koordynator Priorytetowego Obszaru Badawczego Politechniki Śląskiej; Sztuczna inteligencja i przetwarzanie danych – wszystkie duże modele językowe (LLM), czyli modele sztucznej inteligencji pracują na potężnych komputerach.
– Badania sprzed kilku lat pokazały, że tylko na jedno trenowanie modelu – i to starszego modelu GPT 3 – zużywa się tyle energii, co ponad 100 gospodarstw domowych w Stanach Zjednoczonych przez rok i emituje tyle dwutlenku węgla, co ponad 30 lotów z USA do Australii. A to tylko trenowanie i to starszego modelu. Dzisiaj te modele są dużo większe i zużywają jeszcze więcej energii – pokazuje Paweł Kasprowski.
Zużyje, ale pokaże jak nie zużywać energii
Sztuczna inteligencja może się jednak „odpłacić”. – Rozwijamy AI bardzo często do tego, aby coś zoptymalizować, np. zużycie energii, albo by przewidywać np. zapotrzebowanie na energię i możliwości jej dostarczania w danym momencie z wiatru czy słońca. Modele AI są też wykorzystywane do optymalizacji ruchu, transportu publicznego, autonomicznych samochodów, czy w rolnictwie. A to tylko pojedyncze przykłady szerokiego zastosowania, które umożliwiają znaczące oszczędności w zużyciu energii – tłumaczy Paweł Kasprowski.
Jednocześnie, badacz zwraca uwagę, że czasem, owszem, można „wylać dziecko z kąpielą” – gdy algorytmy wprawdzie przyczyniają się do jakiejś oszczędności, ale jednocześnie zużywają niewspółmiernie do efektu dużo energii. Jak jednak mówi, problem jest znany środowisku, dlatego pojawiają się kolejne inicjatywy na rzecz zmniejszana śladu węglowego w związku z rozwojem AI. Jedną z nich jest idea „Green in AI”.
Mocny komputer, mniejsze zużycie
– Podam przykład dla zobrazowania problemu. Mamy jakiś algorytm, który po uruchomieniu na moim komputerze oblicza coś przez 6 godzin. Dla mnie, użytkownika, to jest nieakceptowalne. Muszę zrobić tak, żeby było szybciej. Jak? Najlepiej wziąć lepszy, mocniejszy i większy komputer. Wtedy ten algorytm będzie liczył tylko 15 minut, ale kosztem znacznie większej energii. Drugie podejście jest takie, aby zoptymalizować sam algorytm, sprawdzić, czy w kodzie np. coś się liczy niepotrzebnie albo jakieś obliczenia się dublują. Możemy więc spróbować poprawić sam kod, dzięki czemu algorytm będzie liczył szybciej na moim dotychczasowym sprzęcie, zużywając znacznie mniej energii – opowiada naukowiec.
Jednocześnie dodał, że dominuje to pierwsze podejście, ponieważ drugie, choć zyskuje na popularności, wymaga większych nakładów finansowych na zatrudnienie programistów oraz czasu na ich pracę.
– Dlatego w mojej ocenie, na teraz, problem równowagi między rozwojem AI a wzrostem zapotrzebowania na energię i rosnącym śladem węglowym jest nierozwiązywalny – ocenia Paweł Kasprowski.
Komentarze (0)