Czy sztuczna inteligencja uchroni nas przed
katastrofą klimatyczną?

 

Już dziś i w najbliższych latach sztuczna inteligencja daje ludzkości potężny zestaw narzędzi do łagodzenia zmian klimatycznych. W nieco dłuższej perspektywie może wręcz pomóc odwrócić zagrożenie.
A jednak ten wielki potencjał zderza się z banalnymi przeszkodami.

Od 19 września 2020 r. Metronome, słynny cyfrowy zegar umieszczony w samym sercu Manhattanu odlicza lata, dni, godziny, minuty i sekundy od krytycznego punktu, kiedy średnia temperatura na Ziemi podniesie się o 1,5 st. C. Według szacunków naukowców zostało nam ok. 7-10 lat. Potem nastąpi łańcuch zdarzeń, których nie potrafimy już powstrzymać. Będziemy mogli tylko bezsilnie przyglądać się katastrofie.

Chociaż degradacja klimatyczna nie jest obecnie jedynym egzystencjalnym problemem ludzkości, to wśród 10 największych dla nas zagrożeń większość wiąże się właśnie z szeroko rozumianą ekologią. Tak przynajmniej postrzegają to wybitni przedstawicieli różnych dyscyplin nauki w Australii. Tamtejszy Australian National University powołał w 2020 r. Komisję ds. Przyszłości Człowieka, która zajmuje się głównymi obecnie zagrożeniami dla ludzkości i bada, jak można je rozwiązać. W swoim raporcie Komisja stwierdza, że skłonność naszego gatunku do wyrządzania sobie masowych szkód postępuje już od połowy XX w. Zdaniem australijskich uczonych, do zakończenia egzystencji ludzi na Ziemi mogą się przyczynić następujące procesy:

  • zmniejszanie się niezbędnych dla nas zasobów naturalnych, zwłaszcza wody;
  • upadek ekosystemów i utrata różnorodności biologicznej na planecie;
  • wzrost populacji ludzkiej poza poziom możliwy do utrzymania na Ziemi;
  • spowodowane przez człowieka zmiany klimatyczne i globalne ocieplenie;
  • rosnący brak bezpieczeństwa żywnościowego i pogorszenie jakości produktów spożywczych;
  • zanieczyszczenie chemiczne naszego ekosystemu, w tym atmosfery i oceanów;
  • użycie broni jądrowej i innych rodzajów broni masowego rażenia;
  • pandemie i rozwój nieuleczalnych chorób;
  • pojawienie się potężnej, niekontrolowanej nowej technologii;
  • brak zrozumienia tych zagrożeń przez społeczeństwa;
  • niewystarczające i nieskuteczne wysiłki decydentów, aby zapobiec tym procesom.

Wszystkie wspomniane ryzyka są ze sobą powiązane. Dlatego, zdaniem Komisji, muszą być rozwiązywane łącznie. Także raport Global Risks 2021 Światowego Forum Ekonomicznego wskazuje niepowodzenie działań w zakresie klimatu jako drugie najbardziej prawdopodobne długoterminowe ryzyko egzystencjalne stojące przed światem.

 

COP26 i wzrost roli SI

Podczas zakończonego w połowie listopada w Glasgow szczytu klimatycznego COP26 (Conference of Partnerts) stwierdzono, że dotychczasowy plan redukcji emisji we wszystkich krajach świata (znany jako Nationally Determined Contributions) nadal skutkuje przerażającym wzrostem średniej temperatury do końca wieku. Jeśli nie zrobimy niczego ponad to, co dotychczas, zwiększy się ona o 2,4°C. Do dziś od czasów rewolucji przemysłowej wzrosła o 1,1 stopnia. Przekroczenie 2 stopni narazi ponad miliard ludzi na ekstremalny stres klimatyczny. Zniknie 99 proc. raf koralowych, dwukrotnie przyspieszy proces wymierania gatunków fauny i flory. Dziesięciokrotnie szybciej będą się latem topić lodowce, a to spowoduje wzrost poziomu mórz we wszystkich wrażliwych rejonach świata aż o 6 m. „Różnica między 1,5 a 2 stopniami jest dla nas wyrokiem śmierci” – skomentował te dane na ostatnim posiedzeniu plenarnym COP26 Aminath Shauna, Minister Środowiska Malediwów.

Wśród wielu różnych rozwiązań, które miałaby zapobiec tej wizji, w Glasgow wielokrotnie wskazywano na rosnące możliwości nowych technologii, a zwłaszcza sztucznej inteligencji (SI). Na konferencję został przygotowany specjalny raport Zmiany klimatu i sztuczna inteligencja. Opracowało go 15 czołowych badaczy SI z całego świata. Wzywają oni rządy i decydentów do radykalnego przyśpieszenia wdrożeń narzędzi opartych na SI, bo widzą w tym wielką szansę dla Ziemi.  

 

 

Instytut Alana Turinga, czyli brytyjskie krajowe centrum badań na temat masowych danych i sztucznej inteligencji, prezentował swoje projekty bezpośrednio powiązane z celami COP26. Wykorzystują one uczenie maszynowe do lepszego zrozumienia złożonych interakcji między klimatem a arktycznym lodem morskim, oceny i zarządzania ryzykiem nagłych emisji gazów cieplarnianych z torfowisk czy analizy informacji z czujników w celu lepszego zrozumienia jakości powietrza w miastach

W dążeniu do osiągnięcia neutralności klimatycznej badacze wykorzystują też nowoczesne narzędzia SI do sterowania energią elektryczną oraz wpierania procesu decyzyjnego w warunkach niepewności klimatycznej. Instytut współpracuje ponadto z zewnętrznymi partnerami, aby zintegrować modele upraw i chorób roślin z teledetekcją i prognozami klimatycznymi. Celem jest wykrywanie zagrożeń dla rolnictwa oraz wspieranie bezpieczeństwa żywnościowego. Z kolei rząd niemiecki we współpracy z sektorem prywatnym i NGO wskazywał sposoby, jak SI może przyspieszyć działania na rzecz klimatu oraz jak mogą w tym pomóc decydenci globalni i krajowi.

Jednym ze zobowiązań podjętych podczas COP26 przez światowych przywódców jest zakończenie i odwrócenie do 2030 r. procesu wylesiania powierzchni globu. Lasy pochłaniają bowiem ok. 30 proc. całej emisji współtworzącego globalne ocieplenie dwutlenku węgla. W wyegzekwowaniu tej na razie politycznej deklaracji pomoże technologia satelitarna sprzężona z SI. Jednym z już dostępnych narzędzi jest Google Earth Engine, które łączy ogromny katalog (wiele patabajtów danych) zdjęć satelitarnych i zestawów danych geoprzestrzennych z funkcjami ich analizy w skali planetarnej. Naukowcy, badacze i programiści mogą bezpłatnie używać Earth Engine do wykrywania zmian klimatycznych, mapowania trendów i ilościowego określania różnic na powierzchni Ziemi.  

 

 

Oprócz pomiaru kurczenia się czap lodowych i ostrzegania o ekstremalnych warunkach pogodowych, obrazy satelitarne są coraz częściej interpretowane przez sztuczną inteligencję w celu oceny gęstości lasów, śledzenia wzrostu nowych drzew, a nawet obliczania pochłanianego przez nie CO2. Łącząc zdjęcia satelitarne z technologią 3D skanowania laserowego Lidar używającą dronów, aplikacje SI dostarczają znacznie więcej szczegółów na temat zmieniającego się środowiska niż konwencjonalne obserwacje. Ta technologia zaczyna być używana na całym świecie.

 

 

 

Cyfrowe bliźniaki 

Cyfrowy bliźniak to wirtualne odwzorowanie rzeczywistego obiektu fizycznego, takiego jak maszyna albo cały system, np. związek chemiczny lub branża produkcyjna. Służy do katalogowania właściwości i cech obiektu oraz przewidywania jego zachowania w różnych warunkach. Przed epoką sztucznej inteligencji tworzenie cyfrowych bliźniaków miało ograniczony sens, zwłaszcza w przypadku wysoce złożonych obiektów lub systemów. Teraz ta koncepcja rozkwita, bo SI jest w stanie analizować tysiące i miliony zmiennych. Ograniczeniem jest tylko moc obliczeniowa obecnych komputerów, ale za chwilę ten problem rozwiążą komputery kwantowe.

Na przykład firma General Electric używa cyfrowych bliźniaków do całkowitej transformacji procesu projektowania, produkcji i konserwacji swoich produktów i procesów, w tym silników, wytwarzania energii, ropy i gazu oraz sprzętu do obrazowania medycznego. W ten sposób zwiększyła niezawodność niektórych z nich o 90-100 proc. w czasie krótszym niż dwa lata i zmniejszyła koszty napraw o 40 proc. Cyfrowy bliźniak lokomotywy Evolution symuluje najbardziej efektywny profil prędkości i przyspieszenia pociągu z uwzględnieniem wielu zmiennych, dzięki czemu oszczędza od 3 do 17 proc. paliwa.

Inny przykład: globalna firma stalowa może zredukować ok. 10 proc. emisji dwutlenku węgla i 1 proc. wydatków, jeśli użyje modeli SI do optymalizowania swoich operacji przemysłowych. 

 

 

Predykcyjne możliwości cyfrowego bliźniaka można wykorzystać do testowania przydatności nowych materiałów, związków chemicznych (o czym więcej poniżej), leków, szczepionek, a nawet projektowania mniej energochłonnych budynków. To ważne, bo obszary zabudowane odpowiadają za 25-40 proc. całkowitej światowej emisji dwutlenku węgla, a budynki zużywają 25-40 proc. globalnej energii. Dziś sztuczna inteligencja może koordynować właściwości cieplne domu, lokalne warunki pogodowe i sposób, w jaki wpływają one na przepływ ciepła w domu oraz preferencje użytkowników, aby minimalizować zużycie energii. Biorąc pod uwagę prognozowany stały wzrost urbanizacji na świecie, wdrożenie zrównoważonego budownictwa staje się więc jednym z najbardziej kluczowych wyzwań w walce z globalnym ociepleniem.

Stale rośnie skala obiektów, dla których tworzone są cyfrowe bliźniaki. Naukowcy i informatycy z Unii Europejskiej przystąpili do tworzenia wirtualnego bliźniaka naszego globu. Ma on być kluczowym narzędziem walki z ociepleniem klimatu. Projekt nazywa się Destination Earth, wystartował w 2021 r. i ma być zrealizowany w 10 lat. Bardzo dokładny cyfrowy model Ziemi będzie odwzorowywać zmiany klimatu i ekstremalne zdarzenia w przestrzeni i w czasie. Naukowcy chcą też zintegrować aktualizowane dane dotyczące istotnych działań człowieka, w tym nasz wpływ na zasoby wody, żywności i energii oraz procesy zachodzące w fizycznym systemie Ziemi.

Rola SI w tym projekcie jest kluczowa. Ma ona przyspieszyć symulacje i filtrowanie najważniejszych informacji z dużych ilości danych. Ponadto badacze zakładają, że wykorzystanie uczenia maszynowego nie tylko usprawni obliczenia, ale pomoże dokładniej opisać procesy fizyczne.

 

Optymalizacja procesów biznesowych

Do niedawna biznes deklarujący działania proekologiczne uprawiał w istocie green washing (działania pozorowane). Ponieważ bardzo trudno było zmierzyć rzeczywisty ślad węglowy większości konkretnych przedsiębiorstw, deklarowały one, co chciały. Pod tym względem sztuczna inteligencja jawi się jako punkt zwrotny. Jej zdolność do oferowania skomplikowanych informacji na temat różnych aspektów śladu węglowego, a przy tym wskazywania szybkich oszczędności z inwestycji proekologicznych, rośnie dosłownie z miesiąca na miesiąc.  

 

 

W październiku 2021 r. IBM wprowadził nową usługę dla firm pod nazwą Environmental Intelligence Suite EIS ). W ten sposób chce im pomóc przewidywać, przygotowywać się i dostosowywać do coraz poważniejszych zagrożeń związanych z ociepleniem klimatu. Technologie dostępne w pakiecie pomagają firmom zidentyfikować i lepiej zrozumieć, w jaki sposób ich działalność wpływa na środowisko naturalne oraz wskazują kroki, które mogą podjąć, aby rozpocząć ograniczanie własnego śladu węglowego.

Pakiet IBM integruje narzędzia SI z danymi środowiskowymi, klimatycznymi i pogodowymi i umożliwia precyzyjne rozliczanie emisji dwutlenku węgla. Wkrótce żadna firma deklarująca swoją odpowiedzialność klimatyczną nie będzie się mogła zasłaniać brakiem danych. Dlatego w obowiązkowych raportach ESG (environmental – social responsibility – corporate governance) korporacje powinny takie dane ujawniać i raportować konkretne działania.

Za 25 proc. emisji gazów cieplarnianych na świecie odpowiada elektroenergetyka. Dlatego tak ważne są wszystkie rozwiązania, które mogą ten wpływ zredukować. ElectricityMap to zasilana SI platforma, która dzięki współpracy z Google co godzinę dostarcza ciekawe dane określające ilość energii elektrycznej o wysokiej emisji dwutlenku węgla w ponad 50 krajach. Dostępne są informacje historyczne, w czasie rzeczywistym lub jako prognoza na najbliższe 24 godziny. Umożliwia to zarządzającym sieciami, a dużym odbiorcom energii, m.in. firmom przemysłowym, pozwala sterować zapotrzebowaniem na energię elektryczną w taki sposób, aby udział tej niskoemisyjnej w całkowitym poborze był jak najwyższy.

 

 

Rozwiązanie o podobnych skutkach stworzyła należąca do Google firma DeepMind. Stosuje ona algorytmy uczenia maszynowego do optymalizacji wywarzania 700 megawatów mocy wiatrowej w środkowych Stanach Zjednoczonych. To tyle, ile potrzebuje średniej wielkości miasto. Korzystając z sieci neuronowej wyszkolonej w oparciu o powszechnie dostępne prognozy pogody i historyczne dane dotyczące pracy turbin, system rekomenduje z jednodniowym wyprzedzeniem optymalne godzinowe dostawy do sieci energetycznej. 

Sztuczna inteligencja może również pomóc w zwiększeniu niezawodności i odporności takich sieci. Przerwy w dostawach prądu szkodzą środowisku i gospodarce oraz zakłócają usługi publiczne. SI przewiduje zbliżające się przerwy w dostawie prądu, dokładnie prognozuje wzorce pogodowe i szybko ocenia sieć energetyczną pod kątem słabych punktów. Ta ocena zmniejsza katastrofalne szkody dla środowiska, ponieważ pozwala zarówno zapobiegać przestojom, jak i szybciej reagować w przypadku ich wystąpienia.

Dziś SI pomaga w obliczaniu emisji CO2 przy produkcji żywności, działalności przemysłu w Chinach, przy stosowaniu betonu w budownictwie, efektywności energetycznej żeglugi morskiej czy w podróży lotniczych.

„Za pięć lat pozostawianie śladu węglowego będzie postrzegane jako coś społecznie nie do zaakceptowania, podobnie jak obecnie jazda po alkoholu” – prognozuje Steve Oldham, dyrektor generalny Carbon Engineering. Jego wypowiedź odnotowuje portal Światowego Forum Ekonomicznego w artykule17 sposobów, jak technologia może zmienić świat do 2025 r.” „Ludzkość zrobi wszystko, co w jej mocy, by nie emitować więcej CO2 do atmosfery. I by trwale usunąć z powietrza to, co już wyemitowała” – dodaje cytowany w nim Jan Wurzbacher, współzałożyciel i współzałożyciel Climeworks. Wszystkie te optymistyczne prognozy oparte są na wierze w rosnący potencjał sztucznej inteligencji.

 

 

 Nowe technologie i materiały

Dzięki rosnącym strumieniom danych w produkcji przemysłowej i przetwarzającym je algorytmom SI do 2025 r. wzrośnie wydajność i jakość produktów, a straty spadną nawet o 50 proc.”twierdzi Anna-Katrina Shedletsky, CEO i założycielka Instrumental – firmy z Doliny Krzemowej zajmującej się rozwiązywaniem problemów związanych z produkcją. Naukowcy na całym świecie pracują obecnie nad przyspieszeniem eksperymentów dotyczących nowych materiałów, które pomogłyby sprostać wielkim wyzwaniom energetycznym XXI w. Szanse znacząco rosną, jeśli używane są do tego techniki sztucznej inteligencji, najczęściej uczenie maszynowe. Takie podejście stosuje centrum badawcze IBM Research, pracujące nad wieloma nowymi technologiami mającymi wesprzeć walkę z zagrożeniami klimatycznymi. Jednym z tych projektów jest autonomiczne laboratorium chemiczne o nazwie IBM RoboRXN for Chemistry. Skutecznie automatyzuje ono większość wstępnych prac przygotowawczych w zakresie syntezy materiałów i pozwala przewidywać wyniki lub odtwarzać przebieg milionów reakcji chemicznych dowolnych cząsteczek.

„Zdecydowaliśmy się połączyć materiałoznawstwo, przetwarzanie w chmurze i SI, aby przyspieszyć odkrywanie tanich, wysokowydajnych materiałów i metod wychwytywania, oddzielania i przechowywania dwutlenku węgla. Wynikami prac dzielimy się ze światem. W końcu w badaniach współpraca jest naprawdę kluczowa” – mówi Mathias Steiner, jeden z badaczy. Co ważne, IBM udostępnia RoboRXN wszystkim zainteresowanym. To pierwsza bezpłatna usługa sieciowa do symulowania bardzo złożonych reakcji chemicznych.

Niedawno Steiner i jego zespół opracowali nowy, najlepszy w swojej klasie algorytm do wykrywania pustych mikroprzestrzeni w porowatych skałach, które naturalnie występują w formacjach geologicznych. Można w nich bezpiecznie przechowywać w postaci stałej lub ciekłej CO2 wychwycony z gazów spalinowych lub innych źródeł emisji. Wyniki te skracają czas analiz skał w z miesięcy do dni, jednocześnie obniżając ich koszty, zwiększając wydajność i zmniejszając ryzyko geologicznego składowania dwutlenku węgla. 

Podobnych przykładów jest więcej. Badacze z Uniwersytetu w Toronto i Uniwersytetu Carnegie Mellon stworzyli z udziałem SI metodę przekształcania odpadowego dwutlenku węgla w etylen – chemiczny prekursor szerokiej gamy produktów. Powstały elektrokatalizator jest najbardziej skuteczny w swojej klasie. W przypadku zasilania energią wiatrową lub słoneczną system zapewnia również skuteczny sposób magazynowania energii elektrycznej ze źródeł odnawialnych. 

 

 

Naukowcy z IBM stworzyli nowy system recyklingu tworzyw sztucznych o nazwie VolCat. Bazuje on na katalitycznym reaktorze chemicznym, który przekształca odpady PET w surowe tworzywo sztuczne za pomocą specjalnie skalibrowanej mieszanki chemikaliów, ciśnienia atmosferycznego i temperatury. VolCat potrafi przetwarzać na surowy proszek PET nawet nieumyte i znajdujące się wśród innych śmieci twarde tworzywa sztuczne z butelek i pojemników oraz produkty dotąd bardzo trudne do recyklingu, takie jak odzież poliestrowa, dywaniki i zabawki. W praktyce metoda VolCat eliminuje konieczność sortowania odpadów.

Natomiast naukowcy z Uniwersytetu w Houston opracowali metodę wytwarzania nowego rodzaju polimeru, który ułatwia mieszanie różnych tworzyw sztucznych podczas procesu recyklingu. Dziś jest to główna przeszkoda w wysiłkach związanych z zagospodarowaniem odpadów plastikowych. Nowo opracowany proces pozwoli na produkcję tworzyw sztucznych z olejów spożywczych, a nie z paliw kopalnych.

 

Wychwytywanie i składowanie dwutlenku węgla

Naukowcy już wiedzą, że aby w ciągu najbliższych 30 lat nie dopuścić do globalnego wzrostu temperatury ponad 1,5 stopnia Celsjusza, nie wystarczy ograniczyć nowych emisji gazów cieplarnianych. Ogólny konsensus naukowy jest taki, że trzeba także zacząć usuwać dwutlenek węgla z atmosfery. Taki proces jest dziś przedmiotem intensywnych badań rozwijanych na całym świecie. Zakłada on wychwytywanie CO2 w zakładach przemysłowych lub bezpośrednio z powietrza, a następnie jego kompresowanie i trwałe składowanie kilka kilometrów pod powierzchnią Ziemi.  Skuteczne rozwiązanie tego problemu nie byłoby możliwe bez użycia sztucznej inteligencji.

W Europie jeden z najważniejszych projektów CCS (carbon capture and sequestration) rozwija partnerstwo Northern Lights, stworzone przez rząd norweski, firmy energetyczne Equinor, Shell i Total oraz Microsoft.  Jednym z głównych wyzwań CCS jest możliwość skalowania tej technologii do poziomu aktualnych celów klimatycznych. Obecnie trwające i planowane projekty mogą sekwestrować łącznie ok. 40 megaton CO2 rocznie. Aby jednak realnie wesprzeć cel 1,5 stopnia, pojemność magazynowa projektów CCS musi wzrosnąć stukrotnie. Ten cel mobilizuje teraz czołowych światowych ekspertów do przyspieszenia badań, a Microsoft dostarcza im technologie cyfrowe, w tym chmurę i narzędzia SI. 

 

 

Z kolei badacze z MIT wyszkolili sieć neuronową wykorzystującą trzęsienia ziemi do szacowania fal o niskiej częstotliwości. Udowodnili, że dzięki temu można stworzyć mapę podziemnych struktur i miejsc do przechowywania dwutlenku węgla. Badacze dodają, że jest to także sposób na poszukiwanie nowych zasobów energii geotermalnej.

 

Cyfrowe rolnictwo

W ciągu najbliższych 5 lat powstanie cyfrowa mapa upraw rolnych na całym świecie – twierdzą naukowcy z IBM Reaserch. Jeśli będzie ona w demokratyczny sposób dostępna dla wszystkich zainteresowanych rolników, naukowców, producentów rolnych i dystrybutorów, wywoła rewolucję żywnościową. Ta wielka światowa sieć działająca na rzecz produkcji żywności mogłaby dzielić się doświadczeniem, odkryciami naukowymi, wynikami eksperymentów. Dzięki temu każde ogniwo łańcucha żywnościowego miałoby jednakowy dostęp do informacji i zasobów. Zdaniem autorów prognozy „to oznacza jedno: więcej jedzenia po niższych kosztach”.  

Jak to może wyglądać w mniejszej skali, pokazuje stworzony przez Microsoft Reaserch projekt LATTICE, który uszczegóławia wizję cyfrowej farmy rolnej. Zakłada on integrację rozwiązań IoT, przetwarzania danych i praktycznych analiz w celu optymalizacji upraw i osiągania wyższej wydajności. Dane zbierane są przez czujniki stacjonarne lub poruszające się po polu małe pojazdy autonomiczne, co w połączeniu ze zdjęciami z dronów i lepszymi prognozami pogody umożliwia m.in.  precyzyjne stosowanie suplementów glebowych, selektywne opryski czy wybór optymalnej pory zbiorów.

Jeśli rolnik korzysta z ogólnej trzydniowej prognozy i na tej podstawie podejmuje decyzje produkcyjne, jest często narażony na nagle zmiany parametrów pogodowych. Na przykład nieoczekiwany spadek temperatury poniżej zera może zniszczyć nawet 20 proc. plonów. W rozwiązaniu tego problemu pomaga DeepMC – inny projekt Microsoft. Tworzy on dokładne prognozy mikroklimatu dla stosunkowo niedużych regionów i podpowiada rolnikom, kiedy optymalnie stosować środki ochrony roślin. Rolnik oszczędza pieniądze i ogranicza negatywne skutki stosowania chemii. DeepMC przewiduje różne parametry mikroklimatu z ponad 90-proc. dokładnością i jest już wdrażany w wielu różnych regionach świata.

Idea cyfrowego rolnictwa zaczyna być stosowana w Polsce. Na przykład polska firma Digital Crops od kilku lat tworzy rozwiązania oraz sensory wspomagane SI, które ograniczają czynniki ryzyka w produkcji roślinnej. Jednak dopiero zastosowanie takich narzędzi w skali globalnej znacząco zwiększy ilość produkowanej żywności, poprawi jej jakość i zmniejszy rolniczą emisję gazów cieplarnianych.

 

**Machine Learning for Glacier Monitoring in the Hindu Kush Himalaya
***A pipeline for identification of bird and frog species in tropical soundscape recordings using a convolutional neural network
*** Architecting Datacenters for Sustainability: Greener Data Storage using Synthetic DNA
*****Illegal Wildlife Poaching Prediction and Patrol Planning Under Uncertainty with Field Test Evaluation

 

Łyżka dziegciu

Optymizm, a nawet zachwyt związany z wielkimi możliwościami sztucznej inteligencji w dziele ratowania klimatu Ziemi stopuje pewien uwierający fakt: SI sama w sobie przyczynia się do wzrostu emisji CO2.

W 2018 r. OpenAI – jedna z czołowych firm rozwijających SI opublikowała badanie pokazujące, że zasoby obliczeniowe wymagane do trenowania dużych modeli SI podwajają się co trzy-cztery miesiące. Rok później szeroko komentowane badanie  MIT wykazało, że zwłaszcza opracowywanie wielkoskalowych modeli przetwarzania języka naturalnego wiąże się z szokującym śladem węglowym. Przykładowo przetwarzanie i przechowywanie danych potrzebnych do pełnego wytrenowania dużego algorytmu emituje ok. 284 tony dwutlenku węgla. To mniej więcej pięć razy więcej niż wyemituje w swoim całym cyklu życia amerykański przeciętny samochód. Dziś szacuje się, że centra przetwarzania danych zużywają około 2 proc. światowych dostaw energii elektrycznej. Do 2030 r. ten wskaźnik może wzrosnąć do 8 -10 proc.

Nic dziwnego, że przez świat ekspercki przetacza się fala gorących dyskusji, czy warto w tej sytuacji rozwijać SI. Chodzi o ustalenie, czy z zaangażowania SI w walkę z klimatem Ziemia będzie miała korzyści netto. Mogłyby to z łatwością policzyć same algorytmy, ale brakuje do tego spójnej bazy danych, co zresztą generalnie przeszkadza SI w radykalnym rozprawieniu się z wyzwaniem klimatycznym.

Powoli badacze i inżynierowie dochodzą do konsensusu, że powstrzymywanie rozwoju SI nie jest ani uzasadnione, ani możliwe. Postulują zatem przyjęcie samoregulacji, np. powszechne publikowanie finansowych i energetycznych kosztów szkolenia modeli, co miałoby skłaniać twórców systemów SI do większej rozwagi na etapie prac badawczych.

W razie potrzeby dopuszczają wprowadzenie twardych regulacji ograniczających negatywne skutki klimatyczne rozwijania SI. Mogłaby to być na przykład certyfikacja podobna do tej stosowanej przy znakowaniu żywności ekologicznej. Organy nadzoru powinny narzucić kryteria, wedle których systemy SI byłyby uznawane za zielone, czyli neutralne dla klimatu lub czerwone, tworzące dlań zagrożenie. Taka przejrzystość powinna skłonić do samoograniczeń twórców SI, ale też ich klientów i akcjonariuszy, a opinii publicznej dać narzędzia społecznej kontroli.

Część badaczy uspokaja opinię publiczną, że SI sama pomoże ograniczyć zużycie potrzebnej jej energii. Jako przykład wskazują system SI opracowany przez firmę DeepMind, który zmniejsza zużycie energii w potężnych centrach danych Google o 40 proc.

Inne obawy związane z rozwojem „klimatycznej” SI dotyczą prywatności danych niezbędnych do budowania systemów redukujących ślad węglowy. Inteligentne liczniki w domach ujawniają przecież wzorce naszych zachowań, takie jak pory snu, wyjazdy do pracy czy na wakacje. Informacje te mają istotną wartość komercyjną. Ale tu środowisko jest zgodne – do przetwarzania w modelach SI powinny być wykorzystywane wyłącznie dane zanonimizowane.

 

 

Czas na decyzje polityków

Choć sztuczna inteligencja nie jest jeszcze specjalnie inteligentna, to potrafi już przetwarzać ogromne ilości danych. A klimat to bardzo złożony, wielowymiarowy system, w którym wewnętrzne powiązania i ich skutki są zbyt rozległe i niemożliwe do ogarnięcia przez człowieka.  Dzięki tej swojej mocy SI może bardziej wnikliwie analizować ekologiczne problemy lokalne i globalne oraz podpowiadać nam, jak je rozwiązywać.  

Kolejna korzyść z SI to optymalizacja wszelkich procesów związanych z energetyką, ciepłownictwem, energochłonną produkcją, transportem i wieloma innymi dziedzinami aktywności człowieka wpływającymi na klimat. Zastosowanie algorytmów SI prowadzi w tych przypadkach do zmniejszenia śladu węglowego na ogół bez dodatkowych i kosztownych inwestycji.

Trzecia, najbardziej innowacyjna rola SI w walce z zagrożeniami klimatycznymi, to jej udział w powstawaniu całkowicie nowych technologii, materiałów i rozwiązań technologicznych, dzięki którym można szybciej likwidować dotychczasowe szkody klimatyczne i zapobiegać powstawaniu nowych. 

W sumie sztuczna inteligencja ewidentnie wnosi zupełnie nową jakość do wysiłków ludzkości zmierzających do zastopowania i odwrócenia zagrożeń klimatycznych. Ale skoro już tyle może, dlaczego na tej drodze nie widać wyraźnego postępu? Przede wszystkim chodzi o skalę innowacji wywoływanych przez SI. Na razie mają one zbyt małe, lokalne znaczenie. Są wprawdzie w stanie wprowadzać zmiany przełomowe, ale punktowo i w oderwanie od siebie. To już całkiem liczne strumyki, które jednak nie łączą się jeszcze w rzeki, a tym bardziej nie wpadają do oceanów innowacji. A tylko w oceanicznej skali mogłyby realnie pomóc zagrożonej ludzkości.

Aby to zmienić, potrzebna jest współpraca międzynarodowa rządów, środowisk naukowych i biznesu tworzącego rozwiązania SI. To absolutnie kluczowy warunek. Obecny stan klimatu to wyzwanie globalne i dlatego potrzebne są globalnie zgromadzone środki finansowe, globalne dane, globalne regulacje SI i globalne inicjatywy naukowo-badawcze oraz projekty wdrożeniowe. Potrzebna jest też globalna koordynacja całej aktywności w tych obszarach.

Z tego punktu widzenia COP26 przynosi rozczarowanie. Wprawdzie wiele mówiono tam o transformacyjnej roli SI, ale przełożyło się to w sumie na kolejny apel o przyspieszenie rozwiązań klimatycznych opartych na sztucznej inteligencji. To niestety zdecydowanie za mało. Ile jeszcze trzeba katastrof pogodowych, żeby ludzkość sięgnęła po rozwiązania, które ma w zasięgu ręki?

 

 

Autor: Zbigniew Gajewski, partner THINKTANK, ekspert w zakresie wpływu nowych technologii na biznes i życie społeczne, autor raportów i analiz makroekonomicznych.



 

POWRÓT ↵

Begin typing your search term above and press enter to search. Press ESC to cancel.

Back To Top