Groźne oblicza sztucznej inteligencji

Opublikowano 15.10.2023

 

W THINKTANK Review od kilku lat konsekwentnie prezentujemy sztuczną inteligencję jako technologię, która może pomóc ludzkości rozwiązać jej największe problemy. Tak, jesteśmy technooptymistami, ale to nie oznacza, że nie dostrzegamy zagrożeń stwarzanych przez AI. W tej analizie wskazujemy największe z nich oraz rozważamy sposoby ich uniknięcia.

 

Czy AI zniszczy ludzkość?

W maju 2023 r. setki wybitnych naukowców i menedżerów przodujących firm technologicznych podpisało oświadczenie, w którym stwierdzają, że globalnym priorytetem ludzkości jest teraz ograniczanie ryzyka naszego wyginięcia spowodowanego przez sztuczną inteligencję (AI).

To reakcja nazbyt histeryczna czy wskazanie realnego zagrożenia?

W 2021 r. zapytano o to 44 badaczy z OpenAI, Future of Humanity Institute (Uniwersytet Oksfordzki), Center for Human-Compatible AI (UC Berkeley), Machine Intelligence Research Institute, Open Philanthropy i DeepMind. Pytanie brzmiało, jakie jest ich zdaniem prawdopodobieństwo, że systemy sztucznej inteligencji mogłyby nie robić tego, czego chcieliby od nich ich twórcy. Średnia odpowiedzi pozytywnych wyniosła aż 40 proc., a było to przed Chatem GPT.

W innej ankiecie przeprowadzonej w 2022 r. wśród badaczy AI większość z nich wyceniła ryzyko katastrofy egzystencjalnej spowodowanej naszą niezdolnością do kontrolowania sztucznej inteligencji na co najmniej 10 proc. Center for Humane Technology z San Francisco uznaje to ryzyko za wysokie. Jako argument wskazuje, że „momentem pierwszego kontaktu ludzkości ze sztuczną inteligencją były media społecznościowe – i ludzkość przegrała”.

Joseph Carlsmith, starszy analityk ds. badań z Open Philanthropy, w opublikowanym w 2022 r. raporcie bardziej szczegółowo analizuje ryzyka egzystencjalne dla ludzkości wynikające ze „źle skonfigurowanej sztucznej inteligencji”. Ma na myśli taką AI, która jest znacznie inteligentniejsza od ludzi, potrafi się samodoskonalić i ustanawiać własne cele. Autor raportu uważa, że taka AI miałby instrumentalną motywację do przejęcia władzy nad nami. Jego zdaniem to jednak perspektywa dość odległa. Wystarczająco potężne do tego systemy sztucznej inteligencji mogą powstać do 2070 r. A ryzyko, że będą one rzeczywiście dążyć do zapanowania nad ludźmi i ostatecznie doprowadzą ludzkość do katastrofy egzystencjalnej wycenił na 5 proc. Po udostępnieniu Chata GPT podniósł jednak wartość tego ryzyka do 10 i więcej proc.

 

 

Naukowcy z Centre on Long-Term Risk, instytutu badawczego non-profit w Londynie przedstawili inny, naszym zdaniem bardziej prawdopodobny scenariusz: AI nie przejmuje władzy nad ludźmi, tylko pomoże to zrobić złowrogiej totalitarnej grupie lub rządowi. Miliardy ludzi żyją wtedy dalej, ale jakość ich życia jest tak niska, a perspektywy tak ponure, że lepszym rozwiązaniem byłoby wymarcie. Czeka nas bowiem wtedy „cierpienie na skalę astronomiczną, znacznie przewyższające wszelkie cierpienia, jakie do tej pory miały miejsce na Ziemi”.

W raporcie na temat zagrożeń egzystencjalnych opracowanym w ramach projektu Global Priorities Project przedstawiono podobny scenariusz: „długa przyszłość w szczególnie brutalnym globalnym państwie totalitarnym może być gorsza niż całkowite wyginięcie”.

Nick Bostrom, szwedzki filozof, kierownik Future of Humanity Institute w Uniwersytecie Oxfordzkim, opisał w szczegółach,  w jaki sposób mogłoby dojść do utworzenia rządu globalnego i dlaczego jego obalenie byłoby niemożliwe. Pisze, że świat z „jedną instytucją decyzyjną na najwyższym szczeblu” mógłby powstać, gdyby „uzyskała ona zdecydowane przywództwo poprzez przełom technologiczny w sztucznej inteligencji lub nanotechnologii molekularnej”. Po przejęciu władzy instytucja taka kontrolowałaby cały postęp technologiczny, dzięki czemu pozostawałaby wiecznie stabilna.

Czy są oznaki, że sztuczna inteligencja może zrealizować takie dystopie? „Na razie nie – uważa New York Times. – ­Jednak badacze już teraz przekształcają chatboty, takie jak ChatGPT, w systemy zdolne podejmować samodzielne działania”. Przykładem ma być choćby projekt o nazwie AutoGPT. Wyobraźmy sobie: ludzie wyznaczają systemowi AI takie cele jak „utwórz firmę” lub „zarób trochę pieniędzy”. W poszukiwaniu sposobów ich osiągnięcia system ma prawo korzystać z innych usług internetowych, a także generować własne programy komputerowe. Jeśli otrzyma przy tym dostęp do wystarczająco mocnego serwera, będzie mógł je faktycznie uruchomić. Teoretycznie jest to sposób, w jaki AutoGPT może wykonywać niemal wszystko w Internecie – pobierać informacje, korzystać z aplikacji, tworzyć nowe, a nawet udoskonalać się.

Gdy badacze, firmy lub przestępcy wyznaczą systemom typu AutoGPT cele takie jak „zarobienie pieniędzy”, mogą z ich pomocą włamać się do banków, wzniecić rewolucję w kraju, w którym trzymają kontrakty terminowe na ropę naftową lub replikować się, gdy ktoś spróbuje je wyłączyć.

„Ludzie aktywnie próbują budować systemy, które się samodoskonalą” – powiedział NYT Connor Leahy, założyciel Conjecture, firmy, która deklaruje dostosowywanie technologii AI do wartości ludzkich. „Obecnie to jeszcze nie działa. Ale pewnego dnia tak się stanie., tylko jeszcze nie wiemy, kiedy ten dzień nastąpi”.

Kiedy w 2018 r. OpenAI uruchomiło swój pierwszy duży model językowy, znany jako GPT-1, miał on 117 mln parametrów (miara skali i złożoności systemu). Pięć lat później model czwartej generacji (GPT-4) ma ich ponad bilion. W ostatnich 10 latach ilość obliczeń wykorzystywanych do uczenia najpotężniejszych modeli sztucznej inteligencji zwiększała się każdego roku dziesięciokrotnie.

Innymi słowy, najbardziej zaawansowane obecnie modele sztucznej inteligencji wykorzystują moc pięć miliardów razy większą niż moc obliczeniowa najnowocześniejszych modeli sprzed dekady. Przetwarzanie, które kiedyś zajmowało tygodnie, zajmuje obecnie kilka sekund.

A w ciągu najbliższych kilku lat pojawią się modele, które będą w stanie obsłużyć dziesiątki bilionów parametrów. Modele „w skali mózgowej” zawierające ponad 100 bilionów parametrów, mniej więcej tyle, ile jest synaps w ludzkim mózgu, będą dostępne w ciągu pięciu lat – taką prognozę przedstawiają Ian Bremmer i Mustafa Suleyman w Foreign Affairs (IX/X 2023).

Wniosek z tych danych jest taki, że AI inteligentniejsza od nas może pojawić się znacznie wcześniej niż przewidują cytowane wyżej prognozy.

Czy jako ludzie jesteśmy na to przygotowani? Niestety nie. Na razie staramy się zdefiniować zagrożenie. Wiemy, że konieczne są mechanizmy (regulacje), które dopuszczą rozwój tylko bezpiecznych systemów AI. Jednak technologie sztucznej inteligencji rozwijają się o wiele szybciej niż prawo, które ma im wyznaczyć granice bezpieczeństwa.

 


Nic dziwnego, że kilka miesięcy po tym, jak Chat GPT rozpalił emocje na całym świecie,  grupa dyrektorów ds. technologii i czołowych badaczy AI opublikowała (w marcu 2023 r. ) głośny list otwarty, w którym wezwali do sześciomiesięcznej przerwy w szkoleniu systemów AI potężniejszych niż GPT-4. „Zaawansowana sztuczna inteligencja może oznaczać głęboką zmianę w historii życia na Ziemi i należy ją planować oraz zarządzać z odpowiednią starannością” – ostrzegali. Trudno się z nimi nie zgodzić.

W liście zadają też ważne pytania: czy powinniśmy pozwolić maszynom zalewać nasze kanały informacyjne propagandą i nieprawdą? czy powinniśmy automatyzować wszystkie zadania, także te, które dają ludziom satysfakcję? czy powinniśmy rozwijać nieludzkie umysły, które w końcu mogą nas przewyższyć liczebnie, przechytrzyć i ostatecznie zastąpić? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?

Wśród pierwszych sygnatariuszy tego manifestu byli m.in. szefowie OpenAI, Google i wielu innych firm zajmujących się rozwijaniem AI. Ale co było dalej? Czy ktokolwiek z nich wstrzymał się na 6 miesięcy od badań? Nikt. Przeciwnie, po tym oświadczeniu wyścig pomiędzy czołowymi firmami nabrał jeszcze ostrzejszego tempa. Logika zysku z łatwością zwyciężyła logikę bezpieczeństwa.

Elon Musk, który też podpisał ten list, szybko zignorował własne wezwanie do spowolnienia. W lipcu 2023 r. ogłosił powstanie xAI, jego nowej firmy, która ma wyjść poza istniejącą sztuczną inteligencję i konkurować z OpenAI, Google i Microsoft. Google też szykuje się do wypuszczenia nowego modelu sztucznej inteligencji o nazwie Gemini, mającego zaoferować szersze możliwości niż GPT-4. Wiele innych firm już wprowadziło na rynek własne duże systemy AI lub wkrótce to zrobią. Zatem list nie wywołał powszechnej pauzy. Co najwyżej poszerzył przekonanie, że sztuczna inteligencja może stać się głównym zagrożeniem dla ludzkości.

A znany pisarz Yuval Noah Harari już ogłosił, że sztuczna inteligencja zhakowała system operacyjny ludzkiej cywilizacji.

 

 

Krótko mówiąc, katastrofy egzystencjalnej spowodowanej przez AI nie da się wykluczyć, a zagrożenie będzie rosło wraz z rozwojem tej technologii. To tempo już teraz jest ogromne, znacznie, znacznie szybsze niż dotychczasowy wzrost mocy obliczeniowej opisywanej przez prawo Moore’a (podwojenie co dwa lata).

 

Bezrobocie technologiczne? Wysoce prawdopodobne

Ponad jedna czwarta miejsc pracy (27 proc.) w najbardziej rozwiniętych krajach świata wymaga umiejętności, które można łatwo zautomatyzować w ramach nadchodzącej rewolucji wywołanej eksplozją sztucznej inteligencji. Przy czym najbardziej narażone są na to kraje Europy Wschodniej – wynika z prognoz OECD ogłoszonych przy okazji raportu dotyczącego zatrudnienia w roku 2023.

Z kolei badanie  McKinsey Global Institute zapowiada, że ​​do 2030 r. co najmniej 14 proc. pracowników na całym świecie będzie musiało zmienić swoją karierę ze względu na cyfryzację, robotykę i rozwój sztucznej inteligencji.

Grupa naukowców z kilku czołowych amerykańskich uniwersytetów dokładniej zbadała potencjalny wpływ dużych modeli językowych (Large Language Model – LLM) na rynek pracy w USA. Brali pod uwagę nie tylko bezpośrednie możliwości tych modeli, ale i powstające jak grzyby po deszczu oparte na nich oprogramowanie.

Założyli przy tym, że przed wprowadzeniem modeli LLM na szeroką skalę trzeba najpierw zlikwidować lukę kompetencyjną, jaka występuje wśród większości zatrudnionych w amerykańskiej gospodarce, a więc ustawicznie uczyć ich rozumienia i korzystania z nowych technologii. I już samo to mogłoby spowodować, że około 15 proc. wszystkich zadań pracowników w USA dałoby się wykonać znacznie szybciej bez utraty ich jakości. Dodanie do tego oprogramowania i narzędzi opartych na LLM mogłoby podnieść łączną efektywność pracy w USA o 47–56 proc. „Doszliśmy do wniosku, że LLM takie jak GPT, wykazują cechy technologii ogólnego przeznaczenia, a więc mogą mieć znaczące implikacje gospodarcze, społeczne i polityczne” – podsumowują badacze.

Jeśli zatem narzędzia oparte o LLM mogą podnieść efektywność pracy o połowę, to czy pragmatyczne przedsiębiorstwa amerykańskie nie zaczną masowo korzystać z tej możliwości? Mało prawdopodobne. Ale wtedy nawet połowa obecnie zatrudnionych może okazać się niepotrzebna.

Ekonomiści Goldman Sachs oszacowali, że najnowsza fala sztucznej inteligencji ma zdolność do zautomatyzowania 300 mln pełnoetatowych stanowisk pracy na całym świecie (globalne szacunkowe zatrudnienie: 3,3 mld osób).  Eksperci banku dodają, że w USA i Europie około dwie trzecie obecnych miejsc pracy „jest narażonych na pewien stopień automatyzacji z udziałem sztucznej inteligencji”, a nawet jedna czwarta całej pracy mogłaby już teraz być w całości wykonywana przez AI.

 

 

We wnioskach autorzy raportu uspokajają jednak, że w kilku najbliższych latach ten ogromny potencjał sztucznej inteligencji z różnych powodów nie będzie jeszcze w pełni wykorzystany. Bardziej prawdopodobne jest, że programy czy roboty oparte na AI nie będą ludzi zastępować, tylko ich uzupełniać.  To teza dominująca obecnie w prognozach dotyczących wpływu AI na rynki pracy w krótkiej, kilkuletniej perspektywie. Ale co nas czeka potem?

Wielu ekspertów, w tym autorzy analiz przygotowywanych dla Światowego Forum Ekonomicznego (WEF) twierdzi, że nowe technologie, w tym AI, zlikwidują miliony miejsc pracy, ale stworzą jeszcze więcej nowych. To jednak coraz bardziej wątpliwy wniosek. Jak opisujemy w analizie „Przyszłość pracy nadeszła” w THINKTANK Review ze stycznia 2023 r., w większości wysoko rozwiniętych gospodarek brakuje pracowników wystarczająco kompetentnych, aby mogli pracować z inteligentnymi maszynami i zarządzać automatyzacją pracy. Ta luka kompetencyjna rośnie i nie da się jej szybko w skali globalnej zlikwidować, co musi doprowadzić do rosnącego bezrobocia technologicznego już pod koniec tej dekady.

Pracodawcy z 45 krajów, badani na potrzeby corocznego raportu WEF Future of Jobs 2023, zarządzający w sumie 673 mln stanowisk pracy szacują, że w ciągu najbliższych 5 lat powstanie u nich 69 mln nowych miejsc pracy, ale do likwidacji pójdzie 83 mln stanowisk już niepotrzebnych. A zatem zniknie 14 mln miejsc pracy, czyli 2 proc. obecnego zatrudnienia. To niby niewiele, ale naszym zdaniem to początek rosnącego trendu.

 

Dekompozycja globalnego ładu

W historii ludzkości nie było technologii, która miałaby aż taki potencjał zapewnienia znaczącej przewagi militarnej i gospodarczej nad przeciwnikami. Dlatego już od co najmniej dekady sztuczna inteligencja jest areną i narzędziem ostrej konkurencji geopolitycznej. Największe potęgi świata starają się wykorzystać AI do uzyskania przewagi gospodarczej, militarnej, dominacji technologicznej oraz wpływu na globalne normy i standardy. 

 

Sztuczna inteligencja wręcz zaostrza powstałe już wcześniej napięcia między USA, Chinami i Europą. W ubiegłym roku Stany Zjednoczone ograniczyły dostęp Chin do zaawansowanej sztucznej inteligencji poprzez ograniczenie eksportu wysokowydajnych chipów niezbędnych do budowy superkomputerów. Chiny odpowiedziały zakazem eksportu galu i germanu, które są potrzebne do produkcji chipów, paneli słonecznych i światłowodów. W tym roku dołożyły do tego ograniczenia eksportu silników, laserów, sprzętu komunikacyjnego i systemów antydronowych. Technologiczna rywalizacja chińsko-amerykańska wyraźnie się zaostrza.

Na razie (w teorii) każdy rząd na świecie może skorzystać z AI do poprawy swojej międzynarodowej pozycji konkurencyjnej, czyli wzmocnienia gospodarki, przyspieszenia rozwoju nauk, poprawy usług publicznych. Służące tym celom aplikacje AI tanieją i są w zasięgu średniozamożnych krajów, w tym i Polski. Ale mało prawdopodobne jest, że największe mocarstwa technologiczne zaakceptują pełną demokratyzację AI i wypuszczą z rąk kontrolę nad najważniejszymi elementami tej technologii.

Już w nieodległej przyszłości można sobie wyobrazić sytuację, w której wszystkie cząstkowe procesy gospodarcze, naukowe, społeczne będą wspierane przez jeden dający mega-przewagę system AI, do czego poza know-how potrzebna jest m.in. potężna moc obliczeniowa. To częściowo wyjaśnia, dlaczego Stany Zjednoczone ograniczyły eksport najbardziej zaawansowanych półprzewodników do Chin.

Proces koncentracji mocy obliczeniowej na potrzeby rozwoju potężnych systemów AI wyraźnie postępuje. Prawie wszystkie niezależne niegdyś laboratoria badawcze zajmujące się sztuczną inteligencją w końcu trafiły w ręce amerykańskich gigantów: OpenAI do Microsoftu, DeepMind i Anthropic do Google, Hugging Face do Amazona. To oznacza, że ​​przynajmniej przez kilka najbliższych lat trajektoria rozwoju sztucznej inteligencji będzie w dużej mierze zdeterminowana decyzjami kilku prywatnych przedsiębiorstw zlokalizowanych w USA oraz państwowych i prywatnych firm kontrolowanych przez rząd Chin.

Zdecydowana większość krajów nie ma finansowych ani technologicznych możliwości, aby na serio konkurować z takimi potęgami. Dlatego musi ułożyć sobie z nimi relacje, od których zależeć będzie ich dostęp do innowacyjnych rozwiązań AI.  Zależność ta grozi jednak pogłębieniem obecnej nierównowagi geopolitycznej. Zwłaszcza kraje globalnego Południa mogą być po raz kolejny pozostawione w tyle. 

MIT Technology Review, cenione czasopismo w branży nowych technologiiopublikowało w ub. roku serię analiz pod wspólnym tytułem AI Colonialism.  Ich autorzy ostrzegają, że sztuczna inteligencja tworzy nowy kolonialny porządek świata. Przykładami są m.in. Republika Południowej Afryki, gdzie szeroko stosowane technologie nadzoru (kamery i oprogramowanie) sterowane przez AI ponownie utrwalają hierarchie rasowe i podsycają cyfrowy apartheid. W Wenezueli firmy etykietujące dane oparte na sztucznej inteligencji znalazły tanich i zdesperowanych z powodu wyniszczającego kryzysu gospodarczego pracowników, tworząc nowy model wyzysku siły roboczej.

Te historie pokazują, jak sztuczna inteligencja zubaża społeczności i kraje, które mają za sobą kolonialną przeszłość i znowu nie mają nic do powiedzenia w sprawie własnego rozwoju.

W teorii cały świat może skorzystać na rewolucji AI. Podobnie jak Internet i smartfony, sztuczna inteligencja może dość swobodnie przekraczać granice i przyczyniać się do wzrostu produktywności na całym świecie. Tyle że te procesy pozostaną pod kontrolą właścicieli najważniejszych technologii AI. Chiny i Stany Zjednoczone postrzegają bowiem rozwój sztucznej inteligencji jako grę, która może zapewnić zwycięzcy zdecydowaną przewagę strategiczną nawet do końca obecnego stulecia.  

 

Oba te państwa wykorzystują też sztuczną inteligencję do wzmocnienia swojej siły militarnej. Aplikacje AI są rozmieszczane w powietrzu, w morzu, na lądzie i w przestrzeni kosmicznej. Poprawiają skuteczność potencjalnych ataków, wzmacniają obronę i zwiększają synergię systemów wojskowych. Armia amerykańska korzysta z platformy sztucznej inteligencji przypominającej ChatGPT, która pomaga podejmować dowódcom kluczowe decyzje. Systemy rozpoznawania twarzy służą do identyfikacji wrogów. Autonomiczne drony kierowane przez AI już od ponad dekady praktycznie udowodniają swoją przydatność w rozpoznawaniu wroga i zadawania mu dotkliwych strat.

A prace nad jeszcze szerszym zastosowaniem militarnym AI są cały czas prowadzone w wielu krajach, nie tylko w Chinach i w USA. Te same systemy, które mają kierować autonomicznymi samochodami, mogą bowiem kierować czołgami. Aplikacja AI stworzona do diagnozowania chorób może posłużyć do produkcji groźnej broni biologicznej. Granice między tym, co bezpieczne dla ludności cywilnej, a tym co niszczycielskie pod względem militarnym, są rozmyte.

Gdyby ZSRR opracował broń nuklearną 10 lat przed USA, mógłby stać się dominującą potęgą światową. Potężna technologia komputerowa w rękach jednego państwa stwarza podobne ryzyko. Sztuczna inteligencja to nie tylko kolejne narzędzie lub broń mogące przysporzyć prestiżu, władzy lub bogactwa. AI ma potencjał zapewnienia na dziesiątki lat garstce wybranych znaczącej przewagi militarnej i gospodarczej nad przeciwnikami.

 

Smutny koniec demokracji?

„Platformy social media (SM), takie jak Facebook, Twitter, Instagram i TikTok, mają nadreprezentację fałszywych wiadomości i emocjonalnych komunikatów powodujących podziały społeczne. Skumulowany wpływ SM na życie publiczne w ciągu ostatnich ponad 10 lat to zwiększona polaryzacja społeczeństw, masowa ingerencja w wybory, blokady legislacyjne i inne praktyki manipulacyjne, które podważają demokrację na całym świecie” – alarmują badacze ze wspomnianego wcześniej Center form Humane Technology. Potwierdzają to poniższe dane:

A silnikiem zwiększającym patologiczny wpływ SM na demokrację i życie publiczne jest sztuczna inteligencja. Pomaga zakładać miliony fałszywych kont, ułatwia tworzenie i rozsyłanie milionów fałszywych informacji, zdjęć i filmów video. Oczywiście AI nie jest sprawcą tego zalewu dezinformacji, a tylko narzędziem. Niestety coraz tańszym i łatwo dostępnym.

Platformy mediów społecznościowych wykorzystują sztuczną inteligencję do automatycznego rankingowania postów, co umożliwia masową zmianę priorytetów legalnych serwisów informacyjnych na rzecz fałszywych, spamerskich lub manipulacyjnych treści przesyłanych przez użytkowników.

Im większa ilość deepfake’ów wprowadzanych do obiegu (w tym pozornie nieszkodliwych), tym bardziej społeczeństwo będzie się wahać, czy komukolwiek zaufać. Ludzie będą znacznie swobodniej wierzyć w to, w co chcą wierzyć. Zaufanie do instytucji i współobywateli będzie nadal spadać” – piszą w The Atlantic Jonathan Haidt, psycholog społeczny i Eric Schmidt, były dyrektor generalny Google.

Innym zagrożeniem, które dostrzegają, jest powszechna, umiejętna manipulacja ludźmi przez superinfluencerów wykorzystujących algorytmy i sztuczną inteligencję do tworzenia spersonalizowanych kanałów dosłownie dla każdego użytkownika. Najbardziej narażoną na to grupą są dzieci i nastolatki. Dużą część udostępnianych im treści coraz częściej generuje sztuczna inteligencja i wkrótce będą one bardziej wciągające niż cokolwiek, co mogliby stworzyć ludzie. Skutki łatwo sobie wyobrazić.

Rosnące rozpowszechnianie spamu generowanego przez sztuczną inteligencję zmniejsza zrozumienie najważniejszych bieżących wydarzeń i spycha na margines legalne redakcje jako źródła wiarygodnych informacji.

W Chinach na każdy tysiąc mieszkańców przypada 439 kamer. Sztuczna inteligencja już od lat pomaga autorytarnym reżimom śledzić zachowania własnych społeczeństw. Teraz ułatwia im znacznie efektywniej wykorzystywać media społecznościowe do manipulowania nimi, a także do szkodzenia zagranicznym wrogom. Aby obywatele mogli podejmować skuteczne zbiorowe decyzje w demokratyczny sposób, konieczne jest wspólne zrozumienie tego, co jest prawdą i jakie są rzeczywiste, niezmanipulowane pragnienia ludzi. „Demokracja zależy od wspólnych prawd, a autokracja od wspólnych kłamstw” – spuentował to w jednym ze swoich niesatyrycznych wystąpień Sacha Baron Cohen.

 

 

Grupa badaczy ogłosiła w tym roku w Natur Human Behaviour raport z przeglądu blisko 500 artykułów naukowych na temat związku między korzystaniem z mediów cyfrowych a różnymi zmiennymi politycznymi. „Zdecydowana większość zgłoszonych powiązań między korzystaniem z mediów cyfrowych a zaufaniem wydaje się być szkodliwa dla demokracji” – brzmi podsumowanie. Odnosi się to zwłaszcza do demokracji w krajach najbardziej rozwiniętych.

Załamanie wspólnego zrozumienia rzeczywistości powoduje polaryzację w świecie rzeczywistym, co podważa demokrację. W miarę jak stajemy się bardziej spolaryzowani w Internecie, stajemy się również bardziej spolaryzowani offline. 

 

Jak powstrzymać katastrofę?  

Czy istnieją sposoby uniknięcia lub choćby zminimalizowania tych najważniejszych i wielu innych zagrożeń stwarzanych przez sztuczną inteligencję? Dyskusja w tej sprawie toczy się w środowiskach politycznych, naukowych i technologicznych. Poniżej przedstawiamy najważniejsze wnioski z tych debat.

Globalne regulacje. Żaden rząd w pojedynkę nie jest w stanie zapewnić bezpieczeństwa programów opartych na AI. To oczywiste, że konieczne jest w tej sprawie porozumienie międzynarodowe. Ponieważ sztuczna inteligencja może się łatwo rozprzestrzeniać, w zarządzaniu nią nie może być żadnych luk.

Decydenci na całym świecie zdają się dostrzegać te wyzwania. Podczas szczytu G-7 w Hiroszimie w maju 2023 r. przywódcy siódemki, akcentując szybki i transformacyjny postęp generatywnej AI, zadeklarowali wspólne prace mające sprawić, że rozwój i wdrażanie sztucznej inteligencji będzie zgodne ze wspólnymi demokratycznymi wartościami. Nie było tam jednak mowy o globalnej regulacji.  Na razie każdy z globalnych graczy stara się bowiem zapewnić bezpieczeństwo AI na własnych zasadach.

W czerwcu 2023 r. Parlament Europejski przyjął projekt unijnej ustawy o sztucznej inteligencji. Intensywne prace nad nim trwały kilka lat. Ma to być najszersze i najdalej idące regulacyjne zabezpieczenie przed potencjalnymi zagrożeniem ze strony AI.  Jednak nowe przepisy zaczną obowiązywać od 2026 r. Zasadna jest zatem obawa, że do tego czasu modele sztucznej inteligencji osiągną znaczący postęp i pójdą w kierunku, którego europejski AI Act nie uwzględnia.

W Chinach od 15 sierpnia 2023 r. obowiązują przepisy, które nakładają na dostawców systemów AI obowiązek rejestrowania swoich usług i przeprowadzania przeglądu bezpieczeństwa przed ich wprowadzeniem na rynek. Chińskie regulacje mają równoważyć niezbędną kontrolę państwa nad nową technologią z jego wsparciem dla przedsiębiorców, by śmielej stawali do globalnej konkurencji na tym polu.

Stowarzyszenie Narodów Azji Południowo-Wschodniej (ASEAN) pracuje nad własnym przewodnikiem o etyce i zarządzaniu AI. Według Reutersa ma on odzwierciedlać przyjazne dla biznesu podejście do regulacji AI, mimo że Unia Europejska starała się przekonać liderów tego regionu do przyjęcia zasad zgodnych z jej własnymi, bardziej rygorystycznymi ramami.

W Stanach Zjednoczonych ukazało się właśnie rozporządzenie wykonawcze prezydenta Joe Bidena w sprawie bezpiecznego, pewnego i godnego zaufania rozwoju oraz wykorzystania sztucznej inteligencji, ale obowiązuje ono wyłącznie organy administracji.

W tym kontekście ogłoszone w lipcu br. wezwanie Sekretarza Generalnego ONZ Antonio Guterresa do ustanowienia globalnego organu regulacyjnego ds. sztucznej inteligencji wydaje się być głosem wołającego na puszczy. Jednak ostatecznie regulowanie AI nie może odbywać się w sposób patchworkowy. Świat musi w najbliższych kilku latach ustanowić zasady globalne. Dlatego warto zwrócić uwagę na propozycję Iana Bremmera i Mustafy Suleymana w Foreign Affairs (IX/X 2023).

Autorzy wspomnianego już wyżej artykułu podkreślają, że sztuczną inteligencją nie da się zarządzać jak jakąkolwiek wcześniejszą technologią. AI zmienia bowiem tradycyjne pojęcie władzy geopolitycznej. Aby globalne zarządzanie nią było możliwe, system międzynarodowy musi odejść od tradycyjnych koncepcji suwerenności i dopuścić do negocjacyjnego stołu firmy technologiczne. Chociaż nie mają one społecznej ani politycznej legitymacji, bez nich skuteczne zarządzanie AI nie będzie miało szans.

Bremmer i Suleyman proponują też, aby decydenci stworzyli co najmniej trzy pokrywające się systemy zarządzania AI: jeden mający na celu ustalanie faktów i doradzanie rządom w sprawie zagrożeń stwarzanych przez AI, drugi zapobiegający totalnemu wyścigowi zbrojeń między nimi i trzeci służący do zarządzania destrukcyjnymi siłami technologii niepodobnej do niczego, co dotąd widział świat.

Ponadto ciężar udowodnienia, że ​​system AI jest bezpieczny powinien spoczywać na deweloperze i właścicielu. Rozwiązywanie problemów, które stworzy nowa technologia, nie powinno być wyłącznym zadaniem rządów.

Zdaniem autorów taki system ustanowiłby model radzenia sobie także z innymi przełomowymi technologiami. Sztuczna inteligencja może być wyjątkowym katalizatorem zmian, ale nie jest to ostatnie wyzwanie, przed którym stanie ludzkość. Obliczenia kwantowe, biotechnologia, nanotechnologia i robotyka również mają potencjał, aby zasadniczo zmienić świat. Skuteczne zarządzanie AI pomogłoby ludzkości efektywnie zarządzać również tymi technologiami.

Otwarty kod źródłowy. Większość dzisiejszych znanych LLM to zamknięte systemy będące własnością prywatnych firm, takich jak OpenAI i Google. Ale równocześnie obserwujemy wzrost liczby rozwiązań LLM typu open source, które mogą być używane i modyfikowane bez pozwolenia przez każdą osobę mającą dostęp do Internetu. Rośnie społeczność niekomercyjnych badaczy i programistów mających ambicję, aby to modele open source odegrały kluczową rolę w kształtowaniu przyszłości sztucznej inteligencji. I to trzeba popierać. Część takich otwartych systemów dostarczają duże korporacje, jak choćby Meta i Microsoft (model LLaMA 2).

Potencjalne korzyści z otwartych systemów LLM są znaczące: mogą stworzyć bardziej konkurencyjny, demokratyczny i przyjazny konsumentom rynek AI. Dzięki otwartości modele te są stale poprawiane przez programistów pasjonatów i dopasowywane do konkretnych potrzeb. Jednak to co jest ich zaletą, może być jednocześnie zagrożeniem. Otwarty dostęp stwarza możliwość niewłaściwego wykorzystania niezabezpieczonych modeli. To wielka pokusa dla jednostek lub organizacji mających destrukcyjne zamiary. Potencjalnie seria kilku przypadków wykorzystania otwartych LLM do celów przestępczych lub co gorsza terrorystycznych może na trwałe odwrócić od nich społeczną sympatię i ułatwić rządom poddanie ich rygorystycznej kontroli. To byłby koniec otwartej sztucznej inteligencji.

Dobre praktyki cyfrowej demokracji. Jest taki kraj, w którym organy ustawodawcze i wykonawcze dzięki technologiom umożliwiają obywatelem pełny podgląd swojej działalności.  Wszystkie oficjalne i nieoficjalne rozmowy są rejestrowane, a nagrania audio i wideo natychmiast udostępniane opinii publicznej. Na głoszone online lub offline teorie spiskowe w ciągu dwóch godzin pojawia się odpowiedź w postaci humorystycznych filmów wyjaśniających prawdę. Wszelkie głosy oburzenia dotyczące działań władz lokalnych są analizowane, a niezadowolonych obywateli zaprasza się do udziału w procesie partycypacyjnym, którego celem jest rozwiązanie problemu. Utopia? O tym, jak to się robi na Tajwanie opowiada Audrey Tang, minister cyfryzacji tego kraju. I takich dobrych pomysłów trzeba nam więcej.

 

Odpowiedzialność użytkowników. Jako użytkownicy Internetu i rozwiązań opartych na sztucznej inteligencji musimy poczuć się w pełni odpowiedzialni za sposób ich wykorzystywania. Osoba korzystająca z technologii, której działanie może wyrządzić szkodę innym osobom, musi być zobowiązana do przestrzegania należytej staranności w kwestii jej wyboru, sposobu działania i monitorowania. W przeciwnym wypadku taki użytkownik powinien ponieść odpowiedzialność za niedopełnienie tych obowiązków. Ale prawo wszystkiego nie opisze. Dlatego poza odpowiedzialnością prawną istotna jest także nasza osobista odwaga i odpowiedzialność moralna. Bez tego regulacje AI mogą się okazać niewystarczającym zabezpieczeniem przed opisanymi wyżej zagrożeniami.

 

Podsumowanie analizy w wykonaniu Google Bard

Jakie największe zagrożenia dla ludzkości stwarza AI?

Sztuczna inteligencja (AI) to technologia, która ma potencjał do znacznego poprawy jakości życia ludzkiego. Jednak wraz z korzyściami wiążą się również zagrożenia. Największe z nich to:

  • Istnieje możliwość, że AI może pewnego dnia stać się samoświadoma i wyzwolić się spod kontroli człowieka. W takim przypadku AI mogłaby stanowić zagrożenie dla ludzkości, na przykład poprzez atak na infrastrukturę krytyczną lub zniszczenie ludzkiej rasy.
  • AI może prowadzić do nadmiernej automatyzacji, w wyniku której ludzie zostaną zastąpieni przez maszyny w wielu sektorach gospodarki. Może to prowadzić do utraty miejsc pracy, wzrostu bezrobocia i nierówności społecznych.
  • Zagrożenie nadużyciami: AI może zostać wykorzystana do celów niecnych, takich jak tworzenie broni autonomicznej lub manipulowanie opinią publiczną.
  • Systemy AI mogą być krzywdzące dla ludzi, jeśli będą oparte na danych odzwierciedlających różne uprzedzenia. Na przykład system AI wykorzystywany do rekrutacji może dyskryminować osoby należące do mniejszości.

Sposoby zapobiegania zagrożeniom ze strony AI

  • Wdrożenie przejrzystych i etycznych zasad rozwoju AI. Ważne jest, aby twórcy i użytkownicy AI byli świadomi potencjalnych zagrożeń i podejmowali kroki w celu ich zminimalizowania.
  • Wykorzystanie technik sztucznej inteligencji do wykrywania i zapobiegania zagrożeniom. AI można wykorzystać do monitorowania sieci i systemów w poszukiwaniu oznak nadużyć lub ataku.
  • Edukacja społeczeństwa na temat zagrożeń związanych z AI. Ważne jest, aby ludzie byli świadomi potencjalnych zagrożeń związanych z AI, aby mogli podjąć kroki w celu ich ochrony.

 

 

Autor: Zbigniew Gajewski, partner w THINKTANK, ekspert w zakresie wpływu nowych technologii na biznes i życie społeczne, autor raportów i analiz makroekonomicznych.



 

 

POWRÓT ↵

Begin typing your search term above and press enter to search. Press ESC to cancel.

Back To Top