Jak uniknąć zagrożeń ze strony AI

Opublikowano 02.04.2024

 

Na szczytach świata technologii i polityki trwa gorączkowa dyskusja, jak uchronić ludzkość przed potencjalnym zagrożeniem ze strony sztucznej inteligencji. Skłaniają do tego bezprecedensowe sukcesy modeli generatywnej AI, m.in. kolejnych wersji ChataGPT i rosnącej liczby podobnych systemów. Na razie pojawiają się one bez „żadnego trybu”, bo nikt dotąd nie zdołał wytyczyć im prawnych ram rozwoju.  

O tym, co trzeba zrobić, abyśmy jako ludzkość cieszyli się z rosnących możliwości udziału AI w rozwiązywaniu największych problemów naszego świata, a nie drżeli przed jej potencjalnie destrukcyjnymi zachowaniami dyskutowała w formule „okrągłego stołu” Grupa Doradców THINKTANK. W jej skład wchodzą eksperci z różnych dziedzin, w tym specjaliści od AI.  

Na początku listopada 2023 r. po raz pierwszy odbył się poświęcony bezpieczeństwu sztucznej inteligencji globalny szczyt w Bletchley Park w Wielkiej Brytanii. Zgromadził on przedstawicieli 28 państw oraz szefów ONZ, Komisji Europejskiej i OECD.  Końcowa deklaracja “potwierdziła potrzebę bezpiecznego rozwoju sztucznej inteligencji” i ostrzega świat przed “poważnymi, a nawet katastrofalnymi szkodami, celowymi lub niezamierzonymi, wynikającymi z najważniejszych możliwości najnowszych modeli AI”. Ale na pojawienie się choćby projektu globalnej regulacji AI trzeba będzie jeszcze długo poczekać.

Wcześniej na konieczność globalnego podejścia do AI wskazywał szczyt G7 w Hiroszimie w maju 2023 r., były też apele ONZ, OECD, Światowego Forum Ekonomicznego w Davos. Od kilku lat nad unijnym prawem dotyczącym bezpieczeństwa AI pracuje Komisja Europejska. Jej AI Act jest już prawie gotowy.

Chwała światowym liderom, że dostrzegają zagrożenie – podkreślali uczestnicy okrągłego stołu. Jednak wszystkie te działania są spóźnione o co najmniej kilka lat. Wyścig technologiczny wokół AI się nakręca i w praktyce wyprzedza wszystkie znane projekty regulacyjne. Świat powinien dziś tworzyć z góry zaprojektowaną jako bezpieczną AI, a nie zastanawiać się, jak dodać komponent bezpieczeństwa do już działających systemów. Istnieje wiele dowodów na to, że takie podejście nie działa, m.in. dlatego, że coraz częściej twórcy nowych modeli AI nie potrafią wytłumaczyć, a jaki sposób i w oparciu o jakie kryteria podejmują one „decyzje” czy wyciągają wnioski. Mimo to są coraz szerzej stosowane w ważnych dla ludzi obszarach, jak rekrutacja do pracy, udzielanie kredytów czy stawianie diagnoz z medycynie.

 

Problem czarnej skrzynki

Ta kwestia budziła największy niepokój uczestników dyskusji. Wszyscy oni byli zgodni, że bezpieczeństwo powinno być twardym wymogiem już na etapie planowania każdego projektu AI. Bo gdy dżin zostanie wypuszczony z butelki, nic go tam z powrotem nie zapędzi. Programiści powinni być zobowiązani do stwierdzenia z dużą pewnością, że ich systemy nie będą wykazywać szkodliwych zachowań i popierać swoje twierdzenia wiarygodnymi argumentami. W tym kierunku idzie wspomniany unijny AI Act. Za bezpieczeństwo systemów AI wprowadzanych do obrotu na terenie UE mają odpowiadać ich dostawcy.

Z drugiej strony poleganie na odpowiedzialności programistów to ryzykowna strategia – uważali niektórzy dyskutanci. Kilka miesięcy po uruchomieniu ChataGPT4 grupa dyrektorów ds. technologii i czołowych badaczy AI opublikowała głośny list otwarty, w którym wezwała do sześciomiesięcznej przerwy w szkoleniu systemów AI potężniejszych niż GPT-4. „Zaawansowana sztuczna inteligencja może oznaczać głęboką zmianę w historii życia na Ziemi i należy ją planować oraz zarządzać z odpowiednią starannością” – ostrzegali. Wśród autorów listu byli szefowie OpenAI, Google i innych firm gorączkowo pracujących nad rozwijaniem modeli generatywnej sztucznej inteligencji. W swoim liście postawili też niezwykle istotne pytania:

  • czy powinniśmy pozwolić maszynom zalewać nasze kanały informacyjne propagandą i nieprawdą? 
  • czy powinniśmy automatyzować wszystkie zadania, także te, które dają ludziom satysfakcję? 
  • czy powinniśmy rozwijać nieludzkie umysły, które w końcu mogą nas przewyższyć liczebnie, przechytrzyć i ostatecznie zastąpić? 

Słowem – twórcy najbardziej zaawansowanych wtedy systemów AI słusznie pytali, czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją? Godna podziwu przenikliwość i troska. Ale co się działo dalej? Czy którakolwiek z firm zatrzymała swoje prace rozwojowe? Wprost przeciwnie, wyścig między nimi przyspieszył. Ten przykład każe mieć ograniczone zaufanie do samych twórców technologii AI. Dlatego regulacjami sztucznej inteligencji muszą się zająć państwa – to istotny wniosek z dyskusji.

Jeden z ekspertów zauważył, że jakkolwiek daleko jeszcze do globalnych przepisów gwarantujących bezpieczeństwo AI, kwestia wyjaśnialności działania systemów AI jest już uwzględniona w polskim prawie bankowym. Art. 105a tego prawa stwierdza, że banki i inne instytucje finansowe „mogą w celu oceny zdolności kredytowej i analizy ryzyka kredytowego podejmować decyzje opierając się wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, danych osobowych – również stanowiących tajemnicę bankową – pod warunkiem zapewnienia osobie, której dotyczy decyzja podejmowana w sposób zautomatyzowany, prawa do otrzymania stosownych wyjaśnień co do podstaw podjętej decyzji, do uzyskania interwencji ludzkiej w celu podjęcia ponownej decyzji oraz do wyrażenia własnego stanowiska”. Zatem bank musi wytłumaczyć klientowi, dlaczego automat nieprawidłowo ocenił jego zdolność kredytową.

Problem jednak w tym, że bank może nie potrafić tego wyjaśnić. Zwłaszcza głębokie sieci neuronowe i algorytmy głębokiego uczenia tworzą tysiące i miliony nieliniowych relacji między wejściami i wyjściami. Ich złożoność utrudnia nawet twórcom wykrycie, które cechy lub interakcje doprowadziły do określonego wyniku. I dzieje się to nie tylko w systemach opartych na danych zawierających uprzedzenia czy błędy innego rodzaju, ale także posługujących się poprawnymi zbiorami danych.

 

Potrzebna społeczna kontrola

To właśnie stąd bierze się obecnie najwięcej obaw i poczucie zagrożenia niekontrolowanymi przez człowieka działaniami sztucznej inteligencji. Emocje te narastają, gdy mowa o tzw. Generalnej czy Ogólnej AI, czyli przewyższającej inteligencję człowieka. Zdaniem dyskutantów prace w tym kierunku powinny zostać zablokowane, dopóki problem nazwany „black box” oraz inne kwestie bezpieczeństwa AI nie zostaną rozwiązane.

Ale czy zwykłych użytkowników już działających lub przyszłych systemów AI ten problem obchodzi? Przecież większość z nas nie wie, co robi procesor graficzny w telefonie, a nawet skąd mamy prąd w gniazdku. Dopóki to wszystko działa, niewiele się nad tym zastanawiamy. Dlatego uczestnicy okrągłego stołu wyrazili obawę, czy powstanie dostatecznie silna presja społeczna na decydentów w sprawie zapewnienia bezpieczeństwa AI. I kto w takim razie ma sprawować społeczną kontrolę nad twórcami technologii, nad którą chcą zapanować przecież nie tylko globalne koncerny technologiczne, ale również rządy wielu krajów?

Już kilka lat temu Putin stwierdził, że ten kto zapanuje nad sztuczną inteligencją, będzie panował nad światem. I Rosja w cieniu wojny w Ukrainie rozwija własne systemy AI, o których świat wie niewiele. Rosyjski przywódca w grudniu ub. roku potwierdził, że jego kraj chce być liderem w „dziedzinie tworzenia niezawodnych i przejrzystych systemów sztucznej inteligencji, które są zarazem bezpieczne dla człowieka”. Tylko czy można wierzyć w takie deklaracje Putina?

 

Wyścig technologiczny przyspiesza

Firmy technologiczne projektujące systemy AI starają się dodać do nich zabezpieczenia przed nieuprawnionym użyciem. Większość głównych generatorów obrazów, na przykład najpopularniejszych Midjourney czy DAAL–E 3, zatrzyma użytkownika, który spróbuje wygenerować treści o charakterze jednoznacznie seksualnym lub chronionych prawem autorskim. Modele językowe grzecznie odmówią także, gdy poprosimy je o podanie sposobu na ominięcia CAPTCHA (prosty test potwierdzający, że użytkownik jest człowiekiem), napisanie wirusa komputerowego lub pomoc w planowaniu aktów terroryzmu. Ale uczestnicy okrągłego stołu zwrócili uwagę, że w odpowiedzi na te zabiegi powstał już cały chałupniczy przemysł porad, jak oszukać sztuczną inteligencję, aby zignorowała wprowadzone zabezpieczenia. To z kolei nakręca swoisty „wyścig zbrojeń”, bo programiści starają się zamknąć te luki, gdy tylko zostaną znalezione, a hakerzy znowu starają się je obejść.  

Jednym z powszechnie dyskutowanych sposobów na rozwijanie bezpiecznej AI jest udostępnianie przez twórców systemów wyników ich badań szerokiej społeczności programistów, czyli tzw. open source. To podejście, w którym właściciel praw autorskich do oprogramowania przyznaje użytkownikom możliwość jego badania, zmiany, rozpowszechniania i tworzenia produktów pochodnych. Miałoby to demokratyzować sztuczną inteligencję, ograniczyć władzę nad nią rządów i wielkich korporacji.  

O ile jednak ścieżka open source sprawdziła się w przypadku otwartego systemu operacyjnego Linuks i bardzo wielu innych rozwiązaniach informatycznych, przy AI okazuje się bardzo problematyczna – zauważyli dyskutanci. Jako przykład podali ogromne zamieszanie wokół OpenAI, najbardziej dziś znanej firmy, która stworzyła i rozwija ChataGPT i która już swoją nazwą akcentowała, że jej misją będzie rozwijanie otwartej sztucznej inteligencji dla dobra ludzkości. I rzeczywiście, w swojej niedługiej historii (działa od 2015 r.) firma udostępniła zainteresowanym sporo takich rozwiązań, m.in. Whisper, Spinning Up czy Jukebox.

Jednak w przypadku ChataGPT sprawa się skomplikowała. Aby uzyskać ogromne moce obliczeniowe potrzebne do rozwijania tego systemu, OpenAI weszła we współpracę z Microsoftem i utworzyła w tym celu komercyjną spółkę. I najbardziej istotne elementy tej technologii przestały być powszechnie dostępne, co zarzuca firmie m.in. jej współzałożyciel i były udziałowiec Elon Musk.

 

Druga strona medalu

Podejście open source z jednej strony służy bezpieczeństwu AI, ale jednocześnie ułatwia hakerom wykorzystywanie najnowszych rozwiązań w celach dalece sprzecznych z interesem społecznym. Generatywne modele sztucznej inteligencji wykorzystywane są bowiem do tworzenia i upowszechniania pornografii, deepfak’ów, ukierunkowanego nękania, manipulowania wyborcami, podszywania się i wielu innych działań sprzecznych z prawem i normami współżycia społecznego. To prawdziwa plaga, która w dodatku może być jeszcze groźniejsza w miarę rozwoju możliwości kolejnych generacji AI. 

Naukowcy zajmujący się sztuczną inteligencją są głęboko podzieleni co do tego, co z tym zrobić, ale wszyscy zgadzają się, że jest to rozmowa, której nie wolno unikać, bo modele sztucznej inteligencji stają się potężniejsze niemal z dnia na dzień. Obecnie w dyskusji wskazywane są trzy ścieżki zapobiegania niebezpieczeństwu. Jedną z nich jest trenowanie modeli AI, aby odmawiały realizacji zamówień aspołecznych. Druga to wspomniane wyżej tworzenie bezpośrednich filtrów danych wejściowych i wyjściowych modelu. Chodzi na przykład o to, aby model odrzucał wszystkie żądania, które wymieniają konkretną osobę (tak jak robi to DALL–E) lub wszystkie prompty, które używają języka o charakterze jednoznacznie seksualnym.

Najnowsze pomysły to włączanie fizycznych mechanizmów bezpieczeństwa bezpośrednio do chipów AI. Taką propozycje przedstawili naukowcy z Center for a New American Security. Ich zdaniem w ten sposób można by też udzielać i kontrolować licencje na użycie określonej mocy obliczeniowej tworzonej przez chipy AI.

Uczestnicy dyskusji byli zgodni, że zapobieganie zagrożeniom ze strony AI to wspólne zadanie. Rządy, przedsiębiorstwa, naukowcy i społeczeństwo obywatelskie muszą ze sobą współpracować, aby zapewnić, że AI będzie wykorzystywana w sposób bezpieczny, odpowiedzialny i etyczny.

 

.

 

W dyskusji uczestniczyli:

Michał Bonarowski, Marek Bosak, Zbigniew Derdziuk, Mirosław Grewiński, Tomasz Kulisiewicz, Alicja Moszyńska, Dominika Maison, Artur Negri, Zbigniew Popowski, Robert Reinfuss, Wojciech Szapiel, Jaroslaw Szulski, Andrzej Szumowski, Tomasz Zarycki

 

Zbigniew Gajewski, Redaktor Naczelny THINKTANK Review

 

 

POWRÓT ↵

 

Begin typing your search term above and press enter to search. Press ESC to cancel.

Back To Top