Sztuczna inteligencja – regulować czy tolerować?

10.01.2024 | Review nr 49

Home 5 THINKTANK REVIEW 5 Review nr 49 5 Sztuczna inteligencja – regulować czy tolerować?

W Unii Europejskiej trwają finalne prace nad aktem w sprawie sztucznej inteligencji. Temat budzi jednak silne kontrowersje. W ramach VII Open Eyes Economy Summit odbyła się debata (zwana potyczką) „AI – regulować czy tolerować?”.   Spór w tej sprawie prowadzili dr Małgorzata Bonikowska, Prezes THINKTANK i Centrum Stosunków Międzynarodowych oraz dr Krzysztof Kluza z Akademii Górniczo-Hutniczej w Krakowie. Przedstawiamy skrócony zapis tego spotkania.

Krzysztof Kluza: Kiedy słyszę o konieczności regulacji sztucznej inteligencji, od razu przypomina mi się, jak wchodziło w życie RODO. Zanim załatwialiśmy jakąkolwiek sprawę przez Internet, dostawaliśmy maila w sprawie zarządzania naszymi danymi, potem komunikat przypominający i jeszcze jeden, i jeszcze jeden. Podobnie jest z cookies. Poza tym, że musimy kliknąć zgodę na przetwarzanie danych osobowych, to za każdym razem jesteśmy zmuszeni akceptować „ciasteczka”. Męczące są te regulacje.

Małgorzata Bonikowska: To może najlepiej nie czytać maili? Bo chyba najbezpieczniej byłoby zupełnie nie mieć do czynienia z nowymi technologiami. Tylko że to jest utopia. Dlatego lepiej słuchać ekspertów, w tym twórców AI, jak choćby Sama Altmana, który namawia do regulowania sztucznej inteligencji. Ostrzega nas, żebyśmy nie przespali właściwego momentu do zapanowania nad tą nową technologią, tak jak przespaliśmy okazję do uregulowania Internetu. Teraz silną, dominującą pozycję mają w nim wszechmocne big techy, a my mamy kłopot, żeby wyznaczyć im ramy działania. Sztuczna inteligencja wciąż jest jeszcze na takim etapie, że możemy nie dopuścić do jej niekontrolowanego rozwoju. Jeśli to zaniedbamy, będziemy tego bardzo, bardzo gorzko kiedyś żałować.

Krzysztof Kluza: Problem w tym, że Sam Altman, Elon Mask i inni liderzy AI podpisali apel o wstrzymanie rozwoju LLM na 6 miesięcy, po czym sami się rzucili do przyspieszania prac badawczych.

Małgorzata Bonikowska: Ale może wcale nie trzeba niczego wstrzymywać. Regulacje nie są złe same w sobie. Będą złe, jeśli zostaną źle zrobione.

Krzysztof Kluza: Najczęściej jest tak, że tworzący przepisy kierują się dobrymi intencjami, ale nie są w stanie przewidzieć, jak to odbiorą zainteresowani i jak będą nowe regulacje stosować. Bardzo często teoria i praktyka do siebie nie przystają.

Małgorzata Bonikowska: Regulacje mają sens wtedy, kiedy mamy jasno zakreślone pola gry. Źle pomyślane regulacje rzeczywiście tylko psują krew. W przypadku AI starajmy się przewidzieć, w jakim kierunku ona zmierza, jakie katastrofy może na nas sprowadzić. Zastanówmy się głęboko, czy chcemy, żeby AI samodzielnie podejmowała za nas różne decyzje. Na przykład kto i za co ma trafiać do więzienia? Albo czy chcielibyśmy być operowani przez sztuczną inteligencję? Czy jesteśmy gotowi powierzyć tak ważne kwestie algorytmom? Ja bym wolała, aby na ostatnim etapie każdego takiego procesu kluczowe decyzje podejmował człowiek. Niech AI z nim współpracuje, niech mu przygotuje wszystkie dane, przesłanki i propozycje. To jest właśnie jedna z najważniejszych kwestii do uregulowania.

 width=


Krzysztof Kluza
: Akurat w medycynie złożoność materii jest bardzo duża. Zakres wyboru terapii w każdym przypadku jest bardzo szeroki. To z tego powodu na całym świecie wytacza się tyle spraw sądowych za błędy medyczne. Może i algorytmy mogłyby pomóc lekarzom podejmować lepsze decyzje, ale w tym celu musiałyby się uczyć stawiania diagnoz bez krępujących ten proces gorsetów prawnych.

Małgorzata Bonikowska: Ale przecież regulacje nie wstrzymują badań i rozwoju algorytmów. Z powodu narzucenia kierowcom rygorystycznych przepisów drogowych samochody nie przestały być produkowane. Musieliśmy natomiast nauczyć się twardych reguł, jak ich bezpiecznie używać na drogach. To samo musimy zrobić ze sztuczną inteligencją. Z jednej strony AI jest we wstępnej fazie rozwoju, a z drugiej obserwujemy jej błyskawiczny postęp. To jest ostatni moment, żeby ustalić reguły gry dla tej, zgadzam się, bardzo obiecującej technologii.

Krzysztof Kluza: Przepisy o ruchu drogowym powstały, kiedy już rynek samochodowy był dobrze rozwinięty. Nie wymyślano kodeksów na zapas. Podobnie zresztą było z ruchem lotniczym. Zaawansowane regulacje wprowadzono, gdy liczba samolotów pasażerskich przekroczyła poziom mogący stworzyć realne zagrożenia.

Małgorzata Bonikowska: Pamiętajmy, że za błyskawicznym rozwojem sztucznej inteligencji stoją wielcy gracze międzynarodowi, którym zależy na jak najszybszym jej monetyzowaniu. Mamy już z nimi doświadczenie na rynku cyfrowym UE. Oni zwyczajnie przeciwstawiają się próbom podporządkowania ich działalności powszechnym regułom obrotu gospodarczego.  Podobnie mogą się zachowywać w przypadku AI, dlatego lepiej działać wyprzedzająco. Nie możemy się zgadzać na wprowadzanie w nasze życie potężnej i potencjalnie bardzo niebezpiecznej technologii tylko po to, by przyniosła ona zyski firmom, które ją rozwijają. Interes społeczny, czyli całkowite bezpieczeństwo AI, musi być niekwestionowanym priorytetem. To zresztą symptomatyczne, że przed niebezpieczeństwami ze strony AI ostrzega nas Sam Altman, dyrektor generalny OpenAI, czyli firmy, która jako pierwsza udostępniła ludzkości model generatywnej sztucznej inteligencji.

Krzysztof Kluza: Niektóre media podają, że zamieszanie wokół Sama Altmana jako dyrektora generalnego OpenAI w połowie listopada 2023 r. było spowodowane właśnie tym, że chciał on za bardzo monetyzować Chata GPT.

Małgorzata Bonikowska: Pewnie nigdy się nie dowiemy, o co dokładne chodziło w tym konflikcie, ale jedno jest pewne: między ludźmi, którzy tworzą nowe technologie AI występują ogromne napięcia. Najwyraźniej rozwój sztucznej inteligencji przyspiesza i ujawnia jej nowe kontrowersyjne możliwości oraz kierunki rozwoju. To powinien być dla nas dzwonek alarmowy.

Krzysztof Kluza: Chyba za wcześnie mówić, w którą stronę rozwinie się AI i co jest na końcu jej drogi rozwoju. Na razie trwa dyskusja i jestem za tym, aby jej niczym nie krępować. Niech będzie jak najbardziej otwarta. Tylko że tej otwartości nie będą sprzyjać regulacje. Mogą spowodować blokadę niektórych ważnych pytań. Mamy przykład w genetyce: w UE ustanowiono regulacje zakazujące niektórych modyfikacji genetycznych, jednak w innych miejscach świata są one badane i rozwijane. Może się okazać, że Europejczycy nie będą mieli dostępu do ważnych odkryć w tej dziedzinie.

Małgorzata Bonikowska: No właśnie, to dobry przykład. W Unii rzeczywiście nie wolno „produkować” ludzkich klonów, nie można majstrować przy DNA, bo to wszystko jest zbyt niebezpieczne, choć potencjalnie może też przynieść znaczący postęp w medycynie.  Świadomie stawiamy jednak tamę badaniom mogącym sztucznie zmieniać genotyp człowieka, bo wiemy, jak może to być groźne dla ludzkości. A w dziedzinie sztucznej inteligencji, która również może zmienić ludzkość, żadnych tam na razie nie ma. Wszystko wolno. I ja sądzę, że tu też powinniśmy zachować ostrożność, tak jak w genetyce.

Krzysztof Kluza: Z powodu nadmiernej ostrożności pozbawiamy się jednak odkryć technologicznych, które mogłyby usprawnić nasze życie czy przyczynić się do pełnego zrozumienia natury Wszechświata.

Małgorzata Bonikowska: A nie lepiej byłoby narzucić badaczom warunki, które muszą spełnić, by wyniki ich badań nie sprowadziły na ludzkość jakiegoś nieszczęścia? Czy chcemy mieć za 20-30 lat humanoidalne roboty, których nie możemy odróżnić od ludzi?

Krzysztof Kluza: Jeśli zakażemy badań w tym kierunku, to żadne humanoidy rzeczywiście nie powstaną. Unikniemy jednak nie tylko niebezpieczeństw, ale i prawdopodobnie ogromnych korzyści, które mogłaby mieć z tego ludzkość.

Małgorzata Bonikowska: Ale ja pytam, po co? Do czego potrzebne są nam humanoidy? Czy na pewno chcemy w tę stronę doskonalić technologię?

Krzysztof Kluza: To zapytajmy także, po co nam samochody? Po co nam lepsze samochody? Dlaczego idziemy w kierunku autonomicznych samochodów?

Małgorzata Bonikowska: Właśnie, czy nie moglibyśmy się obejść bez autonomicznych aut?

Krzysztof Kluza: Pojazdy autonomiczne będą o wiele bardziej bezpieczne od kierowanych przez ludzi. Czy to nie przesądzający argument?

Małgorzata Bonikowska: Nie wkładajmy wszystkiego do jednego worka. Dobrze, rozwijajmy pojazdy autonomiczne, jeśli będą całkowicie dla nas bezpieczne. Ale czy musimy stworzyć humanoidy? Czy już wszechobecne czatboty nie wprowadzają nas w błąd i konsternację?

Krzysztof Kluza: Nowe technologie zawsze budziły kontrowersje. Pierwsze maszyny parowe były nawet fizycznie niszczone. Ale w końcu okazywało się, że ludzkość na nich zyskała. Tak samo może być z humanoidami. Nie tylko ja dostrzegam ich wielki potencjał jako towarzyszy i pomocników osób starszych i samotnych, których na całym świecie jest coraz więcej.

Małgorzata Bonikowska: Zdecydowanie się z taką wizją nie zgadzam. Ludziom samotnym potrzebni są inni ludzie, a nie roboty. Musimy przeprogramować naszą cywilizację w kierunku stworzenia systemowej, godnej opieki nad osobami starszymi, a nie wyręczać się robotami. Maszyna niech mi zmierzy ciśnienie i ewentualnie zaaplikuje lekarstwo, ale rozmawiać i utrzymywać społeczne relacje wolę ze swoim wnukiem i z przyjaciółmi. I ta moja maszyna niech pozostanie maszyną, a nie udaje człowieka.

Krzysztof Kluza: Nie musisz do prania używać pralki, możesz prać ręcznie. Tak samo nie musisz mieć w domu humanoidalnego robota. Ale nie zabraniaj tego innym. Doświadczenia m.in. z Japonii wskazują, że wyspecjalizowane roboty są w stanie ulżyć w samotności wielu osobom.   

Małgorzata Bonikowska: Nie jestem przeciwniczką postępu technologicznego. Tylko uważam, że trzeba trochę stymulować kierunki jego rozwoju. Nie wszystko, co ludzkość wymyśliła na różnych etapach swojej historii jest dobre. Niektóre wynalazki i technologie eliminuje rynek. Przykładem są pasażerskie samoloty ponaddźwiękowe. Weszły do użytku, ale okazały się za drogie i z nich zrezygnowano. Produkty wykorzystujące sztuczną inteligencję też można byłoby zostawić wolnemu rynkowi. Niechby konsumenci zdecydowali, jakie rozwiązania im pasują. Tylko że już dziś wiemy, iż AI to technologia, która rodzi poważne niebezpieczeństwa, wręcz ryzyka egzystencjalne, o czym ostrzegają nas sami jej twórcy.  Dlatego jej rozwój musi być poddany kontroli.

Krzysztof Kluza: Tylko że do takiej kontroli zmierza wyłącznie świat zachodni: Unia Europejska, Stany Zjednoczone, Kanada, Australia. Nic nie wskazuje na to, że chcą tego także kraje azjatyckie. Chiny w tej sprawie co prawda składają różne deklarują, ale wiemy, że w praktyce zrobią to, co dla nich korzystne. W efekcie Azja może wygrać najważniejszy być może dla przyszłości świata wyścig technologiczny.

Małgorzata Bonikowska: Dlatego potrzebne są regulacje o zasięgu globalnym. Unia Europejska ma taki soft power, że jest w stanie przekonać świat do swojej koncepcji regulacji AI, których projekt jest już na końcowym etapie uzgodnień. Dobrym przykładem są certyfikaty covidowe. To UE wypracowała standard, który Światowa Organizacja Zdrowia przyjęła jako międzynarodowy, a to umożliwiło nam podróżowanie po całym świecie.

Krzysztof Kluza: Ale ten certyfikat powstał w następstwie pandemii COVID-19, a nie przed nią. W sprawie AI też najpierw poobserwujmy, co się dzieje, w jakich kierunkach to idzie i dopiero wtedy wprowadźmy regulacje.

Małgorzata Bonikowska: Wyprzedzające regulacje muszą być dobrze przemyślane. Nie chcemy, żeby były one pochopnie i żeby ich było za dużo. COVID-19 nas zaskoczył. Ale zdobyte w tej pandemii doświadczenie skłania obecnie świat do znacznie lepszego niż wcześniej przygotowania się do ewentualnej kolejnej katastrofy epidemiologicznej. Wyciągnijmy z tego wnioski i zastosujmy je w sprawie AI. Bądźmy mądrzy, zanim się coś wydarzy.

Krzysztof Kluza: Czy Twoim zdaniem w ramach zabezpieczania się na przyszłość powinniśmy regulować kwestie UFO, teleportacji, podróży do innych galaktyk? To też mogą być przecież technologie przyszłości.

Małgorzata Bonikowska: Nie, moim zdaniem powinniśmy regulować tylko to, co jest realnie przed nami. Czyli sztuczną inteligencję.

Krzysztof Kluza: Jeszcze kilka lat temu nikt nie wiedział, że wkrótce będziemy rozmawiać z czatami jak z ludźmi. Kiedy to się stało, wszyscy zrozumieli, jakie to może mieć negatywne konsekwencje. W efekcie wprowadzane są przepisy nakazujące chatom napędzanym AI informowanie człowieka, iż są wytworami technologii. To jest przykład regulacji wprowadzanej już po tym, jak potencjalnie niebezpieczne rozwiązanie zaczęło działać i zrozumieliśmy, że niesie ono nie tylko korzyści, ale i zagrożenia. Gdyby ktoś spróbował stworzyć takie przepisy wcześniej, prawdopodobnie nie przewidziałby wszystkich aspektów tej technologii, bo rozwija się ona bardzo szybko.

 width=

Małgorzata Bonikowska: To jest właśnie argument, żeby działać wyprzedzająco, tyle że z wielką wyobraźnią. Trzeba też uwzględnić złożoność procesów legislacyjnych w Unii Europejskiej. Przygotowanie nowej dyrektywy i jej wdrożenie zajmuje 3-5 lat, a prace nad AI Act trwają już od ponad 5 lat. Zatem trzeba wybiegać wyobraźnią na 5 lat do przodu, a w razie potrzeby szybko korygować ustanowione prawo.

Krzysztof Kluza: Zasadniczo zgadzamy się ze sobą, że regulacje AI są potrzebne. Różnimy się tylko co do momentu ich wprowadzania. Ja uważam, że przedwczesne regulowanie sztucznej inteligencji może przyhamować jej rozwój i pozbawić ludzkość wielu możliwości i niespotykanych dotąd korzyści. Przy każdej nowej technologii występowały jakieś ryzyka, ale ostatecznie zostały one ograniczone do minimum.

Małgorzata Bonikowska: Dla mnie sztuczna inteligencja jest jak samochód, nóż, młotek czy wspomniana pralka – narzędziem w rękach człowieka. Ja nie wchodzę w ludzkie relacje z narzędziami. Używam ich instrumentalnie. Wiem, że niektóre z nich mogą czynić szkody, ale jak dotąd żadne z nich nie zrobiło nikomu krzywdy. Bo to ode mnie zależy, jak ich używam. Chcę, aby AI pozostała narzędziem. Prawdopodobnie najdoskonalszym w dziejach, ale tylko narzędziem. Dlatego upieram się, że prewencyjne regulacje AI są konieczne.

 

 

Oprac. Zbigniew Gajewski, partner w THINKTANK

 

 

 width=

Oprac. Na podst. Komunikatu prasowego Komisji Europejskiej z 9 grudnia 2023