CZY REGULACJA SZTUCZNEJ INTELIGENCJI
POMOŻE W JEJ ROZWOJU?

 

Komisja Europejska przedstawiła w kwietniu 2021 r. projekt rozporządzenia w sprawie zasad używania sztucznej inteligencji w Unii Europejskiej. To pierwszy taki zbiór norm na świecie, z uwagą obserwowany w USA i zapewne w Chinach. Ale czy ta regulacja pomoże Europie dogonić poziom rozwoju SI w tych państwach?

 

Komisja Europejska (KE) chce, aby rozwiązania oparte na sztucznej inteligencji wdrażane i sprzedawane w Europie były bezpieczne, kontrolowalne, weryfikowalne i spełniały standardy zdefiniowane w projekcie rozporządzenia. Chce chronić humanitarną twarz Europy. Chce zabezpieczyć obywateli Unii przed ewentualnymi skutkami stosowania sztucznej inteligencji w sposób złośliwy. To są bardzo szczytne cele i również się pod nimi podpisuję.

Tak, regulacje dotyczące użytkowania sztucznej inteligencji (SI) są nam bezwzględnie potrzebne. Tylko czy prawo kiedykolwiek dotąd wsparło rozwój nowej dziedziny technologi? Nie znam takiego przykładu. Od lat w szeroko rozumianym biznesie regulacje ledwo nadążają za nowymi rozwiązaniami, trendami, pomysłami. Spójrzmy na działalność firm typu Uber, rozwój kryptowalut lub chociażby elektryczne hulajnogi na naszych ulicach. Najpierw pojawia się nowy model biznesowy, produkt czy usługa, a dopiero potem mamy próbę jego uregulowania.

Europa jest liderem, jeśli chodzi o regulację danych osobowych. Ale czy my, obywatele Unii, możemy być spokojni, że nasze dane osobowe są w pełni bezpieczne? Mam wątpliwości. Na pewno mamy za to najbardziej utrudnione korzystanie z sieci przez konieczność akceptowania wszystkich zgód.

Projekt regulacji sztucznej inteligencji przedstawiony przez Komisję Europejską jest moim zdaniem zbyt szczegółowy. Już sama definicja, czym jest SI, próbuje objąć swoim zakresem wszystko, co się da. To znaczy, że czekają nas długie i złożone dyskusje, co podlega tej definicji, a co nie. A świat nie stoi w miejscu, obawiam się, że zanim skończą się te dyskusje, zmieni się przedmiot definicji.

 

Dziesięć przykazań SI

Zazwyczaj w tego rodzaju regulacjach są dwie drogi wyboru. Jedna to próba uszczegółowienia i opisania wszystkich możliwych przypadków zagadnienia, druga to zasady kierunkowe. Mam wrażenie, że KE idzie właśnie w tę pierwszą stronę. Obawiam się jednak, że to niezbyt dobry wybór. Dużo lepiej byłoby opracować dziesięć przykazań sztucznej inteligencji, ogólnych zasad ukierunkowanych na to, żeby SI nie była stosowana w niezgodzie z prawami człowieka, nie szkodziła ludziom, nie była wykorzystywana do celów przestępczych. Nie da się bowiem z góry przewidzieć wszystkich możliwych odmian SI i przypadków jej użycia, bo to jest i długo będzie bardzo rozwojowa technologia.

Nie byłoby też dobrze, gdyby obywatel UE chcący skorzystać ze swojej osobistej SI w smartfonie musiał najpierw zaakceptować kilka ekranów z napisami, że rozumie ryzyka wynikające z korzystania z niej, że jego dane są przetwarzane przez alogarytmy maszynowe itd. Nie umiem sobie tego wyobrazić, ponieważ algorytmów i urządzeń z nich korzystających już teraz mamy bardzo dużo. Pewnie w wielu domach w Polsce są już automatyczne odkurzacze i inne inteligentne sprzęty, telewizory, czy telefony, których działanie już w tej chwili wspiera SI. A przecież będzie ich jeszcze więcej. Nie zakładam, że intencją KE jest utrudnianie korzystania z SI, ale nie było też intencją Komisji utrudnianie nam życia przez RODO, a mimo to tak się stało. Dlatego boję się podobnych wykrzywień implementacyjnych w przypadku SI.

Nie powinniśmy ulegać mitowi, że sztuczna inteligencja będzie żyła własnym życiem. Opartym na niej rozwiązaniom będzie potrzebne silne zarządzanie i kontrola ludzi. Przetestowanie wszystkiego przed wprowadzeniem na rynek jest wyjątkowo trudne. Trzeba będzie reagować na to, co się wydarzy już w działaniu. A do tego musimy mieć wysoko wykwalifikowanych, bardzo odpowiedzialnych specjalistów. Trzeba ich też zachęcać, aby byli otwarci na samoregulację i ustanawiali własne zasady etyczne oraz je egzekwowali, bo długo jeszcze nie będziemy mogli całkowicie zaufać sztucznej inteligencji stosowanej w praktyce. Potrzebujemy czegoś podobnego do przysięgi Hipokratesa dla twórców rozwiązań opartych na SI.

Niezależnie od rodzaju regulacji burzliwy rozwój SI wymaga też szerokiej edukacji wśród przyszłych użytkowników, których niewiedza w tej dziedzinie może drogo kosztować i ich, i społeczeństwo.

 

Social scoring

Kiedy mówimy o używaniu SI do oceny ludzi w różnych sytuacjach społecznych, to kojarzą nam się przede wszystkim działania rządu chińskiego i z punktu widzenia naszych wartości nie jest to skojarzenie pozytywne. KE uznaje tego rodzaju technologie za stanowiące wysokie ryzyko i podlegające poważnym ograniczeniom. Ale social scoring jest już i u nas. Jeśli firma pożyczkowa wymaga od klienta przed udzieleniem mu pożyczki zainstalowania w telefonie aplikacji, która pobiera kilkadziesiąt informacji na jego temat i na tej podstawie decyduje, czy pożyczy mu pieniądze i na jakich warunkach, to czy to nie jest social scoring? Czy algorytmiczne ocenianie kierowcy w firmie taksówkowej na podstawie opinii pasażerów, tras jazdy, prędkości, czasu reakcji na zgłoszenia itd. – też nie jest social scoringiem?

Tego typu rozwiązania będą się pojawiały coraz częściej. Są oparte na algorytmach i dlatego można je w sposób algorytmiczny zafałszować. Zobaczmy co się dzieje z ocenami niektórych firm w wyszukiwarce Google, kiedy dotykają ich zmasowane ataki tylko po to, aby ten scoring zmodyfikować. Moim zdaniem będzie bardzo trudno zrobić pod wszystkie takie przypadki dobrą regulację. Boję się scenariusza, jaki obserwowaliśmy przy wdrożeniu RODO, kiedy część podmiotów podchodziła do tych przepisów z nadmierną asekuracją, zatrudniała zewnętrzne kancelarie czy konsultantów i wytwarzała tony regulaminów oraz instrukcji, bo obawiała się wysokich kar przewidzianych w dyrektywie.

Sztuczna inteligencja jest technologią, która jest bardzo pożyteczna, ale często bywa sztuczną głupotą. Niejedno rozwiązanie dostaje złe dane na wejściu albo sam algorytm źle skonfigurowano i mamy wyniki niezgodne z założonym celem albo nafaszerowane różnymi uprzedzeniami – widzieliśmy już głośne przykłady sytuacji, gdy SI kierowała się tymi samymi uprzedzeniami, np. dotyczącymi rasy, co ludzie, którzy wcześniej podejmowali decyzje w danym temacie. Czy uda się bezdyskusyjnie ustalić, kto za to odpowiada? Twórca algorytmu, który powie, że skorzystał ze standardowej biblioteki i tylko zasilił go danymi? Czy właściciel tych danych?

 

 

Uwaga na konkurentów

Sztuczna inteligencja czy algorytmy nie mają przynależności geograficznej. Wiemy, że jakieś dane są przetwarzane na terenie Unii, inne w Chinach, a jeszcze inne w Stanach. Dlatego KE musi uważać, aby nie zabić konkurencyjności firm europejskich. Najlepiej byłoby, gdyby inicjatywa uregulowania SI została rozszerzona i przyjęta globalnie, przez wszystkich największych graczy. To na pewno jest bardzo trudne, bo nie wszystkie kraje mają ochotę przyjmować europejski punkt widzenia, ale warto próbować i uparcie do tego dążyć, bo takie globalne uregulowanie SI byłoby optymalnym rozwiązaniem.

Trudno przewidzieć, jak będzie wyglądała implementacja wymagań proponowanych przez KE, ale na pewno źle się stanie, jeśli uderzy ona w ośrodki innowacyjności w UE. Europa już nieco zaspała w wyścigu technologicznym ze Stanami Zjednoczonymi i Chinami, więc może nie pogłębiajmy jeszcze tej dysproporcji? Z drugiej strony musimy zaakceptować współzależność naszej istotnej dla rozwoju SI infrastruktury sieciowej i przetwarzania danych od dostawców z tych krajów. Większość potrzebnych w tej dziedzinie urządzeń i technologii powstaje w Chinach, a rozwiązania softwarowe w USA. Nie możemy się łudzić, że nagle w 2023 r., kiedy rozporządzenie KE ma wejść w życie, ich producenci wycofają się z UE. To jest kwestia ogromnych pieniędzy wpompowanych przez tych graczy oraz przez ich europejskich odbiorców.

Komisję Europejską podjęła kilka inicjatyw, które mają uniezależnić niektóre usługi cyfrowe w Unii od dostawców pozaeuropejskich, m.in. European Payment Initiative czy Gaia-X, sfederowaną usługę przetwarzania danych w oparciu o chmurę dla Europy. I widać po nich, że Komisja już ma świadomość, iż my w Europie nie zbudujemy konkurencji dla tych wszystkich wielkich światowych dostawców rozwiązań cyfrowych. Dlatego słusznie, jak w przypadku Gaia-X, próbuje zbudować warstwę przetwarzania danych uniezależnioną od infrastruktury dostarczanej przez wielkie amerykańskie lub chińskie firmy. Zapewne takie samo podejście trzeba mieć do systemów sztucznej inteligencji.

Wszyscy bardzo chcielibyśmy, aby rozwiązania oparte na SI powstawały także w Polsce i jest na to duża szansa. Źle by się jednak stało, gdyby te nasze rodzime pomysły i próby były od razu obciążone twardymi regulacjami. Bo wtedy pojawi się duża korporacja zagraniczna, która ma większe możliwości wypełniania wymagań regulacyjnych i możliwości przejęcia np. startupu wraz z prawami autorskimi do jego produktów. Albo do konkurencji stanie startup z np. Singapuru, mający znacznie niższe obciążenia regulacyjne i wykorzysta je jako przewagę na rynku.

Jak doprowadzić do tego, żeby europejska regulacja SI nie była postrzegana jako dodatkowy rygor i ograniczenie konkurencyjności, ale aby została pozytywnie przyjęta przez twórców oraz dystrybutorów SI? To ważne i wciąż otwarte pytanie.

 

Tekst powstał na podstawie debaty z cyklu THINKTANK Live Talks „Unijne plany regulacji sztucznej inteligencji – pomogą czy przyhamują jej rozwój?

 

 

 

Karol Mazurek, Dyrektor Zarządzający Accenture Polska

 

 

POWRÓT ↵

Related Posts

Begin typing your search term above and press enter to search. Press ESC to cancel.

Back To Top