Groźne oblicza sztucznej inteligencji

12.11.2023 | Review nr 48

Home 5 THINKTANK REVIEW 5 Review nr 48 5 Groźne oblicza sztucznej inteligencji

Opublikowano 15.10.2023

 

W THINKTANK Review od kilku lat konsekwentnie prezentujemy sztuczną inteligencję jako technologię, która może pomóc ludzkości rozwiązać jej największe problemy. Tak, jesteśmy technooptymistami, ale to nie oznacza, że nie dostrzegamy zagrożeń stwarzanych przez AI. W tej analizie wskazujemy największe z nich oraz rozważamy sposoby ich uniknięcia.

 

Czy AI zniszczy ludzkość?

W maju 2023 r. setki wybitnych naukowców i menedżerów przodujących firm technologicznych podpisało oświadczenie, w którym stwierdzają, że globalnym priorytetem ludzkości jest teraz ograniczanie ryzyka naszego wyginięcia spowodowanego przez sztuczną inteligencję (AI).

To reakcja nazbyt histeryczna czy wskazanie realnego zagrożenia?

W 2021 r. zapytano o to 44 badaczy z OpenAI, Future of Humanity Institute (Uniwersytet Oksfordzki), Center for Human-Compatible AI (UC Berkeley), Machine Intelligence Research Institute, Open Philanthropy i DeepMind. Pytanie brzmiało, jakie jest ich zdaniem prawdopodobieństwo, że systemy sztucznej inteligencji mogłyby nie robić tego, czego chcieliby od nich ich twórcy. Średnia odpowiedzi pozytywnych wyniosła aż 40 proc., a było to przed Chatem GPT.

W innej ankiecie przeprowadzonej w 2022 r. wśród badaczy AI większość z nich wyceniła ryzyko katastrofy egzystencjalnej spowodowanej naszą niezdolnością do kontrolowania sztucznej inteligencji na co najmniej 10 proc. Center for Humane Technology z San Francisco uznaje to ryzyko za wysokie. Jako argument wskazuje, że „momentem pierwszego kontaktu ludzkości ze sztuczną inteligencją były media społecznościowe – i ludzkość przegrała”.

Joseph Carlsmith, starszy analityk ds. badań z Open Philanthropy, w opublikowanym w 2022 r. raporcie bardziej szczegółowo analizuje ryzyka egzystencjalne dla ludzkości wynikające ze „źle skonfigurowanej sztucznej inteligencji”. Ma na myśli taką AI, która jest znacznie inteligentniejsza od ludzi, potrafi się samodoskonalić i ustanawiać własne cele. Autor raportu uważa, że taka AI miałby instrumentalną motywację do przejęcia władzy nad nami. Jego zdaniem to jednak perspektywa dość odległa. Wystarczająco potężne do tego systemy sztucznej inteligencji mogą powstać do 2070 r. A ryzyko, że będą one rzeczywiście dążyć do zapanowania nad ludźmi i ostatecznie doprowadzą ludzkość do katastrofy egzystencjalnej wycenił na 5 proc. Po udostępnieniu Chata GPT podniósł jednak wartość tego ryzyka do 10 i więcej proc.

 

 

Naukowcy z Centre on Long-Term Risk, instytutu badawczego non-profit w Londynie przedstawili inny, naszym zdaniem bardziej prawdopodobny scenariusz: AI nie przejmuje władzy nad ludźmi, tylko pomoże to zrobić złowrogiej totalitarnej grupie lub rządowi. Miliardy ludzi żyją wtedy dalej, ale jakość ich życia jest tak niska, a perspektywy tak ponure, że lepszym rozwiązaniem byłoby wymarcie. Czeka nas bowiem wtedy „cierpienie na skalę astronomiczną, znacznie przewyższające wszelkie cierpienia, jakie do tej pory miały miejsce na Ziemi”.

W raporcie na temat zagrożeń egzystencjalnych opracowanym w ramach projektu Global Priorities Project przedstawiono podobny scenariusz: „długa przyszłość w szczególnie brutalnym globalnym państwie totalitarnym może być gorsza niż całkowite wyginięcie”.

Nick Bostrom, szwedzki filozof, kierownik Future of Humanity Institute w Uniwersytecie Oxfordzkim, opisał w szczegółach,  w jaki sposób mogłoby dojść do utworzenia rządu globalnego i dlaczego jego obalenie byłoby niemożliwe. Pisze, że świat z „jedną instytucją decyzyjną na najwyższym szczeblu” mógłby powstać, gdyby „uzyskała ona zdecydowane przywództwo poprzez przełom technologiczny w sztucznej inteligencji lub nanotechnologii molekularnej”. Po przejęciu władzy instytucja taka kontrolowałaby cały postęp technologiczny, dzięki czemu pozostawałaby wiecznie stabilna.

Czy są oznaki, że sztuczna inteligencja może zrealizować takie dystopie? „Na razie nie – uważa New York Times. – ­Jednak badacze już teraz przekształcają chatboty, takie jak ChatGPT, w systemy zdolne podejmować samodzielne działania”. Przykładem ma być choćby projekt o nazwie AutoGPT. Wyobraźmy sobie: ludzie wyznaczają systemowi AI takie cele jak „utwórz firmę” lub „zarób trochę pieniędzy”. W poszukiwaniu sposobów ich osiągnięcia system ma prawo korzystać z innych usług internetowych, a także generować własne programy komputerowe. Jeśli otrzyma przy tym dostęp do wystarczająco mocnego serwera, będzie mógł je faktycznie uruchomić. Teoretycznie jest to sposób, w jaki AutoGPT może wykonywać niemal wszystko w Internecie – pobierać informacje, korzystać z aplikacji, tworzyć nowe, a nawet udoskonalać się.

Gdy badacze, firmy lub przestępcy wyznaczą systemom typu AutoGPT cele takie jak „zarobienie pieniędzy”, mogą z ich pomocą włamać się do banków, wzniecić rewolucję w kraju, w którym trzymają kontrakty terminowe na ropę naftową lub replikować się, gdy ktoś spróbuje je wyłączyć.

„Ludzie aktywnie próbują budować systemy, które się samodoskonalą” – powiedział NYT Connor Leahy, założyciel Conjecture, firmy, która deklaruje dostosowywanie technologii AI do wartości ludzkich. „Obecnie to jeszcze nie działa. Ale pewnego dnia tak się stanie., tylko jeszcze nie wiemy, kiedy ten dzień nastąpi”.

Kiedy w 2018 r. OpenAI uruchomiło swój pierwszy duży model językowy, znany jako GPT-1, miał on 117 mln parametrów (miara skali i złożoności systemu). Pięć lat później model czwartej generacji (GPT-4) ma ich ponad bilion. W ostatnich 10 latach ilość obliczeń wykorzystywanych do uczenia najpotężniejszych modeli sztucznej inteligencji zwiększała się każdego roku dziesięciokrotnie.

Innymi słowy, najbardziej zaawansowane obecnie modele sztucznej inteligencji wykorzystują moc pięć miliardów razy większą niż moc obliczeniowa najnowocześniejszych modeli sprzed dekady. Przetwarzanie, które kiedyś zajmowało tygodnie, zajmuje obecnie kilka sekund.

A w ciągu najbliższych kilku lat pojawią się modele, które będą w stanie obsłużyć dziesiątki bilionów parametrów. Modele „w skali mózgowej” zawierające ponad 100 bilionów parametrów, mniej więcej tyle, ile jest synaps w ludzkim mózgu, będą dostępne w ciągu pięciu lat – taką prognozę przedstawiają Ian Bremmer i Mustafa Suleyman w Foreign Affairs (IX/X 2023).

Wniosek z tych danych jest taki, że AI inteligentniejsza od nas może pojawić się znacznie wcześniej niż przewidują cytowane wyżej prognozy.

Czy jako ludzie jesteśmy na to przygotowani? Niestety nie. Na razie staramy się zdefiniować zagrożenie. Wiemy, że konieczne są mechanizmy (regulacje), które dopuszczą rozwój tylko bezpiecznych systemów AI. Jednak technologie sztucznej inteligencji rozwijają się o wiele szybciej niż prawo, które ma im wyznaczyć granice bezpieczeństwa.

 

 width=


Nic dziwnego, że kilka miesięcy po tym, jak Chat GPT rozpalił emocje na całym świecie,  grupa dyrektorów ds. technologii i czołowych badaczy AI opublikowała (w marcu 2023 r. ) głośny list otwarty, w którym wezwali do sześciomiesięcznej przerwy w szkoleniu systemów AI potężniejszych niż GPT-4. „Zaawansowana sztuczna inteligencja może oznaczać głęboką zmianę w historii życia na Ziemi i należy ją planować oraz zarządzać z odpowiednią starannością” – ostrzegali. Trudno się z nimi nie zgodzić.

W liście zadają też ważne pytania: czy powinniśmy pozwolić maszynom zalewać nasze kanały informacyjne propagandą i nieprawdą? czy powinniśmy automatyzować wszystkie zadania, także te, które dają ludziom satysfakcję? czy powinniśmy rozwijać nieludzkie umysły, które w końcu mogą nas przewyższyć liczebnie, przechytrzyć i ostatecznie zastąpić? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?

Wśród pierwszych sygnatariuszy tego manifestu byli m.in. szefowie OpenAI, Google i wielu innych firm zajmujących się rozwijaniem AI. Ale co było dalej? Czy ktokolwiek z nich wstrzymał się na 6 miesięcy od badań? Nikt. Przeciwnie, po tym oświadczeniu wyścig pomiędzy czołowymi firmami nabrał jeszcze ostrzejszego tempa. Logika zysku z łatwością zwyciężyła logikę bezpieczeństwa.

Elon Musk, który też podpisał ten list, szybko zignorował własne wezwanie do spowolnienia. W lipcu 2023 r. ogłosił powstanie xAI, jego nowej firmy, która ma wyjść poza istniejącą sztuczną inteligencję i konkurować z OpenAI, Google i Microsoft. Google też szykuje się do wypuszczenia nowego modelu sztucznej inteligencji o nazwie Gemini, mającego zaoferować szersze możliwości niż GPT-4. Wiele innych firm już wprowadziło na rynek własne duże systemy AI lub wkrótce to zrobią. Zatem list nie wywołał powszechnej pauzy. Co najwyżej poszerzył przekonanie, że sztuczna inteligencja może stać się głównym zagrożeniem dla ludzkości.

A znany pisarz Yuval Noah Harari już ogłosił, że sztuczna inteligencja zhakowała system operacyjny ludzkiej cywilizacji.

 

 

Krótko mówiąc, katastrofy egzystencjalnej spowodowanej przez AI nie da się wykluczyć, a zagrożenie będzie rosło wraz z rozwojem tej technologii. To tempo już teraz jest ogromne, znacznie, znacznie szybsze niż dotychczasowy wzrost mocy obliczeniowej opisywanej przez prawo Moore’a (podwojenie co dwa lata).

 

Bezrobocie technologiczne? Wysoce prawdopodobne

Ponad jedna czwarta miejsc pracy (27 proc.) w najbardziej rozwiniętych krajach świata wymaga umiejętności, które można łatwo zautomatyzować w ramach nadchodzącej rewolucji wywołanej eksplozją sztucznej inteligencji. Przy czym najbardziej narażone są na to kraje Europy Wschodniej – wynika z prognoz OECD ogłoszonych przy okazji raportu dotyczącego zatrudnienia w roku 2023.

Z kolei badanie  McKinsey Global Institute zapowiada, że ​​do 2030 r. co najmniej 14 proc. pracowników na całym świecie będzie musiało zmienić swoją karierę ze względu na cyfryzację, robotykę i rozwój sztucznej inteligencji.

Grupa naukowców z kilku czołowych amerykańskich uniwersytetów dokładniej zbadała potencjalny wpływ dużych modeli językowych (Large Language Model – LLM) na rynek pracy w USA. Brali pod uwagę nie tylko bezpośrednie możliwości tych modeli, ale i powstające jak grzyby po deszczu oparte na nich oprogramowanie.

Założyli przy tym, że przed wprowadzeniem modeli LLM na szeroką skalę trzeba najpierw zlikwidować lukę kompetencyjną, jaka występuje wśród większości zatrudnionych w amerykańskiej gospodarce, a więc ustawicznie uczyć ich rozumienia i korzystania z nowych technologii. I już samo to mogłoby spowodować, że około 15 proc. wszystkich zadań pracowników w USA dałoby się wykonać znacznie szybciej bez utraty ich jakości. Dodanie do tego oprogramowania i narzędzi opartych na LLM mogłoby podnieść łączną efektywność pracy w USA o 47–56 proc. „Doszliśmy do wniosku, że LLM takie jak GPT, wykazują cechy technologii ogólnego przeznaczenia, a więc mogą mieć znaczące implikacje gospodarcze, społeczne i polityczne” – podsumowują badacze.

Jeśli zatem narzędzia oparte o LLM mogą podnieść efektywność pracy o połowę, to czy pragmatyczne przedsiębiorstwa amerykańskie nie zaczną masowo korzystać z tej możliwości? Mało prawdopodobne. Ale wtedy nawet połowa obecnie zatrudnionych może okazać się niepotrzebna.

Ekonomiści Goldman Sachs oszacowali, że najnowsza fala sztucznej inteligencji ma zdolność do zautomatyzowania 300 mln pełnoetatowych stanowisk pracy na całym świecie (globalne szacunkowe zatrudnienie: 3,3 mld osób).  Eksperci banku dodają, że w USA i Europie około dwie trzecie obecnych miejsc pracy „jest narażonych na pewien stopień automatyzacji z udziałem sztucznej inteligencji”, a nawet jedna czwarta całej pracy mogłaby już teraz być w całości wykonywana przez AI.

 

 

We wnioskach autorzy raportu uspokajają jednak, że w kilku najbliższych latach ten ogromny potencjał sztucznej inteligencji z różnych powodów nie będzie jeszcze w pełni wykorzystany. Bardziej prawdopodobne jest, że programy czy roboty oparte na AI nie będą ludzi zastępować, tylko ich uzupełniać.  To teza dominująca obecnie w prognozach dotyczących wpływu AI na rynki pracy w krótkiej, kilkuletniej perspektywie. Ale co nas czeka potem?

Wielu ekspertów, w tym autorzy analiz przygotowywanych dla Światowego Forum Ekonomicznego (WEF) twierdzi, że nowe technologie, w tym AI, zlikwidują miliony miejsc pracy, ale stworzą jeszcze więcej nowych. To jednak coraz bardziej wątpliwy wniosek. Jak opisujemy w analizie „Przyszłość pracy nadeszła” w THINKTANK Review ze stycznia 2023 r., w większości wysoko rozwiniętych gospodarek brakuje pracowników wystarczająco kompetentnych, aby mogli pracować z inteligentnymi maszynami i zarządzać automatyzacją pracy. Ta luka kompetencyjna rośnie i nie da się jej szybko w skali globalnej zlikwidować, co musi doprowadzić do rosnącego bezrobocia technologicznego już pod koniec tej dekady.

Pracodawcy z 45 krajów, badani na potrzeby corocznego raportu WEF Future of Jobs 2023, zarządzający w sumie 673 mln stanowisk pracy szacują, że w ciągu najbliższych 5 lat powstanie u nich 69 mln nowych miejsc pracy, ale do likwidacji pójdzie 83 mln stanowisk już niepotrzebnych. A zatem zniknie 14 mln miejsc pracy, czyli 2 proc. obecnego zatrudnienia. To niby niewiele, ale naszym zdaniem to początek rosnącego trendu.

 

Dekompozycja globalnego ładu

W historii ludzkości nie było technologii, która miałaby aż taki potencjał zapewnienia znaczącej przewagi militarnej i gospodarczej nad przeciwnikami. Dlatego już od co najmniej dekady sztuczna inteligencja jest areną i narzędziem ostrej konkurencji geopolitycznej. Największe potęgi świata starają się wykorzystać AI do uzyskania przewagi gospodarczej, militarnej, dominacji technologicznej oraz wpływu na globalne normy i standardy. 

 

 width=

Sztuczna inteligencja wręcz zaostrza powstałe już wcześniej napięcia między USA, Chinami i Europą. W ubiegłym roku Stany Zjednoczone ograniczyły dostęp Chin do zaawansowanej sztucznej inteligencji poprzez ograniczenie eksportu wysokowydajnych chipów niezbędnych do budowy superkomputerów. Chiny odpowiedziały zakazem eksportu galu i germanu, które są potrzebne do produkcji chipów, paneli słonecznych i światłowodów. W tym roku dołożyły do tego ograniczenia eksportu silników, laserów, sprzętu komunikacyjnego i systemów antydronowych. Technologiczna rywalizacja chińsko-amerykańska wyraźnie się zaostrza.

Na razie (w teorii) każdy rząd na świecie może skorzystać z AI do poprawy swojej międzynarodowej pozycji konkurencyjnej, czyli wzmocnienia gospodarki, przyspieszenia rozwoju nauk, poprawy usług publicznych. Służące tym celom aplikacje AI tanieją i są w zasięgu średniozamożnych krajów, w tym i Polski. Ale mało prawdopodobne jest, że największe mocarstwa technologiczne zaakceptują pełną demokratyzację AI i wypuszczą z rąk kontrolę nad najważniejszymi elementami tej technologii.

Już w nieodległej przyszłości można sobie wyobrazić sytuację, w której wszystkie cząstkowe procesy gospodarcze, naukowe, społeczne będą wspierane przez jeden dający mega-przewagę system AI, do czego poza know-how potrzebna jest m.in. potężna moc obliczeniowa. To częściowo wyjaśnia, dlaczego Stany Zjednoczone ograniczyły eksport najbardziej zaawansowanych półprzewodników do Chin.

Proces koncentracji mocy obliczeniowej na potrzeby rozwoju potężnych systemów AI wyraźnie postępuje. Prawie wszystkie niezależne niegdyś laboratoria badawcze zajmujące się sztuczną inteligencją w końcu trafiły w ręce amerykańskich gigantów: OpenAI do Microsoftu, DeepMind i Anthropic do Google, Hugging Face do Amazona. To oznacza, że ​​przynajmniej przez kilka najbliższych lat trajektoria rozwoju sztucznej inteligencji będzie w dużej mierze zdeterminowana decyzjami kilku prywatnych przedsiębiorstw zlokalizowanych w USA oraz państwowych i prywatnych firm kontrolowanych przez rząd Chin.

Zdecydowana większość krajów nie ma finansowych ani technologicznych możliwości, aby na serio konkurować z takimi potęgami. Dlatego musi ułożyć sobie z nimi relacje, od których zależeć będzie ich dostęp do innowacyjnych rozwiązań AI.  Zależność ta grozi jednak pogłębieniem obecnej nierównowagi geopolitycznej. Zwłaszcza kraje globalnego Południa mogą być po raz kolejny pozostawione w tyle. 

MIT Technology Review, cenione czasopismo w branży nowych technologiiopublikowało w ub. roku serię analiz pod wspólnym tytułem AI Colonialism.  Ich autorzy ostrzegają, że sztuczna inteligencja tworzy nowy kolonialny porządek świata. Przykładami są m.in. Republika Południowej Afryki, gdzie szeroko stosowane technologie nadzoru (kamery i oprogramowanie) sterowane przez AI ponownie utrwalają hierarchie rasowe i podsycają cyfrowy apartheid. W Wenezueli firmy etykietujące dane oparte na sztucznej inteligencji znalazły tanich i zdesperowanych z powodu wyniszczającego kryzysu gospodarczego pracowników, tworząc nowy model wyzysku siły roboczej.

Te historie pokazują, jak sztuczna inteligencja zubaża społeczności i kraje, które mają za sobą kolonialną przeszłość i znowu nie mają nic do powiedzenia w sprawie własnego rozwoju.

W teorii cały świat może skorzystać na rewolucji AI. Podobnie jak Internet i smartfony, sztuczna inteligencja może dość swobodnie przekraczać granice i przyczyniać się do wzrostu produktywności na całym świecie. Tyle że te procesy pozostaną pod kontrolą właścicieli najważniejszych technologii AI. Chiny i Stany Zjednoczone postrzegają bowiem rozwój sztucznej inteligencji jako grę, która może zapewnić zwycięzcy zdecydowaną przewagę strategiczną nawet do końca obecnego stulecia.  

 

 width=

Oba te państwa wykorzystują też sztuczną inteligencję do wzmocnienia swojej siły militarnej. Aplikacje AI są rozmieszczane w powietrzu, w morzu, na lądzie i w przestrzeni kosmicznej. Poprawiają skuteczność potencjalnych ataków, wzmacniają obronę i zwiększają synergię systemów wojskowych. Armia amerykańska korzysta z platformy sztucznej inteligencji przypominającej ChatGPT, która pomaga podejmować dowódcom kluczowe decyzje. Systemy rozpoznawania twarzy służą do identyfikacji wrogów. Autonomiczne drony kierowane przez AI już od ponad dekady praktycznie udowodniają swoją przydatność w rozpoznawaniu wroga i zadawania mu dotkliwych strat.

A prace nad jeszcze szerszym zastosowaniem militarnym AI są cały czas prowadzone w wielu krajach, nie tylko w Chinach i w USA. Te same systemy, które mają kierować autonomicznymi samochodami, mogą bowiem kierować czołgami. Aplikacja AI stworzona do diagnozowania chorób może posłużyć do produkcji groźnej broni biologicznej. Granice między tym, co bezpieczne dla ludności cywilnej, a tym co niszczycielskie pod względem militarnym, są rozmyte.

Gdyby ZSRR opracował broń nuklearną 10 lat przed USA, mógłby stać się dominującą potęgą światową. Potężna technologia komputerowa w rękach jednego państwa stwarza podobne ryzyko. Sztuczna inteligencja to nie tylko kolejne narzędzie lub broń mogące przysporzyć prestiżu, władzy lub bogactwa. AI ma potencjał zapewnienia na dziesiątki lat garstce wybranych znaczącej przewagi militarnej i gospodarczej nad przeciwnikami.

 

Smutny koniec demokracji?

„Platformy social media (SM), takie jak Facebook, Twitter, Instagram i TikTok, mają nadreprezentację fałszywych wiadomości i emocjonalnych komunikatów powodujących podziały społeczne. Skumulowany wpływ SM na życie publiczne w ciągu ostatnich ponad 10 lat to zwiększona polaryzacja społeczeństw, masowa ingerencja w wybory, blokady legislacyjne i inne praktyki manipulacyjne, które podważają demokrację na całym świecie” – alarmują badacze ze wspomnianego wcześniej Center form Humane Technology. Potwierdzają to poniższe dane:

A silnikiem zwiększającym patologiczny wpływ SM na demokrację i życie publiczne jest sztuczna inteligencja. Pomaga zakładać miliony fałszywych kont, ułatwia tworzenie i rozsyłanie milionów fałszywych informacji, zdjęć i filmów video. Oczywiście AI nie jest sprawcą tego zalewu dezinformacji, a tylko narzędziem. Niestety coraz tańszym i łatwo dostępnym.

Platformy mediów społecznościowych wykorzystują sztuczną inteligencję do automatycznego rankingowania postów, co umożliwia masową zmianę priorytetów legalnych serwisów informacyjnych na rzecz fałszywych, spamerskich lub manipulacyjnych treści przesyłanych przez użytkowników.

Im większa ilość deepfake’ów wprowadzanych do obiegu (w tym pozornie nieszkodliwych), tym bardziej społeczeństwo będzie się wahać, czy komukolwiek zaufać. Ludzie będą znacznie swobodniej wierzyć w to, w co chcą wierzyć. Zaufanie do instytucji i współobywateli będzie nadal spadać” – piszą w The Atlantic Jonathan Haidt, psycholog społeczny i Eric Schmidt, były dyrektor generalny Google.

Innym zagrożeniem, które dostrzegają, jest powszechna, umiejętna manipulacja ludźmi przez superinfluencerów wykorzystujących algorytmy i sztuczną inteligencję do tworzenia spersonalizowanych kanałów dosłownie dla każdego użytkownika. Najbardziej narażoną na to grupą są dzieci i nastolatki. Dużą część udostępnianych im treści coraz częściej generuje sztuczna inteligencja i wkrótce będą one bardziej wciągające niż cokolwiek, co mogliby stworzyć ludzie. Skutki łatwo sobie wyobrazić.

Rosnące rozpowszechnianie spamu generowanego przez sztuczną inteligencję zmniejsza zrozumienie najważniejszych bieżących wydarzeń i spycha na margines legalne redakcje jako źródła wiarygodnych informacji.

W Chinach na każdy tysiąc mieszkańców przypada 439 kamer. Sztuczna inteligencja już od lat pomaga autorytarnym reżimom śledzić zachowania własnych społeczeństw. Teraz ułatwia im znacznie efektywniej wykorzystywać media społecznościowe do manipulowania nimi, a także do szkodzenia zagranicznym wrogom. Aby obywatele mogli podejmować skuteczne zbiorowe decyzje w demokratyczny sposób, konieczne jest wspólne zrozumienie tego, co jest prawdą i jakie są rzeczywiste, niezmanipulowane pragnienia ludzi. „Demokracja zależy od wspólnych prawd, a autokracja od wspólnych kłamstw” – spuentował to w jednym ze swoich niesatyrycznych wystąpień Sacha Baron Cohen.

 

 

Grupa badaczy ogłosiła w tym roku w Natur Human Behaviour raport z przeglądu blisko 500 artykułów naukowych na temat związku między korzystaniem z mediów cyfrowych a różnymi zmiennymi politycznymi. „Zdecydowana większość zgłoszonych powiązań między korzystaniem z mediów cyfrowych a zaufaniem wydaje się być szkodliwa dla demokracji” – brzmi podsumowanie. Odnosi się to zwłaszcza do demokracji w krajach najbardziej rozwiniętych.

Załamanie wspólnego zrozumienia rzeczywistości powoduje polaryzację w świecie rzeczywistym, co podważa demokrację. W miarę jak stajemy się bardziej spolaryzowani w Internecie, stajemy się również bardziej spolaryzowani offline. 

 
<