W 2023 roku dostrzegamy już potencjał ChatGPT i technologii sztucznej inteligencji nowej generacji, które mogą zmienić sposób, w jaki się uczymy, pracujemy i wchodzimy w interakcje. To dopiero początek technologii, która w najlepszym przypadku przesunie nowe granice ludzkiej wiedzy i produktywności, przekształci rynki pracy, zrewolucjonizuje gospodarki i doprowadzi do bezprecedensowego wzrostu społecznego i gospodarczego.
Jednocześnie szybkie tempo rozwoju sztucznej inteligencji budzi obawy wynalazców, liderów technologicznych i regulatorów. Nawet Sam Altman, prezes OpenAI – firmy badawczej stojącej za ChatGPT – ostrzegał przed zagrożeniami, jakie sztuczna inteligencja stwarza dla jednostek, gospodarek i społeczeństw, jeśli nie zostanie powstrzymana. Najgorsze scenariusze opierają się na możliwości przejęcia kontroli przez sztuczną inteligencję, co pozwoliłoby jej zrewolucjonizować rynek pracy, uczynić ludzi zbędnymi, a nawet doprowadzić do upadku rodzaju ludzkiego, jak sugerują niektóre hollywoodzkie filmy science fiction.
W tym kontekście rządy na całym świecie – zwłaszcza w USA, Chinach i Unii Europejskiej (UE) – stoją w obliczu rosnącej presji, by regulować wyścig firm technologicznych w dziedzinie sztucznej inteligencji (AI) bez całkowitego tłumienia rozwoju tej technologii. Pomimo tych samych obaw, USA, Chiny i UE zaczęły opracowywać bardzo odmienne podejścia do regulacji technologii AI, opierając się na wartościach i ideologiach uznawanych za najważniejsze w ich społeczeństwach.
Zwycięzca w podejściu do sztucznej inteligencji (AI) będzie miał ogromny wpływ na przyszłość technologii i społeczeństwa, ponieważ decyzje zapadają w czasach, gdy technologia AI jest wciąż nowa i nie ma jasnego kierunku rozwoju. I nikt z nas nie może sobie pozwolić na pozostanie w tyle.
Ameryka
Mniej uregulowane podejście Stanów Zjednoczonych do regulacji AI świadczy o silnej wierze w kapitalizm wolnorynkowy i o tym, jak wartości te umożliwiają innowacje technologiczne. Oparte na modelu zarządzania gospodarczego, który pozwala firmom na swobodne działanie, co z kolei daje im dużą władzę polityczną , amerykańskie ramy regulacyjne dotyczące AI mają wyraźnie charakter laissez-faire. Koncentrują się one na ochronie wolności słowa, wolnego internetu i polityki rządowej sprzyjającej innowacjom.
Jednym z głównych powodów takiego podejścia jest przekonanie amerykańskiego społeczeństwa, że innowacje i nowe inicjatywy są głównymi motorami postępu społecznego i dobrobytu gospodarczego. Amerykańscy decydenci polityczni w dużej mierze wierzą, że nadmiernie restrykcyjne regulacje mogą stłumić innowacyjność, która rozkwitła w Ameryce dzięki zasadom wolnego rynku. To podejście doprowadziło do niezwykłego postępu w dziedzinie sztucznej inteligencji w Ameryce, od narzędzia ChatGPT firmy OpenAI dla codziennych użytkowników, po innowacje w diagnostyce medycznej, modelowaniu predykcyjnym i trendach klimatycznych.
W rezultacie Stany Zjednoczone nie opracowały żadnej znaczącej federalnej polityki regulacyjnej w zakresie sztucznej inteligencji (AI), lecz zaproponowały kilka dobrowolnych standardów, które firmy technologiczne mogą przyjąć lub zignorować. Najnowszym przykładem jest dokument Blueprint for an AI Bill of Rights (Plan Praw do AI), wydany przez Biały Dom w październiku 2022 roku. Zawiera on wytyczne dla twórców i użytkowników AI dotyczące ochrony praw obywateli amerykańskich w dobie AI, ale ostatecznie pokłada zaufanie w firmach, które same zarządzają swoją technologią. To poparcie dla prywatnego rozwoju AI przejawia się w zwiększonym nacisku Waszyngtonu na inwestowanie w badania i rozwój (B+R) w dziedzinie AI oraz w zwiększaniu możliwości rządu federalnego w zakresie wykorzystywania AI w działalności administracyjnej.
Waszyngton postrzega również sztuczną inteligencję jako szansę na umocnienie amerykańskiej dominacji militarnej i technologicznej w obliczu zaostrzającej się konkurencji technologicznej między USA a Chinami oraz rosnących obaw o konflikt geopolityczny między tymi dwoma mocarstwami. Skupienie się USA na dominacji gospodarczej i geopolitycznej sprawiło, że kontrola technologiczna zeszła na dalszy plan. To podejście oparte na bierności odzwierciedla również geopolityczną strategię Waszyngtonu, a decydenci wierzą, że Stany Zjednoczone mogą wykorzystać miękką siłę, aby uzyskać przewagę technologiczną i przywództwo w dziedzinie sztucznej inteligencji. Te geopolityczne względy ukształtowały pogląd Waszyngtonu, że zbyt wiele regulacji będzie hamować innowacje w dziedzinie sztucznej inteligencji, zagrażając tym samym globalnemu przywództwu Ameryki w tej dziedzinie. Zamiast tego Waszyngton opiera się na dobrowolnych standardach, mając nadzieję, że wpływ amerykańskich firm na rozwój sztucznej inteligencji pozwoli USA na globalne promowanie tego podejścia – konsolidując ich potęgę.
Unia Europejska (UE)
Podejście UE do regulacji dotyczących sztucznej inteligencji (AI) kształtowane jest przez ramy skoncentrowane na prawach człowieka, bazujące na precedensach społecznych, które ukształtowały Ogólne Rozporządzenie o Ochronie Danych (RODO). RODO, które weszło w życie w 2018 r., położyło podwaliny pod oparte na prawach człowieka podejście UE do AI.
Zasady minimalizacji danych, ograniczenia celu i wymogi przejrzystości to wartości, które nadal odgrywają istotną rolę w kształtowaniu sposobu, w jaki Europa reguluje kwestie sztucznej inteligencji. W ten sam sposób decydenci polityczni muszą łączyć względy etyczne z innowacjami technologicznymi, aby stworzyć ramy prawne dla regulacji sztucznej inteligencji, w których priorytetem są interesy człowieka. Takie podejście ma na celu ochronę prywatności osób fizycznych, zapewnienie transparentności działania firm oraz utrzymanie zaufania społecznego do technologii sztucznej inteligencji.
Najważniejszym dowodem zaangażowania UE w silne zarządzanie sztuczną inteligencją (AI) są proponowane przez Komisję Europejską ramy regulacyjne dotyczące AI. Są to pierwsze ramy prawne regulujące technologię AI. Mają one na celu ustanowienie jasnych wymagań i obowiązków dla twórców, wdrożeniowców i użytkowników AI, ze szczególnym uwzględnieniem zastosowań AI wysokiego ryzyka. Propozycja ma na celu sprostanie różnorodnym wyzwaniom związanym z technologią AI, w tym trudnościom w zrozumieniu procesu decyzyjnego systemów AI oraz ocenie przypadków nieuczciwego wykorzystania tej technologii. Oprócz zapewnienia bezpieczeństwa i podstawowych praw obywateli i przedsiębiorstw, propozycja ma również na celu wykorzystanie AI do zmniejszenia obciążeń administracyjnych i finansowych przedsiębiorstw, zwłaszcza małych i średnich przedsiębiorstw (MŚP).
Strategia UE proponuje również podejście oparte na ryzyku, rozróżniając zastosowania sztucznej inteligencji na czterech poziomach – niedopuszczalne, wysokiego ryzyka, ograniczone i bez ryzyka. Zastosowania sztucznej inteligencji, które są uznawane za stanowiące wyraźne zagrożenie dla bezpieczeństwa, źródeł utrzymania i praw człowieka, zostałyby zakazane, natomiast zastosowania wysokiego ryzyka – w tym technologie sztucznej inteligencji wykorzystywane w infrastrukturze krytycznej i w zatrudnieniu – podlegałyby surowym regulacjom. Systemy sztucznej inteligencji, które stwarzają minimalne ryzyko, również podlegałyby nadzorowi regulacyjnemu, ale na minimalnym poziomie.
Być może mniej wyraźnie niż Stany Zjednoczone i Chiny, UE również dostrzega rolę sztucznej inteligencji we wspieraniu konkurencji geopolitycznej. Przejmując inicjatywę w ustanawianiu standardów regulacyjnych dotyczących sztucznej inteligencji w Europie, Bruksela ma nadzieję szerzyć swoje wartości praw człowieka, przejrzystości i ochrony konsumentów na całym świecie. Zdolność UE do regulowania technologii, którą zademonstrowała w obszarze ochrony danych w ramach RODO, daje Brukseli możliwość kształtowania globalnych norm dotyczących sztucznej inteligencji – a tym samym zapewnia UE istotne źródło miękkiej siły.
Podejście UE nie jest jednak pozbawione wyzwań. Potencjał rozwoju sztucznej inteligencji (AI) w krajach UE nie dorównuje obecnie temu, co obserwuje się w USA i Chinach. Niektórzy obserwatorzy twierdzą, że surowe regulacje UE mogą hamować innowacyjność i zmniejszać konkurencyjność europejskich firm na arenie międzynarodowej. Sugeruje to, że chociaż UE ma nadzieję na ustanowienie standardów w zakresie regulacji AI, nie będzie w stanie rozwijać większości tych technologii, polegając zamiast tego na swojej zdolności do kontrolowania ich z zewnątrz. Może to wzmocnić w krajach trzecich przekonanie, że UE próbuje narzucić europejskie wartości społeczeństwom, do których nie pasują, co przyniesie odwrotny skutek w postaci utraty europejskich wpływów geopolitycznych.
Chiny
W przeciwieństwie do wolnorynkowego podejścia Stanów Zjednoczonych i opartej na prawach człowieka kontroli nad Europą, Chiny przyjmują bardziej asertywny i scentralizowany model kontroli nad sztuczną inteligencją. Model kontroli odgórnej można postrzegać jako ucieleśnienie chińskiego połączenia autorytarnych rządów państwowych i gospodarki rynkowej.
U podstaw tego podejścia leży centralna rola rządu w rozwoju i nadzorze nad sztuczną inteligencją. Dzięki długoterminowej wizji strategicznej i gotowości do mobilizacji dużych zasobów na rzecz rozwoju technologii, Pekin umieścił sztuczną inteligencję na czele polityki rozwoju kraju.
„Nowy Plan Rozwoju Sztucznej Inteligencji”, opublikowany w 2017 roku, nakreśla plan, dzięki któremu Chiny mają stać się światowym liderem w dziedzinie sztucznej inteligencji do 2030 roku. Strategia ta postrzega sztuczną inteligencję jako główny motor napędowy modernizacji przemysłu i transformacji gospodarczej Chin, a w tym procesie głęboko zintegruje ją z zarządzaniem i administracją społeczną, w tym z zarządzaniem miastami, usługami publicznymi i monitorowaniem bezpieczeństwa wewnętrznego. Chiński rząd wierzy, że sztuczna inteligencja może być wykorzystywana do utrzymania porządku i ścisłej kontroli społecznej. Chiński model państwa policyjnego włączył sztuczną inteligencję do swojej strategii zarządzania narodowego, wykorzystując ją jako narzędzie do monitorowania, cenzurowania i kontrolowania nie tylko źródeł informacji w społeczeństwie.
„Tymczasowe środki zarządzania innowacyjnymi usługami sztucznej inteligencji”, które mają wejść w życie 15 sierpnia, pokazują, jak Chiny łączą wykorzystanie sztucznej inteligencji do napędzania dynamiki gospodarczej z zachowaniem kontroli państwa nad społeczeństwem. Polityka ta obejmuje mechanizmy kontroli nad sztuczną inteligencją podobne do tych obowiązujących w UE i USA, takie jak ochrona praw własności intelektualnej, zapewnienie transparentności rozwoju technologii i zakaz dyskryminacji między użytkownikami, ale uwzględnia również elementy polityczne odzwierciedlające chiński kontekst społeczny.
Obejmuje to wymóg, aby rozwój sztucznej inteligencji (AI) był zgodny z wartościami socjalistycznymi, zabraniając wykorzystywania AI do podżegania lub działań antypaństwowych. Polityka ta nakłada również na firmy rozwijające AI obowiązek uzyskania zatwierdzonych przez państwo licencji na świadczenie usług w zakresie AI, co pokazuje, że Pekin zamierza utrzymać wysoki poziom kontroli nad wdrażaniem tej technologii.
Podobnie jak w USA i UE, podejście Chin jest również kształtowane przez krajowe nastroje społeczne, kulturowe i polityczne, a jednocześnie wpływa na nie poprzez podejście rządu. Nacisk na opanowanie sztucznej inteligencji w kraju przyczynił się do powstania społeczeństwa, w którym technologia AI stała się akceptowalnym elementem codziennego życia, od systemów płatności opartych na rozpoznawaniu twarzy po asystentów dydaktycznych wykorzystujących AI. Gotowość Pekinu do wdrożenia tych technologii w życiu codziennym, w porównaniu z USA i UE, prawdopodobnie będzie katalizatorem przyspieszenia szybkiego rozwoju sztucznej inteligencji w Chinach. Podczas gdy kraje zachodnie stoją w obliczu głębokich debat na temat zastosowania sztucznej inteligencji w społeczeństwie, Chiny mogą wykorzystać odnowione poparcie społeczne do wdrożenia sztucznej inteligencji na szeroką skalę, bez stawiania czoła oporowi społecznemu, który pojawił się wraz z Zachodem.
Poza implementacją społeczną, przewaga Chin widoczna jest również w sposobie, w jaki Pekin reguluje rynek, aby wspierać badania nad sztuczną inteligencją, zamiast polegać na wolnym rynku jako stymulatorze innowacji. W 2021 roku Chiny odpowiadały za prawie jedną piątą globalnych prywatnych inwestycji w sztuczną inteligencję, a jeśli chodzi o badania naukowe, Chiny opublikowały w tym samym roku około jednej trzeciej wszystkich prac naukowych i cytowań dotyczących sztucznej inteligencji. Silne inwestycje i wsparcie chińskiego rządu przyczyniły się do rozwoju coraz bardziej dynamicznego sektora technologii sztucznej inteligencji, którego celem jest uczynienie z niej kluczowego zasobu dla wszystkich obszarów rozwoju kraju.
Polityka Chin jest głęboko zakorzeniona w konfucjańskiej tradycji kładzenia nacisku na harmonię społeczną i siłę państwa w jej zapewnieniu. Chociaż chińskie podejście do regulacji dotyczących sztucznej inteligencji (AI) może nadal budzić obawy o prywatność i wolności obywatelskie – biorąc pod uwagę potencjał zastosowań AI do monitorowania i kontrolowania społeczeństwa – dowodzi ono również zdolności Pekinu do szybkiego dostosowywania się do zmian technologicznych. Pokazuje to, jak szybko chińscy decydenci są w stanie proponować, wdrażać i zmieniać przepisy regulujące AI. W porównaniu z procesami w Europie i Stanach Zjednoczonych, Chiny będą lepiej w stanie dostosować swoją politykę, aby nadążać za szybkim rozwojem AI.
Lekcja 2: Kto wygra wyścig AI?
Pham Vu Thieu Quang
Źródło
Komentarz (0)