Szybki i nieoczekiwany rozwój ChatGPT – chatbota opartego na sztucznej inteligencji (AI) i oferującego zaawansowane funkcje, w pewnym stopniu zmienił życie ludzi, zwłaszcza sposób pracy. Jednak zagrożenia związane z tą technologią wzbudziły wiele obaw władz w wielu krajach, zwłaszcza w kwestii danych użytkowników.
W obliczu faktu, że na świecie nadal brakuje solidnych nowych ram prawnych umożliwiających skuteczne zarządzanie sztuczną inteligencją i gwarantujących użytkownikom wysoką niezawodność, wiele krajów zaczęło podejmować działania mające na celu regulację korzystania z ChatGPT i sztucznej inteligencji ogólnie, aby zminimalizować ryzyko, jakie niesie ze sobą ta technologia.
Wiele krajów „podejmuje działania” w zakresie sztucznej inteligencji
Włochy są w czołówce krajów podejmujących decyzję o zakazie korzystania z ChatGPT.
31 marca włoskie władze nałożyły tymczasowy zakaz na aplikację ChatGPT z powodu obaw o prywatność i braku weryfikacji użytkowników w wieku 13 lat i starszych, zgodnie z włoskimi wymogami. Jednocześnie Włochy zapowiedziały wszczęcie dochodzenia w sprawie sposobu, w jaki OpenAI wykorzystuje dane użytkowników.
Po wprowadzeniu we Włoszech zakazu korzystania z aplikacji ChatGPT wiele krajów podjęło działania przeciwko niej. (Zdjęcie: Reuters).
Włoski urząd ochrony danych osobowych wyznaczył firmie OpenAI – twórcy ChatGPT – termin do końca kwietnia na spełnienie wymogów dotyczących ochrony danych i prywatności, zanim będzie mogła wznowić normalną działalność w kraju.
Natychmiast po decyzji Włoch wiele krajów poszło w ślady tego kraju i zablokowało usługę ChatGPT ze względu na obawy dotyczące bezpieczeństwa i prywatności danych.
Francuscy i irlandzcy regulatorzy prywatności i bezpieczeństwa skontaktowali się ze swoimi włoskimi odpowiednikami, aby dowiedzieć się, na jakiej podstawie wprowadzono zakaz. Francuski organ ochrony prywatności CNIL poinformował 11 kwietnia, że bada szereg skarg dotyczących ChatGPT.
Niemiecki komisarz ds. ochrony danych osobowych stwierdził, że Berlin prawdopodobnie „pójdzie w ślady Włoch” i zablokuje ChatGPT.
Co istotne, Europejski Urząd Ochrony Danych (EROD) powołał 13 kwietnia grupę zadaniową ds. usługi ChatGPT, stwierdzając: „Państwa członkowskie EROD omówiły niedawne działania egzekucyjne włoskiego organu ochrony danych wobec OpenAI w związku z usługą ChatGPT. EROD zdecydował o utworzeniu grupy zadaniowej w celu promowania współpracy i wymiany informacji na temat możliwych działań egzekucyjnych”.
Ponadto, prawodawcy Unii Europejskiej (UE) dyskutują również nad unijną ustawą o sztucznej inteligencji (AI Act), która regulowałaby działalność każdego, kto dostarcza produkty lub usługi wykorzystujące AI, w tym systemy generujące treści, prognozy, rekomendacje lub decyzje wpływające na środowisko. UE zaproponowała również klasyfikację różnych narzędzi AI według poziomu ryzyka – od niskiego do niedopuszczalnego.
Hiszpańska agencja ochrony danych AEPD ogłosiła, że prowadzi wstępne dochodzenie w sprawie naruszeń bezpieczeństwa danych ChatGPT.
12 kwietnia australijskie Ministerstwo Nauki i Technologii ogłosiło, że rząd zwrócił się do swojego organu doradczego ds. nauki o poradę w sprawie reagowania na sztuczną inteligencję i rozważa podjęcie dalszych kroków.
Ten ruch rodzi pytania o bezpieczeństwo sztucznej inteligencji (AI) i o to, co rządy mogą zrobić, aby ograniczyć związane z nią ryzyko. Z marcowego raportu firmy konsultingowej KPMG i Australijskiego Stowarzyszenia Przemysłu Informacyjnego (Australian Information Industry Association) wynika, że dwie trzecie Australijczyków stwierdziło, że nie ma wystarczających przepisów ani regulacji zapobiegających niewłaściwemu wykorzystaniu AI, a mniej niż połowa uważa, że AI jest bezpiecznie wykorzystywana w miejscu pracy.
Wiele krajów zaczęło podejmować działania mające na celu regulację technologii sztucznej inteligencji. (Zdjęcie: Reuters).
W Wielkiej Brytanii rząd zapowiedział, że zamierza podzielić odpowiedzialność za regulację kwestii sztucznej inteligencji pomiędzy organy odpowiedzialne za prawa człowieka, zdrowie i bezpieczeństwo oraz organy ds. konkurencji, zamiast tworzyć nowy organ regulacyjny.
Niedawno lider demokratycznej większości w Senacie USA, Chuck Schumer, opracował i wydał nowe ramy regulacyjne dotyczące sztucznej inteligencji (AI), które mogą zapobiec katastrofalnym szkodom dla kraju. Propozycja pana Schumera nakłada na firmy obowiązek umożliwienia niezależnym ekspertom przeglądu i przetestowania technologii AI przed jej udostępnieniem lub aktualizacją.
Wcześniej, 11 kwietnia, Departament Handlu USA poinformował, że oczekuje publicznych komentarzy na temat środków odpowiedzialności w zakresie sztucznej inteligencji.
Tymczasem Centrum Sztucznej Inteligencji i Polityki Cyfrowej w USA zwróciło się do Komisji Handlu z prośbą o zablokowanie firmie OpenAI wydawania nowych komercyjnych wersji GPT-4, argumentując, że technologia ta jest „stronnicza, zwodnicza i stwarza zagrożenie dla prywatności i bezpieczeństwa publicznego”.
Tymczasem w Japonii minister ds. transformacji cyfrowej Taro Kono powiedział, że chciałby, aby na zbliżającym się spotkaniu ministrów ds. cyfryzacji G7, zaplanowanym na koniec kwietnia, omówiono technologie związane ze sztuczną inteligencją, w tym ChatGPT, i przekazano wspólne przesłanie G7.
Chiny niedawno ogłosiły planowane środki mające na celu regulację usług związanych ze sztuczną inteligencją. Stwierdziły, że firmy dostarczające technologię sztucznej inteligencji muszą przedstawić władzom ocenę bezpieczeństwa przed wprowadzeniem usług na rynek.
Eksperci ostrzegają przed zagrożeniami ze strony sztucznej inteligencji
Niektórzy eksperci twierdzą, że sztuczna inteligencja może doprowadzić do „katastrofy nuklearnej” (zdjęcie: Reuters).
Z ankiety przeprowadzonej na początku kwietnia przez Instytut Sztucznej Inteligencji Uniwersytetu Stanforda wynika, że 36% badaczy uważa, że sztuczna inteligencja może doprowadzić do „katastrofy nuklearnej”, co dodatkowo potwierdza obawy związane z szybkim rozwojem tej technologii.
Tymczasem 73% sztucznej inteligencji doprowadzi do „rewolucyjnej zmiany społecznej”.
W raporcie wskazano, że choć technologie te oferują możliwości, o których nie można było marzyć dekadę temu, są one również podatne na złudzenia, stronniczość i nadużycia w niecnych celach, co stwarza wyzwania etyczne dla użytkowników tych usług.
W raporcie zauważono również, że liczba „incydentów i kontrowersji” związanych ze sztuczną inteligencją wzrosła 26-krotnie w ciągu ostatniej dekady.
W zeszłym miesiącu miliarder Elon Musk i współzałożyciel Apple Steve Wozniak znaleźli się wśród tysięcy ekspertów technologicznych, którzy podpisali list wzywający do wstrzymania szkolenia systemów AI potężniejszych niż chatbot GPT-4 firmy Open AI, stwierdzając, że „potężne systemy AI powinny być rozwijane dopiero wtedy, gdy będziemy pewni, że ich wpływ będzie pozytywny, a ryzyko z nimi związane będzie możliwe do opanowania”.
Yongkang (Reuters, AL Jazeera, ABC)
Źródło
Komentarz (0)