A ChatGPT – egy kiváló funkciókkal rendelkező mesterséges intelligencián (MI) alapuló chatbot – gyors és váratlan fejlődése bizonyos mértékig megváltoztatta az emberi életet, különösen a munkavégzés módját. A technológiával kapcsolatos kockázatok azonban számos aggodalmat keltettek a hatóságokban számos országban, különösen a felhasználói adatokkal kapcsolatban.
Tekintettel arra, hogy a világnak még mindig hiányzik egy szilárd új jogi keretrendszere a mesterséges intelligencia hatékony kezelésére és a felhasználók számára magas megbízhatóság biztosítására, számos ország intézkedéseket kezdett tenni a ChatGPT és általában a mesterséges intelligencia használatának szabályozására, hogy minimalizálja a technológia által jelentett kockázatokat.
Sok ország „lép” a mesterséges intelligencia segítségével
Olaszország élen jár a ChatGPT betiltásáról szóló döntés kiadásában.
Március 31-én az olasz hatóságok ideiglenesen betiltották a ChatGPT alkalmazást adatvédelmi aggályok és a 13 éves és idősebb felhasználók Olaszország által előírt ellenőrzésének elmulasztása miatt. Ugyanakkor Olaszország azt is közölte, hogy vizsgálatot indít az OpenAI felhasználói adatok felhasználásának módjával kapcsolatban.
Miután Olaszország betiltotta a ChatGPT alkalmazást, számos ország fellépett az alkalmazás ellen. (Fotó: Reuters).
Az olasz adatvédelmi hatóság április végéig adott határidőt az OpenAI-nak – a ChatGPT-t létrehozó vállalatnak –, hogy teljesítse az adatvédelmi és adatvédelmi követelményeket, mielőtt újraindítaná a normál működést az országban.
Közvetlenül Olaszország döntése után számos ország elkezdte „követni” ezt az országot a ChatGPT blokkolásában a biztonsági és adatvédelmi aggályok miatt.
A francia és ír adatvédelmi és biztonsági szabályozók felvették a kapcsolatot olasz kollégáikkal, hogy megtudják a tilalom alapját. A francia adatvédelmi felügyeleti szerv, a CNIL április 11-én közölte, hogy számos, a ChatGPT-vel kapcsolatos panaszt vizsgál.
Németország adatvédelmi biztosa szerint Berlin valószínűleg „Olaszország nyomdokaiba lép” a ChatGPT blokkolásában.
Figyelemre méltó, hogy az Európai Adatvédelmi Hatóság (EDPB) április 13-án létrehozott egy ChatGPT-vel foglalkozó munkacsoportot, amely kijelentette: „Az EDPB tagállamai megvitatták az olasz adatvédelmi hatóság OpenAI elleni, a ChatGPT szolgáltatással kapcsolatos közelmúltbeli végrehajtási intézkedését. Az EDPB úgy döntött, hogy munkacsoportot hoz létre az együttműködés előmozdítása és az információk cseréje érdekében a lehetséges végrehajtási intézkedésekkel kapcsolatban.”
Emellett az Európai Unió (EU) törvényhozói az EU MI-törvényéről is tárgyalnak, amely szabályozná mindazokat, akik MI segítségével termékeket vagy szolgáltatásokat nyújtanak, beleértve azokat a rendszereket is, amelyek tartalmakat, előrejelzéseket, ajánlásokat vagy döntéseket generálnak, amelyek hatással vannak a környezetre. Az EU azt is javasolta, hogy a különböző MI-eszközöket kockázati szintjük szerint osztályozzák, az alacsonytól az elfogadhatatlanig.
A spanyol adatvédelmi ügynökség, az AEPD bejelentette, hogy előzetes vizsgálatot folytat a ChatGPT adatvédelmi incidenseivel kapcsolatban.
Ausztráliában a Tudományos és Technológiai Minisztérium április 12-én bejelentette, hogy a kormány tanácsot kért tudományos tanácsadó testületétől a mesterséges intelligenciára adott válaszlépésekkel kapcsolatban, és fontolgatja a következő lépéseket.
A lépés kérdéseket vet fel a mesterséges intelligencia biztonságosságával és azzal kapcsolatban, hogy a kormányok mit tehetnek a kockázatok enyhítése érdekében. A KPMG tanácsadó cég és az Ausztrál Információs Ipari Szövetség márciusi jelentése szerint az ausztrálok kétharmada szerint nincsenek elegendő törvények vagy szabályozások a mesterséges intelligencia helytelen használatának megakadályozására, míg kevesebb mint a felük vélte úgy, hogy a mesterséges intelligenciát biztonságosan használják a munkahelyeken.
Sok ország intézkedéseket hozott a mesterséges intelligencia technológia szabályozására. (Fotó: Reuters).
Az Egyesült Királyságban a kormány bejelentette, hogy a mesterséges intelligencia szabályozásának felelősségét az emberi jogi, egészségügyi és biztonsági, valamint a versenyjogi szervek között kívánja megosztani, ahelyett, hogy új szabályozó hatóságot hozna létre.
A közelmúltban Chuck Schumer, az amerikai szenátus demokrata többségi vezetője új szabályozási keretet fogalmazott meg és adott ki a mesterséges intelligenciára vonatkozóan, amely megakadályozhatja az ország katasztrofális kárait. Schumer javaslata előírja, hogy a vállalatoknak engedélyezniük kell a mesterséges intelligencia technológiájának független szakértők általi felülvizsgálatát és tesztelését, mielőtt azt nyilvánosságra hozzák vagy frissítik.
Április 11-én az Egyesült Államok Kereskedelmi Minisztériuma korábban bejelentette, hogy nyilvános véleményeket kér a mesterséges intelligencia elszámoltathatósági intézkedéseiről.
Eközben az Egyesült Államok Mesterséges Intelligencia és Digitális Politika Központja (Center for Artificial Intelligence and Digital Policy) arra kérte a Kereskedelmi Bizottságot, hogy tiltsa meg az OpenAI-t a GPT-4 új kereskedelmi kiadásainak kiadásától, azzal érvelve, hogy a technológia „elfogult, megtévesztő, és kockázatot jelent a magánéletre és a közbiztonságra nézve”.
Eközben Japánban Kono Taro digitális transzformációért felelős miniszter kijelentette, hogy a G7 digitális minisztereinek április végére tervezett találkozóján a mesterséges intelligencia technológiáit, köztük a ChatGPT-t is meg akarják vitatni, és egységes G7-üzenetet szeretnének közvetíteni.
Kína nemrégiben bejelentette a mesterséges intelligencia alapú szolgáltatások szabályozására vonatkozó tervezett intézkedéseket, kijelentve, hogy a mesterséges intelligencia technológiát szállító vállalatoknak biztonsági értékeléseket kell benyújtaniuk a hatóságoknak, mielőtt piacra dobnák a szolgáltatásokat.
A szakértők a mesterséges intelligencia veszélyeire figyelmeztetnek
Egyes szakértők szerint a mesterséges intelligencia „nukleáris szintű katasztrófához” vezethet. (Fotó: Reuters).
A Stanford Egyetem Mesterséges Intelligencia Intézete által április elején közzétett felmérés szerint a kutatók 36%-a úgy véli, hogy a mesterséges intelligencia „nukleáris szintű katasztrófához” vezethet, ami tovább hangsúlyozza a technológia gyors fejlődésével kapcsolatos meglévő aggodalmakat.
Eközben a mesterséges intelligencia 73%-a „forradalmi társadalmi változáshoz” fog vezetni.
A jelentés szerint bár ezek a technológiák olyan képességeket kínálnak, amelyek egy évtizeddel ezelőtt elképzelhetetlenek lettek volna, hajlamosak az illúziókra, az elfogultságra és a rosszindulatú felhasználásra, ami etikai kihívásokat jelent a szolgáltatások felhasználói számára.
A jelentés azt is megjegyezte, hogy a mesterséges intelligenciával kapcsolatos „incidensek és viták” száma az elmúlt évtizedben 26-szorosára nőtt.
A múlt hónapban Elon Musk milliárdos és Steve Wozniak, az Apple társalapítója is azon több ezer technológiai szakértő között volt, akik aláírtak egy levelet, amelyben az Open AI GPT-4 chatbotjánál erősebb MI-rendszerek képzésének szüneteltetésére szólítottak fel, mondván, hogy „a nagy teljesítményű MI-rendszereket csak akkor szabad fejleszteni, ha biztosak vagyunk abban, hogy pozitív lesz a hatásuk, és kezelhetőek a kockázataik”.
Yongkang (Reuters, AL Jazeera, ABC)
[hirdetés_2]
Forrás
Hozzászólás (0)