Egy neves nemzetközi szakértőkből álló csoport a múlt héten Pekingben találkozott, ahol meghatározták a mesterséges intelligencia fejlesztésében rejlő „vörös vonalakat”, beleértve a biofegyverek létrehozását és a kibertámadások végrehajtását.
A találkozót követő napokban kiadott közleményükben az akadémikusok arra figyelmeztettek, hogy a mesterséges intelligencia biztonságával kapcsolatos közös megközelítésre van szükség ahhoz, hogy megelőzzük az „emberiséget fenyegető katasztrofális vagy akár egzisztenciális kockázatokat életünk során”.
„A hidegháború tetőpontján a nemzetközi kormányzati és tudományos együttműködés segített megelőzni a nukleáris katasztrófát. Az emberiségnek ismét együtt kell működnie a példátlan technológia által okozott katasztrófa megelőzése érdekében” – áll a közleményben.
A pekingi mesterséges intelligencia biztonságáról szóló nemzetközi párbeszéd szakértői „vörös vonalakat” azonosítottak a mesterséges intelligencia fejlesztésében. Fotó: FT
Az aláírók között van Geoffrey Hinton és Yoshua Bengio, akiket gyakran a mesterséges intelligencia „atyjaiként” emlegetnek; Stuart Russell, a Kaliforniai Egyetem számítástechnika professzora; és Andrew Yao, Kína egyik legkiemelkedőbb számítógéptudósa.
A nyilatkozat a múlt héten Pekingben megrendezett Nemzetközi Mesterséges Intelligencia Biztonsági Párbeszéd után érkezett, amelyen kínai kormánytisztviselők vettek részt, hogy kifejezzék jóváhagyásukat a fórummal és annak eredményeivel kapcsolatban.
Joe Biden amerikai elnök és Hszi Csin-ping kínai elnök tavaly novemberben találkozott, hogy megvitassák a mesterséges intelligencia biztonságát, és megállapodtak abban, hogy párbeszédet kezdeményeznek a kérdésben. A vezető globális mesterséges intelligencia cégek az elmúlt hónapokban négyszemközt is találkoztak kínai MI-szakértőkkel.
2023 novemberében 28 ország, köztük Kína, és vezető mesterséges intelligencia-vállalatok állapodtak meg abban, hogy Rishi Sunak, az Egyesült Királyság pénzügyminisztere által vezetett mesterséges intelligencia-biztonsági csúcstalálkozón széles körű kötelezettségvállalást tesznek a fejlett mesterséges intelligenciából eredő egzisztenciális kockázatok kezelésére irányuló együttműködésre.
A múlt héten Pekingben szakértők vitatták meg a „mesterséges általános intelligencia – AGI” vagyis az emberrel egyenértékű vagy annál jobb MI-rendszerek fejlesztésével kapcsolatos fenyegetéseket.
„A vita középpontjában azok a vörös vonalak álltak, amelyeket egyetlen nagy teljesítményű mesterséges intelligenciarendszernek sem szabad átlépnie, és amelyeket a világ kormányainak meg kell húzniuk a mesterséges intelligencia fejlesztése és alkalmazása során” – mondta Bengio.
Ezek a vörös vonalak biztosítanák, hogy „egyetlen mesterséges intelligenciarendszer sem tudja magát replikálni vagy fejleszteni kifejezett emberi beleegyezés és támogatás nélkül”, illetve „olyan lépéseket tenni, amelyek indokolatlanul növelik hatalmát és befolyását”.
A tudósok hozzátették, hogy egyetlen rendszer sem „növelné jelentősen a szereplők azon képességét, hogy tömegpusztító fegyvereket tervezzenek, megsértsék a biológiai vagy vegyi fegyverekről szóló egyezményt”, vagy hogy „automatikusan olyan kibertámadásokat hajtsanak végre, amelyek súlyos pénzügyi veszteséget vagy azzal egyenértékű kárt okoznak”.
Hoang Hai (az FT szerint)
[hirdetés_2]
Forrás






Hozzászólás (0)