Vietnam.vn - Nền tảng quảng bá Việt Nam

A „mesterséges intelligencia által létrehozott gyilkos robotok” veszélye fenyegeti a globális biztonságot

Công LuậnCông Luận20/07/2024

[hirdetés_1]

A mesterséges intelligencia által vezérelt gyilkos robotok használatának összetett képe

Ha a mesterséges intelligencia képessé tesz fegyverrendszerek irányítására, az azt jelentheti, hogy a célpontokat emberi beavatkozás nélkül azonosítják, támadják és megsemmisítik. Ez komoly jogi és etikai kérdéseket vet fel.

A helyzet súlyosságát hangsúlyozva Alexander Schallenberg osztrák külügyminiszter azt mondta: „Ez generációnk Oppenheimer-pillanata.”

A gyilkos robotok veszélye a globális biztonságot fenyegeti.

A mesterséges intelligenciát használó robotok és fegyverek széles körben használatba kerülnek számos ország hadseregében. Fotó: Forbes

Valóban, hogy a „dzsinn milyen mértékben szökött meg a palackból”, sürgető kérdéssé vált, mivel a drónok és a mesterséges intelligencia (MI) széles körben elterjedtek a hadseregekben világszerte .

„A drónok használata modern konfliktusokban Oroszország és Ukrajna részéről, a drónok használata az Egyesült Államok részéről célzott csapásmérő műveletekben Afganisztánban és Pakisztánban, valamint – ahogy azt a múlt hónapban nyilvánosságra hozták – Izrael Lavender programjának részeként, azt mutatja, hogy a mesterséges intelligencia információfeldolgozási képességeit a világ hadseregei aktívan használják támadó erejük fokozására” – mondta Wilson Jones, a GlobalData védelmi elemzője.

A londoni székhelyű Office of War Investigative Journalism vizsgálata kimutatta, hogy az izraeli hadsereg Lavender mesterséges intelligencia rendszere 90%-os pontossággal azonosította a Hamasszal kapcsolatban álló személyeket, ami azt jelenti, hogy 10%-uk nem. Ez civil halálesetekhez vezetett a mesterséges intelligencia azonosítási és döntéshozatali képességei miatt.

Veszély a globális biztonságra

Az MI ilyen módon történő használata hangsúlyozza a fegyverrendszerekben lévő technológia kezelésének szükségességét.

„A mesterséges intelligencia használata fegyverrendszerekben, különösen célzás esetén, alapvető kérdéseket vet fel rólunk – emberekről – és a háborúhoz fűződő kapcsolatunkról, konkrétabban pedig az erőszak fegyveres konfliktusokban történő alkalmazásával kapcsolatos feltételezéseinkről” – magyarázta Dr. Alexander Blanchard, a globális biztonsággal foglalkozó független kutatócsoport, a Stockholmi Nemzetközi Békekutató Intézet (SIPRI) Mesterséges Intelligencia Irányítása programjának vezető kutatója az Army Technologynak.

A gyilkos robotok veszélye a globális biztonságot fenyegeti.

A kaotikus környezetben használt mesterséges intelligencia rendszerek kiszámíthatatlanul viselkedhetnek, és előfordulhat, hogy nem tudják pontosan azonosítani a célpontokat. Fotó: MES

„Változtat-e a mesterséges intelligencia a célpontok kiválasztásának és az ellenük irányuló erőszak alkalmazásának módján? Ezek a változások viszont számos jogi, etikai és operatív kérdést vetnek fel. A legnagyobb aggodalmak humanitárius jellegűek” – tette hozzá Dr. Blanchard.

„Sokan aggódnak amiatt, hogy az autonóm rendszerek tervezésétől és használatától függően nagyobb veszélynek tehetik ki a civileket és a nemzetközi jog által védett másokat” – magyarázta a SIPRI szakértője. „Ez azért van, mert a mesterséges intelligencia rendszerei, különösen kaotikus környezetben használva, kiszámíthatatlanul működhetnek, és előfordulhat, hogy nem tudják pontosan azonosítani a célpontokat és megtámadni a civileket, vagy nem tudják azonosítani a harcban nem álló harcosokat.”

A kérdéssel kapcsolatban Wilson Jones, a GlobalData védelmi elemzője megjegyezte, hogy a bűnösség meghatározásának módja kérdéses lehet.

„A jelenlegi háborús jog szerint létezik a parancsnoki felelősség fogalma” – mondta Mr. Jones. „Ez azt jelenti, hogy egy tiszt, tábornok vagy más vezető jogilag felelős a parancsnoksága alatt álló csapatok tetteiért. Ha a csapatok háborús bűncselekményeket követnek el, a tiszt felelős, még akkor is, ha nem ő adta a parancsokat; a bizonyítási teher rajta van, hogy mindent megtett a háborús bűncselekmények megelőzése érdekében.”

„A mesterséges intelligenciarendszereknél ez bonyolítja a dolgokat. Egy informatikus a felelős? Egy rendszertervező? Nem világos. Ha nem világos, az erkölcsi kockázatot jelent, ha a szereplők azt hiszik, hogy cselekedeteiket nem védik a hatályos törvények” – hangsúlyozta Mr. Jones.

A gyilkos robotok veszélye a globális biztonságot fenyegeti.

Egy amerikai katona robotkutyával járőrözik. Fotó: Forbes

Fegyverzet-ellenőrzési egyezmények Számos jelentős nemzetközi megállapodás korlátozza és szabályozza a fegyverek bizonyos felhasználási módjait. Léteznek vegyi fegyverek tilalma, nukleáris fegyverek elterjedésének megakadályozásáról szóló szerződések és az Egyes Hagyományos Fegyverekről Szóló Egyezmény, amely tiltja vagy korlátozza az olyan fegyverek használatát, amelyekről úgy ítélik meg, hogy szükségtelen vagy indokolatlan szenvedést okoznak a hadviselő feleknek, vagy válogatás nélkül érintik a civileket.

„A nukleáris fegyverzetek ellenőrzése évtizedekig tartó nemzetközi együttműködést és az azt követő szerződések betartatását igényelte” – magyarázza Wilson Jones védelmi elemző. „Még akkor is folytattuk a légköri tesztelést az 1990-es évekig. A nukleáris fegyverek elterjedésének megakadályozásának egyik fő oka az Egyesült Államok és a Szovjetunió közötti együttműködés volt a bipoláris világrendben. Ez már nem létezik, és a mesterséges intelligenciát létrehozó technológia sok ország számára könnyebben elérhető, mint az atomenergia.”

„Egy kötelező érvényű szerződéshez az összes érintett szereplőt össze kellene hozni, hogy megállapodjanak abban, hogy nem használnak olyan eszközt, amely növeli katonai erejüket. Ez valószínűleg nem fog működni, mivel a mesterséges intelligencia minimális pénzügyi és anyagi költséggel javíthatja a katonai hatékonyságot.”

Jelenlegi geopolitikai kilátások

Bár az ENSZ országai elismerték a mesterséges intelligencia felelős katonai felhasználásának szükségességét, még sok a tennivaló.

„Egyértelmű szabályozási keretrendszer nélkül ezek az állítások nagyrészt vágyálmok maradnak” – mondta Laura Petrone, a GlobalData vezető elemzője az Army Technologynak. „Nem meglepő, hogy egyes országok meg akarják őrizni saját szuverenitásukat a belvédelmi és nemzetbiztonsági kérdésekben, különösen a jelenlegi geopolitikai környezetben.”

Petrone asszony hozzátette, hogy bár az uniós mesterséges intelligenciatörvény bizonyos követelményeket határoz meg a mesterséges intelligenciarendszerekkel szemben, nem foglalkozik a katonai célú mesterséges intelligenciarendszerekkel.

„Úgy gondolom, hogy e kizárás ellenére a mesterséges intelligencia törvénye fontos erőfeszítés egy régóta esedékes keretrendszer létrehozása érdekében a mesterséges intelligencia alkalmazásai számára, ami a jövőben bizonyos fokú egységességhez vezethet a vonatkozó szabványok terén” – jegyezte meg. „Ez az egységesség a katonai területen használt mesterséges intelligencia számára is fontos lesz.”

Nguyễn Khánh


[hirdetés_2]
Forrás: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html

Címke: MI fegyverek

Hozzászólás (0)

No data
No data

Ugyanebben a témában

Ugyanebben a kategóriában

Ho Si Minh-város: Színpompás Luong Nhu Hoc lámpásutcája az Őszközépi Fesztivál alkalmából
A figurák színeivel megőrizve az Őszközépi Fesztivál szellemét
Fedezze fel Vietnám egyetlen faluját, amely a világ 50 legszebb faluja között szerepel
Miért népszerűek idén a sárga csillaggal díszített piros zászlós lámpások?

Ugyanattól a szerzőtől

Örökség

Ábra

Üzleti

No videos available

Aktuális események

Politikai rendszer

Helyi

Termék