Egy német kutatócsoport nemrégiben figyelmeztetett az elfogultság kockázatára, amikor mesterséges intelligenciával működő chatbotokat használnak a kutatási tartalom lerövidítésére. Miután 4900, emberek által írt tudományos absztraktot elemeztek, a csapat számos mesterséges intelligencia modellt használt annak összehasonlítására, hogy ezek a rendszerek hogyan dolgozzák fel az információkat. Az eredmények azt mutatták, hogy a legtöbb chatbot elkövette azt a hibát, hogy túláltalánosított, még akkor is, amikor pontos összefoglalásra kérték őket.
A mesterséges intelligencia hajlamos az elfogultságra a tudományos kutatások összefoglalásakor.
A tesztek során a mesterséges intelligencia modelljei ötször több hibát követtek el, mint az emberi szakértők, ha nem kaptak útmutatást. Még akkor is, amikor kifejezetten kérték a pontosságot, a hibaszázalék kétszer olyan magas volt, mint egy standard összefoglalás esetében. „Az általánosítások néha ártalmatlannak tűnnek, de valójában megváltoztatják az eredeti kutatás jellegét” – mondta a csapat egyik tagja. „Ez egy szisztematikus torzítás.”
Figyelemre méltó, hogy a chatbot újabb verziói nemcsak hogy nem oldották meg a problémát, hanem valójában súlyosbították azt. Gördülékeny és lebilincselő nyelvezetükkel a mesterséges intelligencia által generált összefoglalók könnyen hihetőnek tűnhetnek, miközben a tényleges tartalom torzított. Egy esetben a DeepSeek a „biztonságos és sikeresen elvégezhető” kifejezést „biztonságos és hatékony kezelés”-re változtatta – ami az eredeti tanulmány következtetéseinek félreértelmezése.
Egy másik példában a Llama modell cukorbetegség elleni gyógyszert ajánlott fiataloknak anélkül, hogy meghatározta volna az adagolást, a gyakoriságot vagy a mellékhatásokat. Ha az olvasó orvos vagy egészségügyi szakember, aki nem ellenőrzi az eredeti kutatást, az ilyen összefoglalók közvetlen kockázatot jelenthetnek a betegek számára.
A szakértők szerint a jelenség gyökere a mesterséges intelligencia modelljeinek betanításában rejlik. Sok ma már chatbotot másodlagos adatokon – például népszerű tudományos híreken – képeznek, amelyeket már leegyszerűsítettek. Ahogy a mesterséges intelligencia továbbra is összefoglalja a rövidített tartalmat, a torzítás kockázata növekszik.
A mentális egészség területén dolgozó mesterséges intelligencia szakértői szerint a technikai akadályokat a mesterséges intelligencia fejlesztésének és használatának korai szakaszában kell felépíteni.
A felhasználóknak óvatosnak kell lenniük, mivel a chatbotok könnyen torzíthatják a tartalmat.
Mivel a felhasználók egyre inkább mesterséges intelligencián alapuló chatbotokra támaszkodnak a tudomány megismerésében, az apró értelmezési hibák gyorsan felhalmozódhatnak és terjedhetnek, széles körű tévhiteket okozva. Egy olyan időszakban, amikor a tudományba vetett bizalom csökken, ez a kockázat még aggasztóbbá válik, és kellő figyelmet érdemel.
A mesterséges intelligencia integrálása a kutatásba és a tudás terjesztésében visszafordíthatatlan tendencia. A szakértők azonban megerősítik, hogy a technológia nem helyettesítheti az emberek szerepét a tudományos tartalmak megértésében és ellenőrzésében. Amikor chatbotokat használnak olyan magas kockázatú területeken, mint az orvostudomány, a pontosságnak kell az elsődleges szempontnak lennie, ahelyett, hogy csak a gördülékeny nyelvi élményre vagy a válaszadási sebességre koncentrálnának.
Forrás: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










Hozzászólás (0)