A Proceedings of the National Academy of Sciences (PNAS) tudományos folyóiratban megjelent új tanulmány szerint bár a ChatGPT-hez hasonló generatív mesterséges intelligencia segíthet a munkavállalóknak a feladatok gyorsabb és hatékonyabb elvégzésében, ennek társadalmi ára van: nagyobb valószínűséggel tekintik őket mások lustának, inkompetensnek vagy alkalmatlannak.

A társadalomtudósokból álló csapat által végzett tanulmány az attribúcióelméleten alapul – azon az elképzelésen, hogy az emberek mások cselekedeteit inkább belső motivációik vagy képességeik, mintsem a körülmények alapján értelmezik. Például a segítségkérés néha a személyes gyengeség jelének tekinthető. Hasonlóképpen, a mesterséges intelligencia használata inkább a képességek vagy az erőfeszítés hiányának tekinthető, mintsem a hatékonyság érvényes eszközének.

chatgpt adobe stock
Azokat az embereket, akik a munkahelyükön a ChatGPT-t használják, lustának és hozzá nem értőnek vádolják. Fotó: Adobe Stock

A csapat négy, több mint 4400 résztvevővel végzett kísérletben figyelemre méltó eredményeket ért el. Az első kísérletben a résztvevők elképzelték, hogy mesterséges intelligencia vagy hagyományos eszközök segítségével végeznek el egy feladatot, majd megjósolták, hogyan fogják őket megítélni kollégáik és vezetőik. Ezek az emberek attól tartottak, hogy lustának, helyettesíthetetlennek és kevésbé szorgalmasnak fogják tartani őket. Azt mondták, hogy nem akarják nyilvánosságra hozni a mesterséges intelligencia használatát.

Egy második kísérlet kimutatta, hogy ez az elfogultság valóban jelen van. A résztvevőket arra kérték, hogy értékeljenek egy hipotetikus alkalmazottat: egyet, aki mesterséges intelligenciát használ, egyet, aki segítséget kér egy munkatársától, és egyet, aki maga csinálta. A mesterséges intelligencia felhasználóit lustábbnak, kevésbé kompetensnek, kevésbé szorgalmasnak és kevésbé függetlennek tartották, mint a másik két csoportot. Figyelemre méltó módon ez a felfogás a bemutatott alkalmazott nemétől, életkorától vagy iparágától függetlenül következetes volt.

Egy harmadik kísérlet azt vizsgálta, hogy ezek az elfogultságok befolyásolják-e a tényleges döntéseket. A résztvevők egyik csoportja toborzóként játszott, és a jelölteket az alapján választotta ki, hogy a jelöltek használnak-e mesterséges intelligenciát a munkájuk során. A mesterséges intelligenciával nem ismerő toborzók csoportja általában olyan jelölteket választott, akik szintén nem használnak mesterséges intelligenciát. Ezzel szemben azok, akik gyakran használták a mesterséges intelligenciát, kényelmesebben érezték magukat, és inkább azokat a jelölteket választották, akik igen. Ez arra utal, hogy a technológiával kapcsolatos személyes tapasztalat nagy hatással van az értékelők attitűdjeire.

Egy utolsó kísérletben a csapat azt vizsgálta, hogy a konkrét munkaköri helyzetek megváltoztatják-e ezt az elfogultságot. Amikor a jelöltek digitális feladatokra, például e-mailek írására jelentkeztek, a mesterséges intelligencia felhasználóit nem tartották lustának, sőt, magasabb értékelést kaptak. Amikor azonban a jelöltek manuális feladatokra, például jegyzetelésre jelentkeztek, a mesterséges intelligencia felhasználóit továbbra is alacsonyabb értékelésnek vetették alá. Az eredmények azt mutatták, hogy a legerősebb elfogultság akkor jelentkezett, amikor a mesterséges intelligencia felhasználók olyan feladatokat végeztek, amelyekhez nem volt szükség mesterséges intelligenciára.

Érdekes módon azok a résztvevők, akik beismerték, hogy rendszeresen használják a mesterséges intelligenciát, kisebb valószínűséggel ítéltek meg negatívan másokat, ami arra utal, hogy az ismeretség és a valós tapasztalatok csökkenthetik a megbélyegzést. Jessica Reif, a Duke Egyetem Fuqua Üzleti Iskolájának doktorandusza, a tanulmány vezető szerzője elmondta, hogy a projektet azután kezdte, hogy olyan alkalmazottaktól hallott, akik aggodalmukat fejezték ki amiatt, hogy a mesterséges intelligencia használata során megítélik őket, annak ellenére, hogy munkateljesítményük nem csökkent.

A tanulmány módszertani erősségei közé tartozik a gondosan felépített kontrollhelyzetek alkalmazása. A szerző azonban elismeri a korlátait is, például azt, hogy a helyzetek inkább hipotetikusak, mintsem tényleges megfigyelések, és az értékelők nem ismerik közvetlenül az értékelt személyeket, ami egy valós munkahelyi környezetben eltérhet.

Ezek az eredmények hangsúlyozzák, hogy bár a mesterséges intelligencia (MI) hasznos eszközzé válik a termelékenység növelésében, a használatának során azt is figyelembe kell venni, hogy hogyan befolyásolja a személyes imázst és a hírnevet. A kutatási eredmények emlékeztetőül szolgálnak: ahhoz, hogy a MI valóban hatékony asszisztenssé váljon, magának a munkakörnyezetnek is meg kell változtatnia a róluk alkotott képet, elkerülve a MI-felhasználók elhamarkodott, alkalmatlannak vagy lustának bélyegzését. A munkavállalóknak pedig a technológia előnyeinek kihasználása mellett átláthatóságot is kell fenntartaniuk, miközben készségeket és személyes benyomásokat kell fejleszteniük, hogy ne „oldódjanak fel” a MI által teremtett imázsban.

(A PsyPost szerint)

A weboldalak forgalma zuhanásszerűen csökkent a ChatGPT és a mesterséges intelligencia által vezérelt keresés megjelenése óta . A ChatGPT-ről a híroldalakra irányuló forgalom növekszik, de nem elég ahhoz, hogy ellensúlyozza a forgalom csökkenését, mivel az emberek egyre inkább közvetlenül mesterséges intelligencia által vezérelt chatbotokból vagy mesterséges intelligencia által vezérelt keresési eredményekből olvasnak híreket.

Forrás: https://vietnamnet.vn/su-dung-chatgpt-trong-cong-vic-bi-danh-gia-luoi-bieng-kem-nang-luc-2422059.html