Un grup de cercetători din Germania a avertizat recent cu privire la riscul de prejudecată atunci când se utilizează chatboți cu inteligență artificială pentru a scurta conținutul cercetărilor. După ce au analizat 4.900 de rezumate științifice scrise de oameni, echipa a folosit mai multe modele de inteligență artificială pentru a compara modul în care aceste sisteme au procesat informațiile. Rezultatele au arătat că majoritatea chatboților au făcut greșeala de a generaliza excesiv, chiar și atunci când li s-a cerut să rezume cu exactitate.
IA este predispusă la părtinire atunci când rezumă cercetările științifice.
În teste, modelele de inteligență artificială au făcut de cinci ori mai multe greșeli decât experții umani atunci când nu au fost ghidate. Chiar și atunci când li s-a cerut în mod explicit acuratețea, rata de eroare a fost de două ori mai mare decât cea a unui rezumat standard. „Generalizările par uneori inofensive, dar, de fapt, schimbă natura cercetării inițiale”, a spus unul dintre membrii echipei. „Este o prejudecată sistematică.”
În mod special, versiunile mai noi ale chatbot-ului nu numai că nu au reușit să rezolve problema, ci chiar au exacerbat-o. Cu limbajul lor fluid și captivant, rezumatele generate de inteligența artificială pot părea ușor credibile, în timp ce conținutul real a fost distorsionat. Într-un caz, DeepSeek a schimbat sintagma „sigur și poate fi efectuat cu succes” în „tratament sigur și eficient” - o interpretare greșită a concluziilor studiului inițial.
Într-un alt exemplu, modelul Llama a recomandat medicamente pentru diabet pentru tineri, fără a specifica doza, frecvența sau efectele secundare. Dacă cititorul este un medic sau un profesionist din domeniul sănătății care nu verifică cercetarea originală, astfel de rezumate pot reprezenta un risc direct pentru pacienți.
Experții spun că fenomenul își are rădăcinile în modul în care sunt antrenate modelele de inteligență artificială. Mulți chatboți de astăzi sunt antrenați pe baza unor date secundare - cum ar fi știrile științifice populare - care au fost deja simplificate. Pe măsură ce inteligența artificială continuă să rezume conținutul prescurtat, riscul de distorsiune crește.
Experții în inteligență artificială în domeniul sănătății mintale spun că barierele tehnice trebuie construite încă de la începutul dezvoltării și utilizării inteligenței artificiale.
Utilizatorii trebuie să fie atenți, deoarece chatboții pot distorsiona cu ușurință conținutul.
Pe măsură ce utilizatorii se bazează din ce în ce mai mult pe chatboții cu inteligență artificială pentru a învăța despre știință, mici erori de interpretare se pot acumula și răspândi rapid, provocând percepții greșite pe scară largă. Într-un moment în care încrederea în știință este în scădere, acest risc devine și mai îngrijorător și merită atenția cuvenită.
Integrarea inteligenței artificiale în cercetare și diseminarea cunoștințelor este o tendință ireversibilă. Cu toate acestea, experții afirmă că tehnologia nu poate înlocui rolul oamenilor în înțelegerea și verificarea conținutului științific. Atunci când se utilizează chatbot-uri în domenii cu risc ridicat, cum ar fi medicina, acuratețea ar trebui să fie prioritatea principală, în loc să se concentreze doar pe o experiență lingvistică fluidă sau pe viteza de răspuns.
Sursă: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










Comentariu (0)