Ein Forschungsteam für künstliche Intelligenz (KI) an der Polytechnischen Universität Valencia, Spanien, hat herausgefunden, dass große Sprachmodelle mit zunehmender Größe und Komplexität seltener zugeben, die Antwort nicht zu kennen.
| Je intelligenter die KI, desto unwahrscheinlicher ist es, dass sie den Nutzern gegenüber zugibt, die Antwort nicht zu kennen. (KI-Illustration) |
In einer in der Fachzeitschrift Nature veröffentlichten Studie testete das Team die neuesten Versionen von drei der beliebtesten KI-Chatbots hinsichtlich Reaktionsfähigkeit, Genauigkeit und der Fähigkeit der Benutzer, falsche Antworten zu erkennen.
Um die Genauigkeit der drei beliebtesten Lernmanagementsysteme (LLMs) BLOOM, LLaMA und GPT zu testen, stellte das Team Tausende von Fragen und verglich die Antworten mit früheren Versionen derselben Fragen. Dabei variierten sie auch die Themenbereiche (Mathematik, Naturwissenschaften , Textaufgaben und Geografie) sowie die Fähigkeit, Texte zu generieren oder Aktionen wie das Sortieren von Listen durchzuführen.
Die Studie förderte einige bemerkenswerte Trends zutage. Die allgemeine Genauigkeit der Chatbots verbesserte sich zwar mit jeder neuen Version, nahm aber bei komplexeren Fragen weiterhin ab. Überraschenderweise neigten die Sprachlernprogramme mit zunehmender Größe und Komplexität dazu, weniger offen über ihre Fähigkeit zu sprechen, Fragen korrekt zu beantworten.
Frühere Versionen der Lernmanagementsysteme (LMS) informierten die Nutzer in der Regel offen, wenn sie keine Antwort fanden oder weitere Informationen benötigten. Neuere Versionen hingegen neigen eher dazu, zu raten, was insgesamt zu mehr Antworten führt – sowohl richtigen als auch falschen. Noch besorgniserregender ist, dass die Studie ergab, dass alle LMS selbst bei einfachen Fragen gelegentlich falsche Antworten gaben. Dies deutet darauf hin, dass ihre Zuverlässigkeit weiterhin verbesserungsbedürftig ist.
Diese Erkenntnisse verdeutlichen ein Paradoxon in der Entwicklung der KI: Während die Modelle immer leistungsfähiger werden, werden sie möglicherweise auch immer weniger transparent hinsichtlich ihrer Grenzen.
Dies stellt neue Herausforderungen an die Nutzung und das Vertrauen in KI-Systeme dar und erfordert von den Nutzern mehr Vorsicht und von den Entwicklern, sich nicht nur auf die Verbesserung der Genauigkeit, sondern auch des „Selbstbewusstseins“ der Modelle zu konzentrieren.
Quelle: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html






Kommentar (0)