Μια ομάδα ερευνητών στη Γερμανία προειδοποίησε πρόσφατα για τον κίνδυνο μεροληψίας κατά τη χρήση chatbots τεχνητής νοημοσύνης για τη συντόμευση του ερευνητικού περιεχομένου. Αφού ανέλυσε 4.900 επιστημονικές περιλήψεις που γράφτηκαν από ανθρώπους, η ομάδα χρησιμοποίησε διάφορα μοντέλα τεχνητής νοημοσύνης για να συγκρίνει τον τρόπο με τον οποίο αυτά τα συστήματα επεξεργάζονταν τις πληροφορίες. Τα αποτελέσματα έδειξαν ότι τα περισσότερα chatbot έκαναν το λάθος να γενικεύουν υπερβολικά, ακόμη και όταν τους ζητήθηκε να συνοψίσουν με ακρίβεια.
Η Τεχνητή Νοημοσύνη είναι επιρρεπής σε προκαταλήψεις όταν συνοψίζει την επιστημονική έρευνα.
Σε δοκιμές, τα μοντέλα τεχνητής νοημοσύνης έκαναν πέντε φορές περισσότερα λάθη από τους ανθρώπινους εμπειρογνώμονες όταν δεν καθοδηγούνταν. Ακόμα και όταν ζητήθηκε ρητά η ακρίβεια, το ποσοστό σφάλματος ήταν διπλάσιο από αυτό μιας τυπικής περίληψης. «Οι γενικεύσεις μερικές φορές φαίνονται ακίνδυνες, αλλά στην πραγματικότητα αλλάζουν τη φύση της αρχικής έρευνας», δήλωσε ένα μέλος της ομάδας. «Είναι μια συστηματική προκατάληψη».
Αξίζει να σημειωθεί ότι οι νεότερες εκδόσεις του chatbot όχι μόνο δεν κατάφεραν να διορθώσουν το πρόβλημα, αλλά το επιδείνωσαν. Με την ομαλή και ελκυστική γλώσσα τους, οι περιλήψεις που δημιουργούνται από την τεχνητή νοημοσύνη μπορούν εύκολα να φαίνονται αξιόπιστες, ενώ το πραγματικό περιεχόμενο έχει παραμορφωθεί. Σε μια περίπτωση, το DeepSeek άλλαξε τη φράση «ασφαλές και μπορεί να εκτελεστεί με επιτυχία» σε «ασφαλής και αποτελεσματική θεραπεία» – μια εσφαλμένη ερμηνεία των συμπερασμάτων της αρχικής μελέτης.
Σε ένα άλλο παράδειγμα, το μοντέλο Llama συνιστούσε φαρμακευτική αγωγή για τον διαβήτη σε νέους χωρίς να προσδιορίζει τη δοσολογία, τη συχνότητα ή τις παρενέργειες. Εάν ο αναγνώστης είναι γιατρός ή επαγγελματίας υγείας που δεν επαληθεύει την αρχική έρευνα, περιλήψεις όπως αυτή μπορούν να θέσουν σε άμεσο κίνδυνο τους ασθενείς.
Οι ειδικοί λένε ότι το φαινόμενο έχει τις ρίζες του στον τρόπο με τον οποίο εκπαιδεύονται τα μοντέλα τεχνητής νοημοσύνης. Πολλά chatbot σήμερα εκπαιδεύονται σε δευτερογενή δεδομένα —όπως δημοφιλή επιστημονικά νέα— που έχουν ήδη απλοποιηθεί. Καθώς η τεχνητή νοημοσύνη συνεχίζει να συνοψίζει το συντομευμένο περιεχόμενο, ο κίνδυνος παραμόρφωσης αυξάνεται.
Οι ειδικοί στην Τεχνητή Νοημοσύνη στον τομέα της ψυχικής υγείας λένε ότι τα τεχνικά εμπόδια πρέπει να δημιουργηθούν νωρίς στην ανάπτυξη και χρήση της Τεχνητής Νοημοσύνης.
Οι χρήστες πρέπει να είναι προσεκτικοί, καθώς τα chatbots μπορούν εύκολα να παραμορφώσουν το περιεχόμενο.
Καθώς οι χρήστες βασίζονται ολοένα και περισσότερο σε chatbots τεχνητής νοημοσύνης για να μαθαίνουν για την επιστήμη, μικρά σφάλματα στην ερμηνεία μπορούν να συσσωρευτούν και να εξαπλωθούν γρήγορα, προκαλώντας εκτεταμένες παρανοήσεις. Σε μια εποχή που η εμπιστοσύνη στην επιστήμη μειώνεται, αυτός ο κίνδυνος γίνεται ακόμη πιο ανησυχητικός και χρήζει της δέουσας προσοχής.
Η ενσωμάτωση της Τεχνητής Νοημοσύνης στην έρευνα και τη διάδοση της γνώσης αποτελεί μια μη αναστρέψιμη τάση. Ωστόσο, οι ειδικοί επιβεβαιώνουν ότι η τεχνολογία δεν μπορεί να αντικαταστήσει τον ρόλο των ανθρώπων στην κατανόηση και την επαλήθευση επιστημονικού περιεχομένου. Κατά τη χρήση chatbots σε τομείς υψηλού κινδύνου, όπως η ιατρική, η ακρίβεια θα πρέπει να αποτελεί την ύψιστη προτεραιότητα, αντί να εστιάζουμε μόνο στην ομαλή γλωσσική εμπειρία ή την ταχύτητα απόκρισης.
Πηγή: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










Σχόλιο (0)