Σε μια κίνηση που θεωρείται ότι προστατεύει την πνευματική ιδιοκτησία της εταιρείας, η OpenAI μόλις εφάρμοσε μια απαίτηση επαλήθευσης ταυτότητας από την κυβέρνηση για τους προγραμματιστές που αναζητούν πρόσβαση στα πιο προηγμένα μοντέλα Τεχνητής Νοημοσύνης (AI) της.
Η OpenAI δεν έχει απαντήσει σε αίτημα για σχολιασμό των παραπάνω πληροφοριών.
Ωστόσο, στην ανακοίνωση, ο «δημιουργός» της εφαρμογής ChatGPT εξήγησε ότι ο λόγος εισαγωγής της νέας διαδικασίας επαλήθευσης ήταν επειδή ορισμένοι προγραμματιστές χρησιμοποίησαν σκόπιμα τις διεπαφές προγραμματισμού εφαρμογών (API) της OpenAI, παραβιάζοντας έτσι την πολιτική χρήσης της εταιρείας.
Παρόλο που η εταιρεία δήλωσε επίσημα ότι ο λόγος ήταν η αποτροπή κακής χρήσης, η ενέργεια φαίνεται να πηγάζει από μια βαθύτερη ανησυχία: ότι τα αποτελέσματα των μοντέλων της OpenAI συλλέγονται από ανταγωνιστές για την εκπαίδευση των δικών τους συστημάτων τεχνητής νοημοσύνης.
Αυτό αποδεικνύεται από μια νέα μελέτη της Copyleaks, μιας εταιρείας που ειδικεύεται στην ανίχνευση περιεχομένου τεχνητής νοημοσύνης.
Χρησιμοποιώντας ένα σύστημα αναγνώρισης «δακτυλικών αποτυπωμάτων» παρόμοιο με αυτό των μεγάλων μοντέλων τεχνητής νοημοσύνης, το Copyleaks ανακάλυψε ότι περίπου το 74% της παραγωγής από το ανταγωνιστικό μοντέλο DeepSeek-R1 (Κίνα) θα μπορούσε να ταξινομηθεί ως γραμμένο από το OpenAI. Αυτό το ποσοστό δεν υποδηλώνει μόνο αντιγραφή αλλά και μίμηση.
Τα Copyleaks εξέτασαν επίσης άλλα μοντέλα τεχνητής νοημοσύνης, όπως το phi-4 της Microsoft και το Grok-1 της xAI. Τα αποτελέσματα δεν έδειξαν σχεδόν καμία ομοιότητα με το OpenAI, με ποσοστά «διαφωνίας» 99,3% και 100% αντίστοιχα. Το μοντέλο Mixtral της Mistral είχε κάποιες ομοιότητες.
Αυτή η μελέτη υπογραμμίζει ένα γεγονός: Ακόμα και όταν τα μοντέλα καλούνται να γράψουν με διαφορετικούς τόνους ή μορφές, εξακολουθούν να αφήνουν πίσω τους ανιχνεύσιμες στυλιστικές υπογραφές—παρόμοιες με τα γλωσσικά αποτυπώματα.
Αυτά τα δακτυλικά αποτυπώματα παραμένουν σε διαφορετικές εργασίες, θέματα και προτροπές και μπορούν να ανιχνευθούν μέχρι την προέλευσή τους με κάποιο βαθμό ακρίβειας.
Εν τω μεταξύ, ορισμένοι επικριτές επισημαίνουν ότι η ίδια η OpenAI δημιούργησε τα αρχικά της μοντέλα συλλέγοντας δεδομένα από τον ιστό, συμπεριλαμβανομένου περιεχομένου από εκδότες ειδήσεων, συγγραφείς και δημιουργούς — συχνά χωρίς τη συγκατάθεσή τους.
Ο Διευθύνων Σύμβουλος της Copyleaks, Άλον Γιαμίν, επεσήμανε δύο προβλήματα: την εκπαίδευση ανθρώπινων μοντέλων σε περιεχόμενο που προστατεύεται από πνευματικά δικαιώματα χωρίς άδεια και τη χρήση της εξόδου ιδιόκτητων συστημάτων τεχνητής νοημοσύνης για την εκπαίδευση ανταγωνιστικών μοντέλων – ουσιαστικά την αντίστροφη μηχανική ενός προϊόντος ανταγωνιστή.
Ο Yamin υποστηρίζει ότι ενώ και οι δύο μέθοδοι είναι ηθικά αμφιλεγόμενες, η εκπαίδευση στο αποτέλεσμα του OpenAI ενέχει ανταγωνιστικό κίνδυνο, καθώς ουσιαστικά εκμεταλλεύεται καινοτομίες που είναι δύσκολο να επιτευχθούν χωρίς τη συγκατάθεση ή την αποζημίωση του αρχικού προγραμματιστή.
Καθώς οι εταιρείες τεχνητής νοημοσύνης αγωνίζονται να δημιουργήσουν ολοένα και πιο ισχυρά μοντέλα, η συζήτηση σχετικά με το ποιος κατέχει τι και ποιος μπορεί να εκπαιδευτεί με βάση ποια δεδομένα γίνεται όλο και πιο έντονη.
Εργαλεία όπως το σύστημα ψηφιακών δακτυλικών αποτυπωμάτων της Copyleaks προσφέρουν μια πιθανή μέθοδο για την παρακολούθηση και την επαλήθευση των πνευματικών δικαιωμάτων σε μοτίβα.
Πηγή: https://www.vietnamplus.vn/openai-siet-chat-kiem-soat-de-ngan-cac-doi-thu-sao-chep-mo-hinh-tri-tue-nhan-tao-post1033664.vnp






Σχόλιο (0)