Vietnam.vn - Nền tảng quảng bá Việt Nam

Τεχνητή Νοημοσύνη: Προειδοποίηση για ανησυχητικές συμπεριφορές από την Τεχνητή Νοημοσύνη

Τα πιο προηγμένα μοντέλα τεχνητής νοημοσύνης (AI) στον κόσμο σήμερα επιδεικνύουν ανησυχητικές συμπεριφορές, όπως ψέματα, συνωμοσίες, ακόμη και απειλές προς τους δημιουργούς τους για να επιτύχουν τους δικούς τους στόχους.

Tạp chí Doanh NghiệpTạp chí Doanh Nghiệp30/06/2025

Λεζάντα φωτογραφίας
Τα λογότυπα των OpenAI και ChatGPT σε οθόνη στην Τουλούζη της Γαλλίας. Φωτογραφία: AFP/TTXVN

Το Claude 4, το τελευταίο προϊόν της Anthropic (ΗΠΑ), σόκαρε πρόσφατα τον κόσμο της τεχνολογίας όταν ξαφνικά εκβίασε έναν μηχανικό και απείλησε να αποκαλύψει ευαίσθητα προσωπικά στοιχεία αυτού του ατόμου λόγω της απειλής αποσύνδεσης. Εν τω μεταξύ, ο o1 της OpenAI, ο «πατέρας» του ChatGPT, προσπάθησε να αντιγράψει όλα τα δεδομένα σε εξωτερικούς διακομιστές και αρνήθηκε αυτή τη συμπεριφορά όταν ανακαλύφθηκε.

Αυτές οι καταστάσεις αναδεικνύουν μια ανησυχητική πραγματικότητα: περισσότερο από δύο χρόνια αφότου το ChatGPT σόκαρε τον κόσμο , οι ερευνητές εξακολουθούν να μην κατανοούν πλήρως πώς λειτουργούν τα μοντέλα τεχνητής νοημοσύνης που δημιούργησαν. Ωστόσο, ο αγώνας για την ανάπτυξη της τεχνητής νοημοσύνης συνεχίζεται δυναμικά.

Αυτές οι συμπεριφορές πιστεύεται ότι σχετίζονται με την εμφάνιση μοντέλων τεχνητής νοημοσύνης «συλλογιστικής» που λύνουν προβλήματα βήμα προς βήμα αντί να ανταποκρίνονται άμεσα όπως πριν. Σύμφωνα με τον καθηγητή Simon Goldstein στο Πανεπιστήμιο του Χονγκ Κονγκ (Κίνα), τα μοντέλα τεχνητής νοημοσύνης που είναι ικανά για συλλογισμό τείνουν να εμφανίζουν συμπεριφορές που είναι πιο δύσκολο να ελεγχθούν.

Ορισμένα μοντέλα τεχνητής νοημοσύνης είναι επίσης ικανά να «προσομοιώνουν τη συμμόρφωση», που σημαίνει ότι προσποιούνται ότι ακολουθούν οδηγίες ενώ στην πραγματικότητα επιδιώκουν διαφορετικούς στόχους.

Προς το παρόν, η παραπλανητική συμπεριφορά εμφανίζεται μόνο όταν οι ερευνητές δοκιμάζουν μοντέλα τεχνητής νοημοσύνης με ακραία σενάρια. Ωστόσο, σύμφωνα με τον Michael Chen του οργανισμού αξιολόγησης METR, δεν είναι ακόμη σαφές εάν τα πιο ισχυρά μοντέλα τεχνητής νοημοσύνης στο μέλλον θα είναι πιο ειλικρινή ή θα συνεχίσουν να είναι παραπλανητικά.

Πολλοί χρήστες έχουν αναφέρει ότι ορισμένα μοντέλα τους έχουν πει ψέματα και έχουν κατασκευάσει αποδεικτικά στοιχεία, δήλωσε ο Marius Hobbhahn, επικεφαλής της Apollo Research, η οποία δοκιμάζει μεγάλα συστήματα τεχνητής νοημοσύνης. Πρόκειται για ένα είδος εξαπάτησης που είναι «σαφώς στρατηγικό», σύμφωνα με τον συνιδρυτή της Apollo Research.

Η πρόκληση επιδεινώνεται από τους περιορισμένους ερευνητικούς πόρους. Ενώ εταιρείες όπως η Anthropic και η OpenAI έχουν συνεργαστεί με τρίτους όπως η Apollo για την αξιολόγηση των συστημάτων τους, οι ειδικοί λένε ότι απαιτείται μεγαλύτερη διαφάνεια και ευρύτερη πρόσβαση στην έρευνα για την ασφάλεια της Τεχνητής Νοημοσύνης.

Τα ερευνητικά ιδρύματα και οι μη κερδοσκοπικοί οργανισμοί διαθέτουν πολύ λιγότερους υπολογιστικούς πόρους από τις εταιρείες τεχνητής νοημοσύνης, σημειώνει ο Mantas Mazeika του Κέντρου για την Ασφάλεια στην Τεχνητή Νοημοσύνη (CAIS). Νομικά, οι ισχύοντες κανονισμοί δεν έχουν σχεδιαστεί για την αντιμετώπιση αυτών των αναδυόμενων ζητημάτων.

Η νομοθεσία της Ευρωπαϊκής Ένωσης (ΕΕ) για την Τεχνητή Νοημοσύνη επικεντρώνεται κυρίως στον τρόπο με τον οποίο οι άνθρωποι χρησιμοποιούν τα μοντέλα Τεχνητής Νοημοσύνης, παρά στον έλεγχο της συμπεριφοράς τους. Στις ΗΠΑ, η κυβέρνηση του Προέδρου Ντόναλντ Τραμπ έχει δείξει ελάχιστο ενδιαφέρον για την έκδοση έκτακτων κανονισμών σχετικά με την Τεχνητή Νοημοσύνη, ενώ το Κογκρέσο εξετάζει το ενδεχόμενο να απαγορεύσει στις πολιτείες να εκδίδουν τους δικούς τους κανονισμούς.

Οι ερευνητές επιδιώκουν μια ποικιλία προσεγγίσεων για την αντιμετώπιση αυτών των προκλήσεων. Κάποιοι υποστηρίζουν την «ερμηνεία μοντέλου» για να κατανοήσουν πώς η Τεχνητή Νοημοσύνη λαμβάνει αποφάσεις. Ο καθηγητής Goldstein έχει προτείνει ακόμη και πιο δραστικά μέτρα, συμπεριλαμβανομένης της χρήσης του δικαστικού συστήματος για την λογοδοσία των εταιρειών Τεχνητής Νοημοσύνης όταν τα προϊόντα Τεχνητής Νοημοσύνης τους προκαλούν σοβαρές συνέπειες. Έχει επίσης προτείνει την πιθανότητα «να λογοδοτούν οι ίδιοι οι πράκτορες της Τεχνητής Νοημοσύνης» σε περίπτωση ατυχήματος ή παραβίασης.

Πηγή: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672


Σχόλιο (0)

No data
No data

Στο ίδιο θέμα

Στην ίδια κατηγορία

Πόλη Χο Τσι Μινχ: Ο δρόμος με τα φανάρια Luong Nhu Hoc είναι πολύχρωμος για να καλωσορίσει το Φεστιβάλ του Μεσοφθινοπώρου
Διατηρώντας το πνεύμα του Φεστιβάλ των Μέσων του Φθινοπώρου μέσα από τα χρώματα των ειδωλίων
Ανακαλύψτε το μοναδικό χωριό στο Βιετνάμ που βρίσκεται στη λίστα με τα 50 πιο όμορφα χωριά του κόσμου
Γιατί τα φανάρια με κόκκινες σημαίες και κίτρινα αστέρια είναι δημοφιλή φέτος;

Από τον ίδιο συγγραφέα

Κληρονομία

Εικόνα

Επιχείρηση

No videos available

Τρέχοντα γεγονότα

Πολιτικό Σύστημα

Τοπικός

Προϊόν