Τηλέφωνο που δείχνει τη διεπαφή εκμάθησης GPT-o1 του OpenAI - Φωτογραφία: FINANCIAL TIMES
Σύμφωνα με τους Financial Times στις 13 Σεπτεμβρίου, η εταιρεία OpenAI παραδέχτηκε ότι το μοντέλο GPT-o1, το οποίο μόλις κυκλοφόρησε στις 12 Σεπτεμβρίου, αυξάνει «σημαντικά» τον κίνδυνο εκμετάλλευσης της τεχνητής νοημοσύνης (AI) για τη δημιουργία βιολογικών όπλων.
Ένα έγγραφο που εξηγεί τον τρόπο λειτουργίας του GPT-o1, το οποίο δημοσιεύτηκε από την OpenAI, αναφέρει ότι το νέο μοντέλο έχει «μέτριο επίπεδο κινδύνου» για ζητήματα που σχετίζονται με χημικά, βιολογικά, ραδιολογικά και πυρηνικά όπλα. Αυτό είναι το υψηλότερο επίπεδο κινδύνου που έχει αναθέσει ποτέ η OpenAI στα μοντέλα τεχνητής νοημοσύνης της.
Σύμφωνα με το OpenAI, αυτό σημαίνει ότι το GPT-o1 θα μπορούσε να «βελτιώσει δραματικά» την ικανότητα των ειδικών που θέλουν να το καταχραστούν για να δημιουργήσουν βιολογικά όπλα.
Η Mira Murati, επικεφαλής τεχνολογίας (CTO) της OpenAI, δήλωσε ότι παρόλο που το GPT-o1 βρίσκεται ακόμη σε φάση δοκιμών, οι προηγμένες δυνατότητες του μοντέλου εξακολουθούν να αναγκάζουν την εταιρεία να είναι εξαιρετικά «επιφυλακτική» σχετικά με το χρονοδιάγραμμά της προς το κοινό.
Η κα Murati επιβεβαίωσε επίσης ότι το μοντέλο είχε δοκιμαστεί διεξοδικά από μια διεπιστημονική ομάδα εμπειρογνωμόνων που προσέλαβε η OpenAI για να ελέγξουν τα όρια του μοντέλου που ανέπτυξε η εταιρεία.
Η διαδικασία δοκιμών έδειξε ότι το μοντέλο GPT-o1 πληροί τα γενικά κριτήρια ασφαλείας πολύ καλύτερα από τους προκατόχους του, ανέφερε η κα Murati.
Χωρίς να σταματήσουν εκεί, οι εκπρόσωποι της OpenAI διαβεβαίωσαν επίσης ότι η δοκιμαστική έκδοση του GPT-o1 είναι «ασφαλής για ανάπτυξη» και δεν μπορεί να δημιουργήσει πιο σύνθετους κινδύνους από τις ανεπτυγμένες τεχνολογίες.
Παρά τις παραπάνω διαβεβαιώσεις, ένα μεγάλο μέρος της επιστημονικής κοινότητας και όσων ενδιαφέρονται για την Τεχνητή Νοημοσύνη εξακολουθούν να μην είναι πολύ αισιόδοξοι για την κατεύθυνση ανάπτυξης αυτής της τεχνολογίας.
Οι ανησυχίες ότι η Τεχνητή Νοημοσύνη αναπτύσσεται πολύ γρήγορα και ξεπερνά την ανάπτυξη και την έγκριση κανονισμών που τη διέπουν αυξάνονται.
Ο καθηγητής Γιόσουα Μπέντζιο, πτυχιούχος πληροφορικής στο Πανεπιστήμιο του Μόντρεαλ και ένας από τους κορυφαίους επιστήμονες τεχνητής νοημοσύνης στον κόσμο , δήλωσε ότι αν η OpenAI ενέχει πλέον «μέτριο κίνδυνο» χημικών και βιολογικών όπλων, «αυτό ενισχύει μόνο τη σημασία και τον επείγοντα χαρακτήρα» των νόμων, όπως αυτός που συζητείται έντονα στην Καλιφόρνια για τη ρύθμιση του τομέα.
Αυτός ο επιστήμονας τόνισε ότι οι παραπάνω θεσμοί είναι ιδιαίτερα απαραίτητοι στο πλαίσιο της Τεχνητής Νοημοσύνης (ΤΝ) που πλησιάζει ολοένα και περισσότερο το επίπεδο της Τεχνητής Γενικής Νοημοσύνης (ΤΓΝ), που σημαίνει ότι έχει την ικανότητα να συλλογίζεται στο ίδιο επίπεδο με τους ανθρώπους.
«Όσο πιο κοντά πλησιάζουν τα πρωτοποριακά μοντέλα Τεχνητής Νοημοσύνης στην Τεχνητή Νοημοσύνη (AGI), τόσο περισσότεροι θα αυξάνονται οι κίνδυνοι εάν δεν ληφθούν τα κατάλληλα μέτρα προφύλαξης. Η βελτιωμένη ικανότητα συλλογισμού της Τεχνητής Νοημοσύνης και η χρήση της για απάτη είναι εξαιρετικά επικίνδυνες», εκτίμησε ο κ. Μπέντζιο.
[διαφήμιση_2]
Πηγή: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
Σχόλιο (0)