Vietnam.vn - Nền tảng quảng bá Việt Nam

Νέα Τεχνητή Νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για τη δημιουργία βιολογικών όπλων

Báo Tuổi TrẻBáo Tuổi Trẻ14/09/2024

[διαφήμιση_1]
OpenAI thừa nhận AI mới có thể bị dùng để chế vũ khí sinh học - Ảnh 1.

Τηλέφωνο που δείχνει τη διεπαφή εκμάθησης GPT-o1 του OpenAI - Φωτογραφία: FINANCIAL TIMES

Σύμφωνα με τους Financial Times στις 13 Σεπτεμβρίου, η εταιρεία OpenAI παραδέχτηκε ότι το μοντέλο GPT-o1, το οποίο μόλις κυκλοφόρησε στις 12 Σεπτεμβρίου, αυξάνει «σημαντικά» τον κίνδυνο εκμετάλλευσης της τεχνητής νοημοσύνης (AI) για τη δημιουργία βιολογικών όπλων.

Ένα έγγραφο που εξηγεί τον τρόπο λειτουργίας του GPT-o1, το οποίο δημοσιεύτηκε από την OpenAI, αναφέρει ότι το νέο μοντέλο έχει «μέτριο επίπεδο κινδύνου» για ζητήματα που σχετίζονται με χημικά, βιολογικά, ραδιολογικά και πυρηνικά όπλα. Αυτό είναι το υψηλότερο επίπεδο κινδύνου που έχει αναθέσει ποτέ η OpenAI στα μοντέλα τεχνητής νοημοσύνης της.

Σύμφωνα με το OpenAI, αυτό σημαίνει ότι το GPT-o1 θα μπορούσε να «βελτιώσει δραματικά» την ικανότητα των ειδικών που θέλουν να το καταχραστούν για να δημιουργήσουν βιολογικά όπλα.

Η Mira Murati, επικεφαλής τεχνολογίας (CTO) της OpenAI, δήλωσε ότι παρόλο που το GPT-o1 βρίσκεται ακόμη σε φάση δοκιμών, οι προηγμένες δυνατότητες του μοντέλου εξακολουθούν να αναγκάζουν την εταιρεία να είναι εξαιρετικά «επιφυλακτική» σχετικά με το χρονοδιάγραμμά της προς το κοινό.

Η κα Murati επιβεβαίωσε επίσης ότι το μοντέλο είχε δοκιμαστεί διεξοδικά από μια διεπιστημονική ομάδα εμπειρογνωμόνων που προσέλαβε η OpenAI για να ελέγξουν τα όρια του μοντέλου που ανέπτυξε η εταιρεία.

Η διαδικασία δοκιμών έδειξε ότι το μοντέλο GPT-o1 πληροί τα γενικά κριτήρια ασφαλείας πολύ καλύτερα από τους προκατόχους του, ανέφερε η κα Murati.

Χωρίς να σταματήσουν εκεί, οι εκπρόσωποι της OpenAI διαβεβαίωσαν επίσης ότι η δοκιμαστική έκδοση του GPT-o1 είναι «ασφαλής για ανάπτυξη» και δεν μπορεί να δημιουργήσει πιο σύνθετους κινδύνους από τις ανεπτυγμένες τεχνολογίες.

Παρά τις παραπάνω διαβεβαιώσεις, ένα μεγάλο μέρος της επιστημονικής κοινότητας και όσων ενδιαφέρονται για την Τεχνητή Νοημοσύνη εξακολουθούν να μην είναι πολύ αισιόδοξοι για την κατεύθυνση ανάπτυξης αυτής της τεχνολογίας.

Οι ανησυχίες ότι η Τεχνητή Νοημοσύνη αναπτύσσεται πολύ γρήγορα και ξεπερνά την ανάπτυξη και την έγκριση κανονισμών που τη διέπουν αυξάνονται.

Ο καθηγητής Γιόσουα Μπέντζιο, πτυχιούχος πληροφορικής στο Πανεπιστήμιο του Μόντρεαλ και ένας από τους κορυφαίους επιστήμονες τεχνητής νοημοσύνης στον κόσμο , δήλωσε ότι αν η OpenAI ενέχει πλέον «μέτριο κίνδυνο» χημικών και βιολογικών όπλων, «αυτό ενισχύει μόνο τη σημασία και τον επείγοντα χαρακτήρα» των νόμων, όπως αυτός που συζητείται έντονα στην Καλιφόρνια για τη ρύθμιση του τομέα.

Αυτός ο επιστήμονας τόνισε ότι οι παραπάνω θεσμοί είναι ιδιαίτερα απαραίτητοι στο πλαίσιο της Τεχνητής Νοημοσύνης (ΤΝ) που πλησιάζει ολοένα και περισσότερο το επίπεδο της Τεχνητής Γενικής Νοημοσύνης (ΤΓΝ), που σημαίνει ότι έχει την ικανότητα να συλλογίζεται στο ίδιο επίπεδο με τους ανθρώπους.

«Όσο πιο κοντά πλησιάζουν τα πρωτοποριακά μοντέλα Τεχνητής Νοημοσύνης στην Τεχνητή Νοημοσύνη (AGI), τόσο περισσότεροι θα αυξάνονται οι κίνδυνοι εάν δεν ληφθούν τα κατάλληλα μέτρα προφύλαξης. Η βελτιωμένη ικανότητα συλλογισμού της Τεχνητής Νοημοσύνης και η χρήση της για απάτη είναι εξαιρετικά επικίνδυνες», εκτίμησε ο κ. Μπέντζιο.


[διαφήμιση_2]
Πηγή: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm

Σχόλιο (0)

No data
No data

Στο ίδιο θέμα

Στην ίδια κατηγορία

Ο G-Dragon ξεσήκωσε το κοινό κατά τη διάρκεια της εμφάνισής του στο Βιετνάμ
Γυναίκα θαυμαστής φορεί νυφικό σε συναυλία των G-Dragon στο Hung Yen
Γοητευμένος από την ομορφιά του χωριού Lo Lo Chai στην εποχή των λουλουδιών του φαγόπυρου
Το νεαρό ρύζι Me Tri καίγεται, σφύζει από τον ρυθμό του χτυπήματος του γουδοχεριού για τη νέα σοδειά.

Από τον ίδιο συγγραφέα

Κληρονομία

Εικόνα

Επιχείρηση

Το νεαρό ρύζι Me Tri καίγεται, σφύζει από τον ρυθμό του χτυπήματος του γουδοχεριού για τη νέα σοδειά.

Τρέχοντα γεγονότα

Πολιτικό Σύστημα

Τοπικός

Προϊόν