Vietnam.vn - Nền tảng quảng bá Việt Nam

Νέα Τεχνητή Νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για τη δημιουργία βιολογικών όπλων

Báo Tuổi TrẻBáo Tuổi Trẻ14/09/2024

[διαφήμιση_1]
OpenAI thừa nhận AI mới có thể bị dùng để chế vũ khí sinh học - Ảnh 1.

Τηλέφωνο που δείχνει τη διεπαφή εκμάθησης GPT-o1 του OpenAI - Φωτογραφία: FINANCIAL TIMES

Σύμφωνα με τους Financial Times στις 13 Σεπτεμβρίου, η εταιρεία OpenAI παραδέχτηκε ότι το μοντέλο GPT-o1, το οποίο μόλις κυκλοφόρησε στις 12 Σεπτεμβρίου, αυξάνει «σημαντικά» τον κίνδυνο εκμετάλλευσης της τεχνητής νοημοσύνης (AI) για τη δημιουργία βιολογικών όπλων.

Ένα έγγραφο που εξηγεί τον τρόπο λειτουργίας του GPT-o1, το οποίο δημοσιεύτηκε από την OpenAI, αναφέρει ότι το νέο μοντέλο έχει «μέτριο επίπεδο κινδύνου» για ζητήματα που σχετίζονται με χημικά, βιολογικά, ραδιολογικά και πυρηνικά όπλα. Αυτό είναι το υψηλότερο επίπεδο κινδύνου που έχει αναθέσει ποτέ η OpenAI στα μοντέλα τεχνητής νοημοσύνης της.

Σύμφωνα με το OpenAI, αυτό σημαίνει ότι το GPT-o1 θα μπορούσε να «βελτιώσει δραματικά» την ικανότητα των ειδικών που θέλουν να το καταχραστούν για να δημιουργήσουν βιολογικά όπλα.

Η Mira Murati, επικεφαλής τεχνολογίας (CTO) της OpenAI, δήλωσε ότι παρόλο που το GPT-o1 βρίσκεται ακόμη σε φάση δοκιμών, οι προηγμένες δυνατότητες του μοντέλου εξακολουθούν να αναγκάζουν την εταιρεία να είναι εξαιρετικά «επιφυλακτική» σχετικά με το χρονοδιάγραμμά της προς το κοινό.

Η κα Murati επιβεβαίωσε επίσης ότι το μοντέλο είχε δοκιμαστεί διεξοδικά από μια διεπιστημονική ομάδα εμπειρογνωμόνων που προσέλαβε η OpenAI για να ελέγξουν τα όρια του μοντέλου που ανέπτυξε η εταιρεία.

Η διαδικασία δοκιμών έδειξε ότι το μοντέλο GPT-o1 πληροί τα γενικά κριτήρια ασφαλείας πολύ καλύτερα από τους προκατόχους του, ανέφερε η κα Murati.

Χωρίς να σταματήσουν εκεί, οι εκπρόσωποι της OpenAI διαβεβαίωσαν επίσης ότι η δοκιμαστική έκδοση του GPT-o1 είναι «ασφαλής για ανάπτυξη» και δεν μπορεί να δημιουργήσει πιο σύνθετους κινδύνους από τις ανεπτυγμένες τεχνολογίες.

Παρά τις παραπάνω διαβεβαιώσεις, ένα μεγάλο μέρος της επιστημονικής κοινότητας και όσων ενδιαφέρονται για την Τεχνητή Νοημοσύνη εξακολουθούν να μην είναι πολύ αισιόδοξοι για την κατεύθυνση ανάπτυξης αυτής της τεχνολογίας.

Οι ανησυχίες ότι η Τεχνητή Νοημοσύνη αναπτύσσεται πολύ γρήγορα και ξεπερνά την ανάπτυξη και την έγκριση κανονισμών που τη διέπουν αυξάνονται.

Ο καθηγητής Γιόσουα Μπέντζιο, πτυχιούχος πληροφορικής στο Πανεπιστήμιο του Μόντρεαλ και ένας από τους κορυφαίους επιστήμονες τεχνητής νοημοσύνης στον κόσμο , δήλωσε ότι αν η OpenAI ενέχει πλέον «μέτριο κίνδυνο» χημικών και βιολογικών όπλων, «αυτό ενισχύει μόνο τη σημασία και τον επείγοντα χαρακτήρα» των νόμων, όπως αυτός που συζητείται έντονα στην Καλιφόρνια για τη ρύθμιση του τομέα.

Αυτός ο επιστήμονας τόνισε ότι οι παραπάνω θεσμοί είναι ιδιαίτερα απαραίτητοι στο πλαίσιο της Τεχνητής Νοημοσύνης (ΤΝ) που πλησιάζει ολοένα και περισσότερο το επίπεδο της Τεχνητής Γενικής Νοημοσύνης (ΤΓΝ), που σημαίνει ότι έχει την ικανότητα να συλλογίζεται στο ίδιο επίπεδο με τους ανθρώπους.

«Όσο πιο κοντά πλησιάζουν τα πρωτοποριακά μοντέλα Τεχνητής Νοημοσύνης στην Τεχνητή Νοημοσύνη (AGI), τόσο περισσότεροι θα αυξάνονται οι κίνδυνοι εάν δεν ληφθούν τα κατάλληλα μέτρα προφύλαξης. Η βελτιωμένη ικανότητα συλλογισμού της Τεχνητής Νοημοσύνης και η χρήση της για απάτη είναι εξαιρετικά επικίνδυνες», εκτίμησε ο κ. Μπέντζιο.


[διαφήμιση_2]
Πηγή: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm

Σχόλιο (0)

No data
No data

Στο ίδιο θέμα

Στην ίδια κατηγορία

Το Βιετνάμ κερδίζει τον μουσικό διαγωνισμό Intervision 2025
Κυκλοφοριακή συμφόρηση στο Μου Κανγκ Τσάι μέχρι το βράδυ, οι τουρίστες συρρέουν για να κυνηγήσουν την εποχή του ώριμου ρυζιού
Η γαλήνια χρυσή εποχή του Hoang Su Phi στα ψηλά βουνά του Tay Con Linh
Χωριό στο Ντα Νανγκ κατατάχθηκε στα 50 ομορφότερα χωριά του κόσμου για το 2025

Από τον ίδιο συγγραφέα

Κληρονομία

Εικόνα

Επιχείρηση

No videos available

Νέα

Πολιτικό Σύστημα

Τοπικός

Προϊόν