Ο κίνδυνος απώλειας ελέγχου της Τεχνητής Νοημοσύνης
Η ανθρωπότητα φαίνεται να αγνοεί ένα φάντασμα στον ορίζοντα: το φάντασμα ενός παγκόσμιου πυρηνικού πολέμου που θα προκληθεί από την τεχνητή νοημοσύνη (ΤΝ). Ο Γενικός Γραμματέας του ΟΗΕ Αντόνιο Γκουτέρες έχει προειδοποιήσει γι' αυτό. Μέχρι στιγμής, όμως, τα πυρηνικά όπλα δεν έχουν συνεργαστεί για να διαπραγματευτούν αυτήν την καταστροφική απειλή.
Η ραγδαία ανάπτυξη της τεχνητής νοημοσύνης (ΤΝ) ενέχει τον κίνδυνο η ΤΝ να παρέμβει στη διαδικασία εκτόξευσης πυρηνικών όπλων. Εικόνα φωτογραφίας.
Υπάρχει εδώ και καιρό μια άτυπη συναίνεση μεταξύ των πέντε μεγαλύτερων πυρηνικών δυνάμεων - ΗΠΑ, Ρωσία, Κίνα, Ηνωμένο Βασίλειο και Γαλλία - σχετικά με την αρχή του «ανθρώπου στον κύκλο», που σημαίνει ότι κάθε χώρα διαθέτει ένα σύστημα που διασφαλίζει ότι οι άνθρωποι συμμετέχουν στην απόφαση για την εκτόξευση πυρηνικών όπλων.
Καμία από τις πέντε δυνάμεις δεν λέει ότι έχει αναπτύξει Τεχνητή Νοημοσύνη στα συστήματα διοίκησης εκτόξευσης πυρηνικών όπλων. Αυτό είναι αλήθεια αλλά παραπλανητικό, σύμφωνα με τον Δρ. Sundeep Waslekar, πρόεδρο του Strategic Foresight Group, ενός διεθνούς ερευνητικού οργανισμού στη Βομβάη της Ινδίας.
Η Τεχνητή Νοημοσύνη χρησιμοποιείται ήδη για την ανίχνευση απειλών και την επιλογή στόχων. Τα συστήματα που υποστηρίζονται από την Τεχνητή Νοημοσύνη αναλύουν μεγάλες ποσότητες δεδομένων από αισθητήρες, δορυφόρους και ραντάρ σε πραγματικό χρόνο, αναλύοντας τις εισερχόμενες πυραυλικές επιθέσεις και προτείνοντας επιλογές αντίδρασης.
Στη συνέχεια, ο χειριστής διασταυρώνει την απειλή από διαφορετικές πηγές και αποφασίζει εάν θα αναχαιτίσει εχθρικούς πυραύλους ή θα εξαπολύσει αντίποινα.
«Προς το παρόν, ο χρόνος αντίδρασης που είναι διαθέσιμος στους ανθρώπους είναι 10 έως 15 λεπτά. Μέχρι το 2030, αυτός ο χρόνος θα έχει μειωθεί σε 5 έως 7 λεπτά», δήλωσε ο Sundeep Waslekar. «Ενώ οι άνθρωποι θα λαμβάνουν τις τελικές αποφάσεις, θα επηρεάζονται από την προγνωστική και κανονιστική ανάλυση της Τεχνητής Νοημοσύνης. Η Τεχνητή Νοημοσύνη θα μπορούσε να είναι η κινητήρια δύναμη πίσω από τις αποφάσεις εκτόξευσης ήδη από τη δεκαετία του 2030».
Το πρόβλημα είναι ότι η Τεχνητή Νοημοσύνη μπορεί να κάνει λάθος. Οι αλγόριθμοι ανίχνευσης απειλών μπορούν να υποδείξουν μια πυραυλική επίθεση όταν δεν συμβαίνει καμία. Αυτό θα μπορούσε να οφείλεται σε σφάλματα υπολογιστή, εισβολές δικτύου ή περιβαλλοντικούς παράγοντες που αποκρύπτουν τα σήματα. Εκτός εάν οι ανθρώπινοι χειριστές μπορέσουν να επιβεβαιώσουν ψευδείς συναγερμούς από άλλες πηγές εντός δύο έως τριών λεπτών, θα μπορούσαν να ενεργοποιήσουν αντίποινα.
Πολύ μικρό λάθος, τεράστια καταστροφή
Η χρήση της Τεχνητής Νοημοσύνης σε πολλές πολιτικές λειτουργίες, όπως η πρόβλεψη εγκλημάτων, η αναγνώριση προσώπου και η πρόγνωση καρκίνου, είναι γνωστό ότι έχει περιθώριο σφάλματος 10%. Στα πυρηνικά συστήματα έγκαιρης προειδοποίησης, το περιθώριο σφάλματος μπορεί να είναι περίπου 5%, σύμφωνα με τον Sundeep Waslekar.
Καθώς η ακρίβεια των αλγορίθμων αναγνώρισης εικόνων βελτιώνεται κατά την επόμενη δεκαετία, αυτό το περιθώριο σφάλματος θα μπορούσε να μειωθεί στο 1-2%. Αλλά ακόμη και ένα περιθώριο σφάλματος 1% θα μπορούσε να ξεκινήσει έναν παγκόσμιο πυρηνικό πόλεμο.
Οι αποφάσεις για επίθεση ή αντίποινα κατά πυρηνικών όπλων θα μπορούσαν να προκληθούν από σφάλματα της Τεχνητής Νοημοσύνης. Φωτογραφία: Modern War Institute
Ο κίνδυνος θα μπορούσε να αυξηθεί τα επόμενα δύο με τρία χρόνια, καθώς εμφανίζεται νέο κακόβουλο λογισμικό που είναι σε θέση να αποφύγει τα συστήματα ανίχνευσης απειλών. Αυτό το κακόβουλο λογισμικό θα προσαρμοστεί για να αποφύγει την ανίχνευση, να εντοπίσει αυτόματα στόχους και να τους επιτεθεί.
Υπήρξαν αρκετές καταστάσεις «ακροβατικής» διαμάχης κατά τη διάρκεια του Ψυχρού Πολέμου. Το 1983, ένας σοβιετικός δορυφόρος εντόπισε κατά λάθος πέντε πυραύλους που εκτοξεύτηκαν από τις Ηνωμένες Πολιτείες. Ο Στάνισλαβ Πετρόφ, αξιωματικός στο κέντρο διοίκησης Sepukhov-15 της Ρωσίας, κατέληξε στο συμπέρασμα ότι επρόκειτο για ψευδή συναγερμό και δεν ειδοποίησε τους ανωτέρους του ώστε να μπορέσουν να εξαπολύσουν αντεπίθεση.
Το 1995, ο σταθμός ραντάρ του Ολενέγκορσκ ανίχνευσε μια πυραυλική επίθεση στα ανοικτά των ακτών της Νορβηγίας. Οι στρατηγικές δυνάμεις της Ρωσίας τέθηκαν σε υψηλή επιφυλακή και ο τότε πρόεδρος Μπόρις Γέλτσιν παρέλαβε τον πυρηνικό χαρτοφύλακα. Υποψιάστηκε ότι επρόκειτο για λάθος και δεν πάτησε το κουμπί. Αποδείχθηκε ότι επρόκειτο για επιστημονικό πύραυλο. Εάν η Τεχνητή Νοημοσύνη είχε χρησιμοποιηθεί για να προσδιοριστεί η αντίδραση σε οποιαδήποτε από τις δύο περιπτώσεις, τα αποτελέσματα θα μπορούσαν να ήταν καταστροφικά.
Οι υπερηχητικοί πύραυλοι σήμερα χρησιμοποιούν συμβατικό αυτοματισμό αντί για τεχνητή νοημοσύνη. Μπορούν να ταξιδεύουν με ταχύτητες μεταξύ Mach 5 και Mach 25, αποφεύγοντας την ανίχνευση από ραντάρ και ελέγχοντας τις διαδρομές πτήσης τους. Οι υπερδυνάμεις σχεδιάζουν να ενισχύσουν τους υπερηχητικούς πυραύλους με τεχνητή νοημοσύνη για να εντοπίζουν και να καταστρέφουν άμεσα κινούμενους στόχους, μετατοπίζοντας την απόφαση για θανάτωση από τους ανθρώπους στις μηχανές.
Υπάρχει επίσης ένας αγώνας δρόμου για την ανάπτυξη γενικής τεχνητής νοημοσύνης, η οποία θα μπορούσε να οδηγήσει σε μοντέλα Τεχνητής Νοημοσύνης που λειτουργούν πέρα από τον ανθρώπινο έλεγχο. Όταν συμβεί αυτό, τα συστήματα Τεχνητής Νοημοσύνης θα μάθουν να βελτιώνονται και να αναπαράγονται, αναλαμβάνοντας τις διαδικασίες λήψης αποφάσεων. Εάν η εν λόγω Τεχνητή Νοημοσύνη ενσωματωθεί σε συστήματα υποστήριξης αποφάσεων για πυρηνικά όπλα, οι μηχανές θα είναι σε θέση να ξεκινήσουν καταστροφικούς πολέμους.
Ώρα για δράση
Αντιμέτωποι με τους παραπάνω κινδύνους, πολλοί ειδικοί πιστεύουν ότι η ανθρωπότητα χρειάζεται μια συνολική συμφωνία μεταξύ των μεγάλων δυνάμεων για την ελαχιστοποίηση του κινδύνου πυρηνικού πολέμου, η οποία θα υπερβαίνει την επανάληψη του συνθήματος «άνθρωποι εν κινήσει».
Αυτή η συμφωνία θα πρέπει να περιλαμβάνει μέτρα διαφάνειας, λογοδοσίας και συνεργασίας· διεθνή πρότυπα για τις δοκιμές και την αξιολόγηση· κανάλια επικοινωνίας σε περίπτωση κρίσης· εθνικά συμβούλια εποπτείας· και κανόνες για την απαγόρευση επιθετικών μοντέλων τεχνητής νοημοσύνης που είναι ικανά να παρακάμψουν τους ανθρώπινους χειριστές.
Ο Γενικός Γραμματέας του ΟΗΕ Αντόνιο Γκουτέρες παρευρίσκεται σε τελετή μνήμης για την ειρήνη στη Χιροσίμα, η οποία χτυπήθηκε από ατομική βόμβα το 1945. Φωτογραφία: ΟΗΕ
Οι γεωπολιτικές μετατοπίσεις δημιουργούν μια ευκαιρία για μια τέτοια συμφωνία. Κορυφαίοι εμπειρογνώμονες Τεχνητής Νοημοσύνης από την Κίνα και τις ΗΠΑ, για παράδειγμα, έχουν συμμετάσχει σε μια σειρά από διαλόγους δεύτερης γραμμής σχετικά με τους κινδύνους της Τεχνητής Νοημοσύνης, οι οποίοι οδήγησαν σε κοινή δήλωση του πρώην προέδρου των ΗΠΑ Τζο Μπάιντεν και του κινέζου προέδρου Σι Τζινπίνγκ τον περασμένο Νοέμβριο.
Ο δισεκατομμυριούχος Έλον Μασκ είναι ένθερμος υποστηρικτής της ανάγκης να σωθεί η ανθρωπότητα από τους υπαρξιακούς κινδύνους που θέτει η Τεχνητή Νοημοσύνη και μπορεί να παροτρύνει τον νυν πρόεδρο των ΗΠΑ Ντόναλντ Τραμπ να μετατρέψει την κοινή δήλωση μεταξύ του Τζο Μπάιντεν και του Σι Τζινπίνγκ σε συνθήκη, σύμφωνα με τον Δρ. Σάντεπ Γουάσλεκαρ.
Η πρόκληση της Τεχνητής Νοημοσύνης και των πυρηνικών απαιτεί επίσης τη συμμετοχή της Ρωσίας, σύμφωνα με τον Δρ. Sundeep Waslekar. Μέχρι τον Ιανουάριο του τρέχοντος έτους, η Ρωσία αρνούνταν να συζητήσει οποιαδήποτε μέτρα μείωσης του πυρηνικού κινδύνου, συμπεριλαμβανομένης της σύγκλισης με την Τεχνητή Νοημοσύνη, εκτός εάν συζητούνταν η Ουκρανία.
Με τον Πρόεδρο Ντόναλντ Τραμπ να συμμετέχει σε διάλογο με τον Ρώσο πρόεδρο Βλαντιμίρ Πούτιν για τη βελτίωση των διμερών σχέσεων και τον τερματισμό του πολέμου στην Ουκρανία, η Ρωσία μπορεί τώρα να είναι ανοιχτή σε συζητήσεις.
Τον Φεβρουάριο του τρέχοντος έτους, μετά την ομιλία του Αντιπροέδρου των ΗΠΑ JD Vance στη Σύνοδο Κορυφής για τη Δράση της Τεχνητής Νοημοσύνης στο Παρίσι, το Κέντρο για μια Νέα Αμερικανική Ασφάλεια (CNAS) δημοσίευσε επίσης μια έκθεση με τίτλο «Πρόληψη μιας Ημέρας Κρίσης της Τεχνητής Νοημοσύνης: Ανταγωνισμός ΗΠΑ-Κίνας-Ρωσίας στον κόμβο των πυρηνικών όπλων και της τεχνητής νοημοσύνης».
Η έκθεση προσδιορίζει τους σημαντικότερους κινδύνους της σχέσης τεχνητής νοημοσύνης-πυρηνικής ενέργειας και προτρέπει την κυβέρνηση των ΗΠΑ να θεσπίσει ένα ολοκληρωμένο σύνολο μηχανισμών μετριασμού των κινδύνων και διαχείρισης κρίσεων με την Κίνα και τη Ρωσία.
Νωρίτερα, τον Σεπτέμβριο του περασμένου έτους, περίπου 60 χώρες, συμπεριλαμβανομένων των ΗΠΑ, υιοθέτησαν ένα «σχέδιο δράσης» για τη διαχείριση της υπεύθυνης χρήσης της Τεχνητής Νοημοσύνης στον στρατό στη Σύνοδο Κορυφής για την Υπεύθυνη Τεχνητή Νοημοσύνη σε Στρατιωτικά Θέματα (REAIM) που πραγματοποιήθηκε στη Σεούλ της Νότιας Κορέας. Αυτή ήταν η δεύτερη διάσκεψη αυτού του είδους, μετά τη διάσκεψη που πραγματοποιήθηκε στη Χάγη πέρυσι. Αυτές οι κινήσεις δείχνουν ότι ο κίνδυνος ενός πυρηνικού πολέμου που ξεκίνησε από την Τεχνητή Νοημοσύνη δεν είναι επιστημονική φαντασία.
Ο κόσμος αντιμετωπίζει σαφώς ένα ολοένα και πιο επείγον υπαρξιακό πρόβλημα που απαιτεί πραγματική δράση από τις πυρηνικές δυνάμεις για να διασφαλιστεί ότι «κάθε απόφαση σχετικά με τη χρήση πυρηνικών όπλων λαμβάνεται από ανθρώπους, όχι από μηχανές ή αλγόριθμους» - όπως έχει ζητήσει ο Γενικός Γραμματέας του ΟΗΕ, Αντόνιο Γκουτέρες.
Νγκουγιέν Καν










Σχόλιο (0)