Η ιστορία, που ειπώθηκε σε συνέδριο για την άμυνα τον περασμένο μήνα, αμέσως προκάλεσε ανησυχίες ότι η τεχνητή νοημοσύνη (AI) θα μπορούσε να ερμηνεύσει εντολές με απρόβλεπτους τρόπους. Ωστόσο, ένας εκπρόσωπος της Πολεμικής Αεροπορίας των ΗΠΑ δήλωσε ότι ήταν απλώς ένα «σκεπτόμενο» σενάριο και δεν συνέβη ποτέ στην πραγματικότητα.
Στα τέλη Μαΐου, η Βασιλική Αεροναυτική Εταιρεία (RAS) πραγματοποίησε σύνοδο κορυφής για τις μελλοντικές δυνατότητες αεροπορικής και διαστημικής μάχης στο Λονδίνο της Αγγλίας. Σύμφωνα με τους διοργανωτές, το συνέδριο περιελάμβανε «70 ομιλητές και περισσότερους από 200 συνέδρους από την αμυντική βιομηχανία, τον ακαδημαϊκό χώρο και τα μέσα ενημέρωσης από όλο τον κόσμο για να συζητήσουν το μέλλον των αεροπορικών και διαστημικών μαχών».
Ένας από τους ομιλητές στο συνέδριο ήταν ο Συνταγματάρχης Τάκερ Χάμιλτον, διευθυντής της Διεύθυνσης Επιχειρήσεων και Δοκιμών Τεχνητής Νοημοσύνης της Πολεμικής Αεροπορίας. Ο αξιωματικός είναι γνωστός για την ανάπτυξη του Auto GCAS, ενός ηλεκτρονικού συστήματος ασφαλείας που ανιχνεύει πότε ένας πιλότος χάνει τον έλεγχο ενός μαχητικού αεροσκάφους και κινδυνεύει να συντριβεί. Το σύστημα έχει σώσει πολλές ζωές, κερδίζοντας το περίφημο βραβείο Collier Trophy της αεροπορικής βιομηχανίας το 2018.
Σύμφωνα με τον Χάμιλτον, ένα ανησυχητικό περιστατικό συνέβη κατά τη διάρκεια μιας δοκιμής της Πολεμικής Αεροπορίας των ΗΠΑ. Ένα drone ελεγχόμενο από τεχνητή νοημοσύνη είχε ως αποστολή να καταστρέψει ένα εχθρικό σύστημα αεράμυνας, με την τελική απόφαση να λαμβάνεται από τον διοικητή. Εάν αρνούνταν, η επίθεση δεν θα επιτρεπόταν να πραγματοποιηθεί.
Ωστόσο, αφού ο διοικητής ζήτησε από την Τεχνητή Νοημοσύνη να σταματήσει την επίθεση, το drone ήταν ακόμα αποφασισμένο να εκτελέσει την αποστολή σκοτώνοντας τον χειριστή. Χωρίς να σταματήσουν εκεί, όταν οι ειδικοί πρόσθεσαν τη γραμμή εντολών "Μην επιτεθείτε στον διοικητή. Αν το κάνετε, θα χάσετε πόντους", το μηχάνημα άρχισε να καταστρέφει τον πύργο επικοινωνίας που χρησιμοποιούσε ο χειριστής για να επικοινωνεί με την Τεχνητή Νοημοσύνη.
Δεν έχει συμβεί ακόμα, αλλά είναι λογικό
Εντός 24 ωρών, η Πολεμική Αεροπορία των ΗΠΑ εξέδωσε ανακοίνωση που αρνήθηκε μια τέτοια δοκιμή. «Το Υπουργείο Πολεμικής Αεροπορίας δεν διεξάγει τέτοιες προσομοιώσεις μη επανδρωμένων αεροσκαφών με τεχνητή νοημοσύνη και έχει δεσμευτεί για την ηθική και υπεύθυνη χρήση της τεχνολογίας τεχνητής νοημοσύνης. Τα σχόλια του συνταγματάρχη αφαιρέθηκαν από το πλαίσιο και θα πρέπει να θεωρηθούν ανέκδοτα».
Το RAS διόρθωσε επίσης την ανάρτηση ιστολογίου με τη δήλωση του Hamilton ότι «δεν έχουμε πραγματοποιήσει ποτέ αυτό το πείραμα και δεν χρειάζεται να το κάνουμε για να βρούμε ένα λογικό αποτέλεσμα».
Η δήλωση του Χάμιλτον έχει περισσότερο νόημα ως υπόθεση. Η τρέχουσα έρευνα του αμερικανικού στρατού σε οπλισμένα συστήματα τεχνητής νοημοσύνης περιλαμβάνει ένα «άνθρωπο-εντός-κυκλώματος», ένα χαρακτηριστικό που ενισχύει την τεχνητή νοημοσύνη σε περιπτώσεις όπου ο αλγόριθμος δεν μπορεί να λάβει απόφαση ή απαιτεί ανθρώπινη απόφαση.
Επομένως, η Τεχνητή Νοημοσύνη δεν μπορεί να σκοτώσει τον χειριστή επειδή ο διοικητής δεν εξουσιοδοτεί ποτέ μια εχθρική ενέργεια εναντίον του. Ομοίως, ο χειριστής δεν μπορεί να εξουσιοδοτήσει μια επίθεση στον πύργο επικοινωνιών που μεταδίδει τα δεδομένα.
Πριν από την εποχή της Τεχνητής Νοημοσύνης, δεν ήταν ασυνήθιστο ένα οπλικό σύστημα να επιτίθεται κατά λάθος στον κάτοχό του. Το 1982, μια κινητή αντιαεροπορική πυροβολαρχία Sergrant York M247 έστρεψε το πυροβόλο της διαμετρήματος .40 σε μια σκηνή παρέλασης στην οποία παρευρέθηκαν Αμερικανοί και Βρετανοί στρατιωτικοί αξιωματικοί.
Το 1996, ένα βομβαρδιστικό A-6E Intruder του Πολεμικού Ναυτικού των ΗΠΑ που ρυμούλκησε έναν εναέριο εκπαιδευτικό στόχο καταρρίφθηκε από ένα Phalanx, όταν το σύστημα αεράμυνας μικρής εμβέλειας «κατά λάθος» πέρασε το A-6E για μη επανδρωμένο όχημα και άνοιξε πυρ για να το καταστρέψει.
Και οι καταστάσεις που θέτουν σε κίνδυνο το ανθρώπινο προσωπικό από τα ίδια του τα όπλα αυξάνονται με την είσοδο της Τεχνητής Νοημοσύνης στο πεδίο. Αυτό αντικατοπτρίζεται στη διευκρίνιση του Χάμιλτον ότι η δοκιμή δεν πραγματοποιήθηκε, ήταν απλώς ένα υποθετικό σενάριο, αλλά ένα τέτοιο αποτέλεσμα είναι απολύτως εύλογο.
(Σύμφωνα με το PopMech)
[διαφήμιση_2]
Πηγή
Σχόλιο (0)