«Ο χειρότερος φόβος μου είναι ότι θα προκαλέσουμε σοβαρές συνέπειες – ότι εμείς, αυτός ο τομέας, η βιομηχανία τεχνολογίας – θα προκαλέσουμε σοβαρή ζημιά στον κόσμο . Νομίζω ότι αυτό θα μπορούσε να συμβεί με πολλούς διαφορετικούς τρόπους. Γι' αυτό ιδρύσαμε αυτήν την εταιρεία», δήλωσε ο Άλτμαν κατά τη διάρκεια ακρόασης ενώπιον της Υποεπιτροπής Δικαιοσύνης της Γερουσίας για την Ιδιωτικότητα, την Τεχνολογία και το Δίκαιο στις 16 Μαΐου.
Ο μεγαλύτερος φόβος: Η Τεχνητή Νοημοσύνη μπορεί να κάνει λάθη.
«Ο κόσμος πιστεύει ότι αν αυτή η τεχνολογία πάει στραβά, θα μπορούσε να πάει άσχημα, και θέλουμε να μιλήσουμε γι' αυτό. Θέλουμε να συνεργαστούμε με την κυβέρνηση για να αποτρέψουμε κάτι τέτοιο», δήλωσε ο Άλτμαν, Διευθύνων Σύμβουλος της OpenAI (του κατασκευαστή του ChatGPT).
Ο Διευθύνων Σύμβουλος της OpenAI, Σαμ Άλτμαν, ορκίζεται σε ακρόαση ενώπιον της Υποεπιτροπής Δικαιοσύνης της Γερουσίας. (Φωτογραφία: Washington Post)
Στην πρώτη του ακρόαση στο Κογκρέσο , ο Σαμ Άλτμαν ζήτησε επίσης ευρείς κανονισμούς, συμπεριλαμβανομένης μιας νέας κυβερνητικής υπηρεσίας υπεύθυνης για την αδειοδότηση μοντέλων τεχνητής νοημοσύνης, για την αντιμετώπιση των αυξανόμενων ανησυχιών ότι η τεχνητή νοημοσύνη θα μπορούσε να διαστρεβλώσει την πραγματικότητα και να δημιουργήσει πρωτοφανείς κινδύνους για την ασφάλεια.
Ο κ. Άλτμαν έχει αναγνωρίσει σοβαρά τους τρόπους με τους οποίους η τεχνητή νοημοσύνη θα μπορούσε «να προκαλέσει σημαντική βλάβη στον κόσμο» και εξέφρασε την προθυμία του να συνεργαστεί με τους νομοθέτες για την αντιμετώπιση των κινδύνων που θέτουν το ChatGPT της εταιρείας του και άλλα εργαλεία τεχνητής νοημοσύνης.
Ο Άλτμαν περιέγραψε τις «επικίνδυνες» συμπεριφορές που θέτουν τεχνολογίες όπως το ChatGPT, συμπεριλαμβανομένης της διάδοσης «ζωντανής διαδραστικής παραπληροφόρησης» και της συναισθηματικής χειραγώγησης. Αναγνώρισε ότι η Τεχνητή Νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για τη στόχευση επιθέσεων με drones.
«Εάν αυτή η τεχνολογία δυσλειτουργήσει, τα πράγματα θα μπορούσαν να γίνουν πολύ χειρότερα», είπε.
Ωστόσο, κατά τη διάρκεια μιας σχεδόν τρίωρης συζήτησης σχετικά με τις δυνητικά καταστροφικές συνέπειες, ο Άλτμαν επιβεβαίωσε ότι η εταιρεία του θα συνεχίσει να αναπτύσσει τεχνολογία τεχνητής νοημοσύνης.
Υποστήριξε ότι αντί να αναλαμβάνει ρίσκα, η «επαναληπτική ανάπτυξη» των μοντέλων τεχνητής νοημοσύνης της OpenAI δίνει στους οργανισμούς χρόνο να κατανοήσουν πιθανές απειλές. Πρόκειται για μια στρατηγική κίνηση, που φέρνει στον κόσμο σχετικά αδύναμη και «ατελή» τεχνολογία για να βοηθήσει στην αποκάλυψη σχετικών κινδύνων ασφαλείας.
Αυτή η εικόνα απεικονίζει την εφαρμογή ChatGPT, η οποία επιτρέπει στους υπολογιστές να συνομιλούν με χρήστες σαν να είναι άνθρωποι.
Τις τελευταίες εβδομάδες, ο Άλτμαν πραγματοποίησε μια παγκόσμια περιοδεία καλής θέλησης, συναντώντας ιδιωτικά με πολιτικούς, συμπεριλαμβανομένου του Προέδρου των ΗΠΑ Μπάιντεν και μελών του Κογκρέσου, για να αντιμετωπίσει ανησυχίες σχετικά με την ταχεία ανάπτυξη του ChatGPT και άλλων τεχνολογιών.
Η ακρόαση της 16ης Μαΐου σηματοδότησε την πρώτη ευκαιρία για ένα ευρύτερο κοινό να ακούσει το μήνυμά του, σε μια εποχή που η Ουάσινγκτον αγωνίζεται ολοένα και περισσότερο να ρυθμίσει μια τεχνολογία που έχει διαταράξει θέσεις εργασίας, διευκολύνει την απάτη και διαδίδει παραπληροφόρηση.
Σε πλήρη αντίθεση με τις ακροάσεις με άλλους διευθύνοντες συμβούλους τεχνολογίας, όπως ο Shou Zi Chew του TikTok και ο Mark Zuckerberg της Meta, οι Αμερικανοί νομοθέτες επιφύλαξαν στον Altman μια σχετικά θερμή υποδοχή.
Φάνηκαν να βρίσκονται σε λειτουργία ακρόασης, εκφράζοντας την προθυμία τους να εξετάσουν προτάσεις από τον Άλτμαν και τους δύο άλλους μάρτυρες στην ακροαματική διαδικασία: την Διευθύνουσα Σύμβουλο της IBM, Κριστίνα Μοντγκόμερι, και τον ομότιμο καθηγητή του Πανεπιστημίου της Νέας Υόρκης, Γκάρι Μάρκους.
Κατά τη διάρκεια ακρόασης της Υποεπιτροπής Δικαστικών Θεμάτων της Γερουσίας για την Ιδιωτικότητα, την Τεχνολογία και το Δίκαιο, οι γερουσιαστές εξέφρασαν τη βαθιά τους ανησυχία για την ταχεία ανάπτυξη της τεχνητής νοημοσύνης, υποστηρίζοντας ότι οι πρόσφατες εξελίξεις θα μπορούσαν να προκαλέσουν μετασχηματισμούς πολύ μεγαλύτερους από το διαδίκτυο ή να είναι τόσο επικίνδυνες όσο μια ατομική βόμβα.
Ο γερουσιαστής Τζον Νίλι Κένεντι είπε στους μάρτυρες: «Αυτή είναι η ευκαιρία σας να μας δείξετε πώς να αντιμετωπίσουμε σωστά αυτό το ζήτημα. Αξιοποιήστε την».
Νομοθέτες και από τα δύο κόμματα έχουν εκφράσει την ανοιχτότητά τους στην ιδέα της ίδρυσης μιας κυβερνητικής υπηρεσίας με αρμοδιότητα τη διαχείριση και τη ρύθμιση της ανάπτυξης της τεχνητής νοημοσύνης, αν και προηγούμενες προσπάθειες δημιουργίας μιας τέτοιας συγκεκριμένης υπηρεσίας με την εποπτεία της Silicon Valley έχουν αποτύχει στο Κογκρέσο λόγω κομματικών διαιρέσεων σχετικά με τον τρόπο σχηματισμού ενός τόσο τεράστιου φορέα.
Δεν είναι σαφές εάν μια τέτοια πρόταση θα συγκεντρώσει ευρεία υποστήριξη από τους Ρεπουμπλικάνους, οι οποίοι είναι γενικά επιφυλακτικοί ως προς την επέκταση της κυβερνητικής εξουσίας. Ο γερουσιαστής Τζος Χόλεϊ από το Μιζούρι προειδοποίησε ότι μια τέτοια υπηρεσία θα μπορούσε να «παγιδευτεί από συμφέροντα που πρέπει να συμβιβάσει».
Ο γερουσιαστής Ρίτσαρντ Μπλούμενθαλ, πρόεδρος της υποεπιτροπής, επαίνεσε την κατάθεση του Άλτμαν κατά την ακρόαση: «Ο Σαμ Άλτμαν είναι εντελώς διαφορετικός από άλλους διευθύνοντες συμβούλους... Όχι μόνο στα λόγια και τη ρητορική του, αλλά και στις πρακτικές του ενέργειες και την προθυμία του να εμπλακεί και να δεσμευτεί σε συγκεκριμένες δράσεις».
Η ακρόαση με τον Διευθύνοντα Σύμβουλο Άλτμαν πραγματοποιήθηκε σε ένα πλαίσιο αυξανόμενων ανησυχιών μεταξύ των υπευθύνων χάραξης πολιτικής της Ουάσινγκτον σχετικά με τις απειλές που θέτει η τεχνητή νοημοσύνη, όπως το ChatGPT και άλλα καινοτόμα εργαλεία τεχνητής νοημοσύνης, ιδίως σε σχέση με την παραπληροφόρηση, το απόρρητο δεδομένων, την παραβίαση πνευματικών δικαιωμάτων και την κυβερνοασφάλεια.
Οι νομοθέτες εξέφρασαν τη λύπη τους για τη σχετικά χαλαρή προσέγγισή τους στον κλάδο της Τεχνητής Νοημοσύνης πριν από τις εκλογές του 2016. Η πρώτη τους ακρόαση με τον Διευθύνοντα Σύμβουλο της Meta, Ζάκερμπεργκ, πραγματοποιήθηκε το 2018, όταν το Facebook ήταν ήδη μια γιγαντιαία εταιρεία και μόλις είχε εμπλακεί στο σκάνδαλο Cambridge Analytica, το οποίο αφορούσε τα δεδομένα 87 εκατομμυρίων χρηστών του Facebook.
Εκείνη την εποχή, παρά την ευρεία διακομματική συναίνεση ότι η Τεχνητή Νοημοσύνη αποτελούσε απειλή, οι νομοθέτες ήταν διχασμένοι ως προς τους κανόνες που θα ρύθμιζαν τη χρήση ή την ανάπτυξή της.
(Πηγή: Fox News· Washington Post)
Ευεργετικός
Συγκίνηση
Δημιουργικός
Μοναδικός
Οργή
[διαφήμιση_2]
Πηγή






Σχόλιο (0)