Οι νομοθέτες θα συνεχίσουν να συζητούν λεπτομερείς κανονισμούς τις επόμενες εβδομάδες με σκοπό την ολοκλήρωση της διαδικασίας στις αρχές του επόμενου έτους, με το σχέδιο να εφαρμοστεί από το 2026.
Μέχρι τότε, οι εταιρείες ενθαρρύνονται να υπογράψουν το εθελοντικό Σύμφωνο για την Τεχνητή Νοημοσύνη (AI) για να εκπληρώσουν τις βασικές υποχρεώσεις των κανόνων.
Παρακάτω παρατίθενται τα κύρια περιεχόμενα της συμφωνίας που συμφωνήθηκε από την ΕΕ.
Σύστημα υψηλού κινδύνου
Τα λεγόμενα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου – αυτά που θεωρούνται πιθανό να προκαλέσουν σημαντική βλάβη στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία, τις εκλογές και το κράτος δικαίου – θα πρέπει να συμμορφώνονται με μια σειρά απαιτήσεων, όπως η υποβολή σε εκτιμήσεις επιπτώσεων σχετικά με τα θεμελιώδη δικαιώματα και τις υποχρεώσεις πρόσβασης στην αγορά της ΕΕ.
Εν τω μεταξύ, τα συστήματα χαμηλού κινδύνου θα υπόκεινται σε ελαφρύτερες υποχρεώσεις διαφάνειας, όπως η επισήμανση περιεχομένου που δημιουργείται από τεχνητή νοημοσύνη, ώστε οι χρήστες να μπορούν να εξετάσουν το ενδεχόμενο χρήσης του.
Τεχνητή Νοημοσύνη στην επιβολή του νόμου
Οι υπηρεσίες επιβολής του νόμου επιτρέπεται να χρησιμοποιούν συστήματα βιομετρικής ταυτοποίησης σε πραγματικό χρόνο εξ αποστάσεως σε δημόσιους χώρους μόνο για την ταυτοποίηση θυμάτων απαγωγής, εμπορίας ανθρώπων, σεξουαλικής εκμετάλλευσης και για την πρόληψη συγκεκριμένων και επικείμενων τρομοκρατικών απειλών.
Οι αρχές θα έχουν επίσης τη δυνατότητα να χρησιμοποιούν τεχνολογία τεχνητής νοημοσύνης για την παρακολούθηση υπόπτων για τρομοκρατία, εμπορία ανθρώπων, σεξουαλική εκμετάλλευση, δολοφονία, απαγωγή, βιασμό, ένοπλη ληστεία, συμμετοχή σε εγκληματική οργάνωση και περιβαλλοντικά εγκλήματα.
Γενικά και Πλατφορμικά Συστήματα Τεχνητής Νοημοσύνης (GPAI)
Το GPAI και τα υποκείμενα μοντέλα θα υπόκεινται σε απαιτήσεις διαφάνειας, όπως η παραγωγή τεχνικής τεκμηρίωσης, η συμμόρφωση με το δίκαιο της ΕΕ περί πνευματικών δικαιωμάτων και η δημοσίευση λεπτομερών περιλήψεων του περιεχομένου που χρησιμοποιείται για την εκπαίδευση των αλγορίθμων.
Τα μοντέλα πλατφορμών που εμπίπτουν στην κατηγορία των δυνητικά δημιουργούντων συστημικό κίνδυνο και υψηλού αντίκτυπου στον Γενικό Πίνακα Πιστωτικών Ιδρυμάτων (GPAI) θα πρέπει να διενεργούν γενική αξιολόγηση μοντέλου, να επανεξετάζουν και να μετριάζουν τους κινδύνους, να διενεργούν δοκιμές αντίστροφης μηχανικής, να ειδοποιούν την Ευρωπαϊκή Επιτροπή για σοβαρά περιστατικά, να διασφαλίζουν την κυβερνοασφάλεια και να αναφέρουν την κατανάλωση ενέργειας.
Μέχρι να δημοσιευτούν τα εναρμονισμένα πρότυπα της ΕΕ, οι GPAIs διατρέχουν συστημικό κίνδυνο να βασίζονται σε κώδικες δεοντολογίας για τη συμμόρφωσή τους με τους κανονισμούς.
Τα συστήματα τεχνητής νοημοσύνης απαγορεύονται
Απαγορευμένες συμπεριφορές και περιεχόμενο περιλαμβάνουν: Βιομετρικά συστήματα ταξινόμησης που χρησιμοποιούν ευαίσθητα χαρακτηριστικά όπως πολιτική , θρησκεία, φιλοσοφικές πεποιθήσεις, σεξουαλικό προσανατολισμό και φυλή.
Μη στοχευμένη σάρωση εικόνων προσώπου από το Διαδίκτυο ή υλικό από κλειστό κύκλωμα τηλεόρασης για τη δημιουργία βάσης δεδομένων αναγνώρισης προσώπου.
Αναγνώριση συναισθημάτων στον χώρο εργασίας και σε εκπαιδευτικά περιβάλλοντα.
Κοινωνική βαθμολόγηση με βάση την κοινωνική συμπεριφορά ή τα προσωπικά χαρακτηριστικά·
Τα συστήματα τεχνητής νοημοσύνης χειραγωγούν την ανθρώπινη συμπεριφορά για να ανατρέψουν την ελεύθερη βούλησή τους.
Η Τεχνητή Νοημοσύνη χρησιμοποιείται για την εκμετάλλευση των ανθρώπινων αδυναμιών λόγω ηλικίας, αναπηρίας, οικονομικών ή κοινωνικών συνθηκών.
Κυρώσεις
Ανάλογα με την παράβαση και το μέγεθος της εμπλεκόμενης εταιρείας, τα πρόστιμα θα ξεκινούν από 7,5 εκατομμύρια ευρώ (8 εκατομμύρια δολάρια) ή 1,5% του ετήσιου παγκόσμιου κύκλου εργασιών, φτάνοντας τα 35 εκατομμύρια ευρώ ή 7% του παγκόσμιου κύκλου εργασιών.
(Σύμφωνα με το Reuters)
Η ΕΕ καταλήγει σε ιστορική συμφωνία για τη ρύθμιση της τεχνητής νοημοσύνης
Η ΕΕ καταλήγει σε συμφωνία για τον νόμο περί προστασίας έξυπνων συσκευών
Η ΕΕ γίνεται αυστηρή με τους τεχνολογικούς κολοσσούς, απειλεί να διαλύσει εταιρείες που παραβιάζουν τους κανόνες
[διαφήμιση_2]
Πηγή
Σχόλιο (0)