Οι κανονισμοί πρέπει να είναι ανοιχτοί.
Συνεχίζοντας τη Δέκατη Σύνοδο, το πρωί της 21ης Νοεμβρίου, η Εθνοσυνέλευση συζήτησε σε ομάδες το Σχέδιο Νόμου για την Τεχνητή Νοημοσύνη.
Καταθέτοντας τις απόψεις τους στην Ομάδα 4 (συμπεριλαμβανομένων αντιπροσωπειών της Εθνοσυνέλευσης από τις επαρχίες Khanh Hoa , Lai Chau και Lao Cai), οι αντιπρόσωποι συμφώνησαν ουσιαστικά με την ανάγκη ψήφισης του Νόμου.

Σύμφωνα με τον βουλευτή της Εθνοσυνέλευσης Nguyen Huu Toan ( Lai Chau ), η ψήφιση του νόμου για την Τεχνητή Νοημοσύνη (ΤΝ) είναι πολύ αναγκαία αυτή τη στιγμή. «Έχουμε κάνει σχετικά καλές προετοιμασίες για να υποβάλουμε αυτόν τον νόμο στην Εθνοσυνέλευση».
Ο βουλευτής της Εθνοσυνέλευσης Nguyen Thi Lan Anh (Λάος Τσάι) δήλωσε ότι επί του παρόντος, πολύ λίγες χώρες έχουν εκδώσει τον Νόμο για την Τεχνητή Νοημοσύνη, επομένως οι αναφορές στη διαδικασία ψήφισης του Νόμου είναι επίσης περιορισμένες. Ωστόσο, «αυτό δεν σημαίνει ότι δεν πρέπει να τον εκδώσουμε», τόνισε ο εκπρόσωπος.
Ωστόσο, η εκπρόσωπος Nguyen Thi Lan Anh σημείωσε ότι η ψήφιση του Νόμου πρέπει να λάβει υπόψη τον παράγοντα «ανοιχτού», επειδή η τεχνολογία εξελίσσεται συνεχώς μέρα με τη μέρα, ώρα. «Εάν ο Νόμος δημοσιευτεί σε ένα στενό πλαίσιο, δεν θα μπορέσουμε να προωθήσουμε τον τομέα της καινοτόμου τεχνολογίας χωρίς να είμαστε προσεκτικοί».
Εξετάστε τους κρατικούς κανονισμούς για να εγγυηθείτε το δικαίωμα απόλαυσης οφελών από την τεχνητή νοημοσύνη
Κάνοντας συγκεκριμένα σχόλια, ο εκπρόσωπος Nguyen Huu Toan δήλωσε ότι το σχέδιο νόμου ορίζει τα υποκείμενα εφαρμογής (Άρθρο 2) ως: βιετναμέζικες υπηρεσίες, οργανισμοί, άτομα και ξένες οργανώσεις και άτομα που έχουν δραστηριότητες ανάπτυξης, παροχής, ανάπτυξης και χρήσης συστημάτων τεχνητής νοημοσύνης στο Βιετνάμ ή διαθέτουν συστήματα τεχνητής νοημοσύνης που παράγουν αποτελέσματα που χρησιμοποιούνται στο Βιετνάμ .
Ωστόσο, το πεδίο εφαρμογής της ρύθμισης (Άρθρο 1, Παράγραφος 2) ορίζει: Ο παρών Νόμος δεν εφαρμόζεται σε συστήματα τεχνητής νοημοσύνης που αναπτύσσονται, παρέχονται, αναπτύσσονται και χρησιμοποιούνται αποκλειστικά για σκοπούς άμυνας, ασφάλειας, πληροφοριών και κρυπτογράφησης.
Σύμφωνα με τον εκπρόσωπο, η εφαρμογή αυτού του νόμου πρέπει να διασφαλίζει την εθνική άμυνα και ασφάλεια, επειδή υπάρχουν προϊόντα τεχνητής νοημοσύνης που παρέχονται εκτός των συνόρων στο Βιετνάμ.

Συνεπώς, το σχέδιο νόμου δεν θα πρέπει να θεωρεί τα «συστήματα τεχνητής νοημοσύνης που αναπτύσσονται, παρέχονται, αναπτύσσονται και χρησιμοποιούνται αποκλειστικά για σκοπούς άμυνας, ασφάλειας, πληροφοριών και κρυπτογραφίας» ως σημείο εξαίρεσης. Αντίθετα, θα πρέπει να ρυθμιστεί προς την κατεύθυνση ότι η έρευνα, η ανάπτυξη, η παροχή, η ανάπτυξη και η χρήση συστημάτων τεχνητής νοημοσύνης για σκοπούς άμυνας, ασφάλειας, πληροφοριών και κρυπτογραφίας θα ανατίθενται στο Υπουργείο Εθνικής Άμυνας ή στο Υπουργείο Δημόσιας Ασφάλειας για καθοδήγηση.
Επίσης, στην παράγραφο 2, το Άρθρο 1 ορίζει: Ο παρών Νόμος δεν εφαρμόζεται σε συστήματα τεχνητής νοημοσύνης ή μοντέλα τεχνητής νοημοσύνης που αναπτύσσονται, παρέχονται, αναπτύσσονται και χρησιμοποιούνται μόνο στο εσωτερικό πεδίο εφαρμογής εγκαταστάσεων επιστημονικής έρευνας, εκπαίδευσης και ανάπτυξης και δεν έχουν τεθεί σε εκμετάλλευση ούτε έχουν παρασχεθεί σε τρίτους.
Εγκρίνοντας ότι τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται στο πλαίσιο των ερευνητικών εγκαταστάσεων δεν υπόκεινται στον Νόμο, ο εκπρόσωπος Nguyen Huu Toan σημείωσε ότι εάν το σύστημα παραβιάζει τον νόμο, πρέπει να αντιμετωπιστεί.
Στην πραγματικότητα, υπάρχουν πολύ μικρά εσωτερικά συστήματα αλλά και πολύ μεγάλα εσωτερικά συστήματα. «Η εσωτερική χρήση πρέπει να συμμορφώνεται με τους όρους και τους κανονισμούς» και ο Νόμος πρέπει να έχει κανονισμούς, τόνισε ο εκπρόσωπος.
Το σχέδιο νόμου ορίζει συγκεκριμένα οκτώ κρατικές πολιτικές για την τεχνητή νοημοσύνη (Άρθρο 5). Συμφωνώντας ουσιαστικά με αυτές τις πολιτικές, ο εκπρόσωπος Nguyen Huu Toan πρότεινε την ανάγκη διευκρίνισης ορισμένων σημείων.
Συγκεκριμένα, η παράγραφος 3 του άρθρου 5 ορίζει: Το Κράτος διασφαλίζει το δικαίωμα των οργανισμών και των ατόμων να έχουν πρόσβαση, να μαθαίνουν και να απολαμβάνουν οφέλη από την τεχνητή νοημοσύνη· προωθεί την ανάπτυξη μιας ολοκληρωμένης και χωρίς αποκλεισμούς ψηφιακής κοινωνίας.
Σύμφωνα με τον εκπρόσωπο, είναι σκόπιμο το Κράτος να εγγυηθεί το δικαίωμα πρόσβασης στην τεχνητή νοημοσύνη. Ωστόσο, για να απολαμβάνουν τα οφέλη της τεχνητής νοημοσύνης, οι χρήστες πρέπει επίσης να δαπανήσουν τα δικά τους χρήματα για να την επενδύσουν και να την εφαρμόσουν στο παραγωγικό και επιχειρηματικό περιβάλλον...· το Κράτος δεν υποχρεούται να το εγγυηθεί πλήρως. Ως εκ τούτου, είναι απαραίτητο να αναθεωρηθεί αναλόγως ο παρών κανονισμός.
Όσον αφορά το επίπεδο κινδύνου των συστημάτων τεχνητής νοημοσύνης, το Άρθρο 7 του σχεδίου νόμου τα χωρίζει σε 4 τύπους: μη αποδεκτός κίνδυνος, υψηλός κίνδυνος, μέτριος κίνδυνος και χαμηλός κίνδυνος.
Συμφωνώντας με αυτήν την ταξινόμηση, ωστόσο, σύμφωνα με τον εκπρόσωπο Nguyen Huu Toan, η εφαρμογή στην πράξη σε διαφορετικές ομάδες-στόχους είναι διαφορετική. Για παράδειγμα, υπάρχει ένας τύπος μεσαίου κινδύνου που δεν επηρεάζει τους ενήλικες αλλά τα παιδιά· ή σε περιοχές με χειρότερες συνθήκες πρόσβασης, γίνεται υψηλός κίνδυνος...
Ως εκ τούτου, οι σύνεδροι πρότειναν ότι κάθε είδος κινδύνου θα πρέπει να ορίζεται με σαφήνεια και να εφαρμόζεται σε κάθε υποκείμενο και ότι πρέπει να υπάρχουν προειδοποιήσεις, για παράδειγμα, υπάρχουν ομπρέλες χαμηλού κινδύνου που παρέχονται μόνο σε ενήλικες και όχι σε παιδιά.
Δημιουργία συστήματος παρακολούθησης και προειδοποίησης συμβάντων
Ένα ζήτημα που ενδιαφέρει ιδιαίτερα τους συνέδρους σχετίζεται με τη διαχείριση και τον χειρισμό περιστατικών τεχνητής νοημοσύνης. Το Σχέδιο Νόμου ορίζει: Σοβαρό περιστατικό είναι ένα τεχνικό περιστατικό σε δραστηριότητες τεχνητής νοημοσύνης που προκαλεί ή απειλεί να προκαλέσει σοβαρές συνέπειες στην ανθρώπινη ζωή, την υγεία, την περιουσία, τα δεδομένα, την ασφάλεια ή την κοινωνική τάξη.
Η εκπρόσωπος Nguyen Thi Lan Anh ανέλυσε ότι στον ιατρικό τομέα υπάρχουν πολλά διαφορετικά επίπεδα, όπως και η ασφάλεια.

«Ποια είναι λοιπόν η διαδικασία αξιολόγησης αυτού του περιστατικού; Ποιο μέρος, ποιος μηχανισμός θα ειδοποιήσει; Επειδή υπάρχουν ορισμένα πράγματα που είναι πολύ επικίνδυνα όταν ανακαλύπτονται μετά την εμφάνιση ενός περιστατικού. Ειδικά στον ιατρικό τομέα, ο οποίος σχετίζεται άμεσα με την ανθρώπινη ζωή.»
Θίγοντας το ζήτημα με αυτόν τον τρόπο, η εκπρόσωπος Nguyen Thi Lan Anh είπε ότι πρέπει να σχεδιάσουμε ένα σύστημα διεργασιών. Πρώτα απ 'όλα, πρέπει να μιλήσουμε για τη διαδικασία επεξεργασίας, ποιος τη χειρίζεται και σε ποιο επίπεδο θα υπάρχει προειδοποίηση. Δεύτερον, πρέπει να υπάρχει ένα σύστημα παρακολούθησης και έγκαιρης προειδοποίησης. Αυτό είναι πολύ σημαντικό και αν θέλουμε έγκαιρη προειδοποίηση, πρέπει να διασφαλίσουμε τα δεδομένα εισόδου.
Επίσης, σύμφωνα με τον εκπρόσωπο Nguyen Thi Lan Anh, το ζήτημα της ευθύνης πρέπει να είναι πολύ σαφές: είναι ευθύνη του κατασκευαστή του μοντέλου, του φορέα διαχείρισης ή του τελικού χρήστη;
Συνοψίζοντας, σύμφωνα με τους εκπροσώπους, είναι απαραίτητο να ταξινομηθούν και να οριστούν συγκεκριμένοι τύποι συμβάντων τεχνητής νοημοσύνης. Να δημιουργηθεί ένα σύστημα παρακολούθησης και προειδοποίησης για συμβάντα, να προσδιοριστεί η διαδικασία χειρισμού ανάλογα με την ομάδα επιπέδου κινδύνου, να αυξηθεί η τεχνική και νομική υποστήριξη των εμπλεκόμενων μερών και να καταστεί πιο σαφής σχετικά με τις νομικές ευθύνες που σχετίζονται με τους μηχανισμούς αποζημίωσης. Αυτό θα διασφαλίσει τόσο την ασφάλεια όσο και την ασφάλεια του δικτύου.
Η παράγραφος 2 του άρθρου 10 του σχεδίου νόμου ορίζει: Όταν ένα σύστημα τεχνητής νοημοσύνης αντιμετωπίζει σοβαρό συμβάν, ο προγραμματιστής του συστήματος, ο προμηθευτής και το μέρος που εφαρμόζει το σύστημα τεχνητής νοημοσύνης είναι υπεύθυνοι για: α) Ο προγραμματιστής του συστήματος και ο προμηθευτής πρέπει να εφαρμόσουν άμεσα τεχνικά μέτρα για την επιδιόρθωση, την αναστολή ή την ανάκληση του συστήματος και να ειδοποιήσουν την αρμόδια αρχή· β) Το μέρος που εφαρμόζει και ο χρήστης υποχρεούνται να καταγράψουν και να ειδοποιήσουν άμεσα το συμβάν και να συντονιστούν στη διαδικασία αποκατάστασης.

«Και τι θα γίνει αν το περιστατικό είναι λιγότερο σοβαρό;». Αμφισβητώντας αυτό το ερώτημα, ο εκπρόσωπος Nguyen Huu Toan πρότεινε να υπάρχει μια προειδοποίηση, αντί να περιμένουμε μέχρι να γίνει σοβαρό πριν το χειριστούμε. Επειδή στην εφαρμογή της τεχνητής νοημοσύνης, εάν ένα περιστατικό συμβεί σε σοβαρό επίπεδο, η ταχύτητα εξάπλωσης είναι πολύ γρήγορη και πολύ μεγάλη.
Ο εκπρόσωπος Nguyen Huu Toan πρότεινε ότι κάτω από αυτό το επίπεδο, θα πρέπει να υπάρχουν προειδοποιήσεις για τους χρήστες και τους προμηθευτές. «Η παρακολούθηση και ο έλεγχος της χρήσης της τεχνητής νοημοσύνης είναι εξαιρετικά σημαντικός στο μέλλον για να διασφαλιστεί η ασφάλεια, η τάξη, η κοινωνική ασφάλεια, καθώς και η ευτυχία για όλους», πρόσθεσε ο εκπρόσωπος.
Όσον αφορά τα ηθικά ζητήματα στην τεχνητή νοημοσύνη, το σχέδιο νόμου ορίζει σαφώς το εθνικό πλαίσιο ηθικής για την τεχνητή νοημοσύνη (Άρθρο 27) και τις ηθικές ευθύνες και την εκτίμηση επιπτώσεων κατά την εφαρμογή της τεχνητής νοημοσύνης στον δημόσιο τομέα (Άρθρο 28).
«Πώς λοιπόν υπολογίζεται για τον ιδιωτικό τομέα ή άλλους τομείς που έχουν αντίκτυπο σε ανθρώπους ή σε άλλους φορείς και πολιτικές;»
Η εκπρόσωπος Nguyen Thi Lan Anh πρότεινε ότι είναι απαραίτητο να επεκταθεί η ηθική ευθύνη στον ιδιωτικό τομέα και να απαιτηθεί από τις επιχειρήσεις να αναπτύξουν δημόσια έναν εσωτερικό κώδικα δεοντολογίας· να διακρίνουν σαφώς τις ηθικές αρχές και τις νομικές υποχρεώσεις, ώστε να διασφαλιστεί η συνέπεια και η σκοπιμότητα στην εφαρμογή τους.
Ταυτόχρονα, το σχέδιο νόμου πρέπει να συμπληρώσει βασικές ηθικές αρχές όπως: σεβασμός προς τους ανθρώπους, δικαιοσύνη, διαφάνεια και να θεσπίσει υποχρεωτικούς μηχανισμούς αξιολόγησης επιπτώσεων για συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου.
Πηγή: https://daibieunhandan.vn/du-an-luat-tri-tue-nhan-tao-mo-rong-trach-nhiem-dao-duc-sang-khu-vuc-tu-nhan-10396512.html






Σχόλιο (0)