
Η τεχνητή νοημοσύνη σαρώνει και διαγράφει σχόλια στα μέσα κοινωνικής δικτύωσης
Όταν οι άνθρωποι αφήνουν ένα σχόλιο σε ένα βίντεο στο YouTube, μια ανάρτηση στο Facebook ή ένα διαδικτυακό άρθρο, δεν έχουν ιδέα αν θα φτάσει σε κάποιον. Δεν είναι επειδή είναι ορθογραφικά λανθασμένο, ούτε επειδή είναι παράνομο, απλώς μπλοκάρεται από έναν αυτοματοποιημένο αλγόριθμο φιλτραρίσματος.
Οι τεχνολογικές πλατφόρμες χρησιμοποιούν πλέον συστήματα φιλτραρίσματος σχολίων για την αφαίρεση ρητορικής μίσους, πορνογραφίας, βίας και διχαστικού λόγου. Ο στόχος είναι να «διατηρούνται οι κοινότητες ασφαλείς», αλλά μήπως αυτά τα εργαλεία είναι τόσο απολυμαντικά που καθίστανται αναίσθητα;
Όταν η Τεχνητή Νοημοσύνη γίνεται ο φύλακας του λόγου
Σε αντίθεση με τις πρώτες μέρες του διαδικτύου, όπου τα «ακατέργαστα» σχόλια επιτρεπόταν να εμφανίζονται ελεύθερα, οι περισσότερες μεγάλες πλατφόρμες αναθέτουν πλέον την ευθύνη του φιλτραρίσματος περιεχομένου στην τεχνητή νοημοσύνη. Χάρη στη μηχανική μάθηση, τα συστήματα μπορούν να σαρώνουν εκατομμύρια γραμμές κειμένου κάθε μέρα, αξιολογώντας τη γλώσσα, τον τόνο, ακόμη και το «συμφραζόμενο» για να αποφασίσουν αν θα τα διατηρήσουν ή θα τα διαγράψουν.
Ωστόσο, αυτό το σύστημα δεν είναι πάντα ακριβές.
Η κα Ngoc Vy (HCMC) κοινοποίησε: «Το σχόλιό μου για ένα προϊόν αποκρύφθηκε για κάποιο άγνωστο λόγο. Δεν υπήρχαν βρισιές, δεν υπήρχαν ανεπιθύμητα μηνύματα, απλώς ένα σχόλιο που εξαφανίστηκε μετά από λίγα δευτερόλεπτα».
Πολλά κομμάτια περιεχομένου αφαιρούνται απλώς επειδή χρησιμοποιούν ευαίσθητες λέξεις σε ένα εντελώς φυσιολογικό πλαίσιο. Φράσεις όπως «φτώχεια», «πείνα», «πολιτική» ή «σύστημα» μερικές φορές παρερμηνεύονται ως αρνητικές εάν το μηχάνημα δεν μπορεί να «διαβάσει» το πνεύμα της πρότασης.
Φιλτράρισμα ή εξάλειψη της κριτικής;
Σύμφωνα με προειδοποίηση του γερμανικού οργανισμού AlgorithmWatch, τα αυτοματοποιημένα συστήματα λογοκρισίας μπορούν να εξαλείψουν ακούσια τις διαφωνίες, ειδικά από μειονοτικές ή μειονοτικές ομάδες, επειδή αυτά τα συστήματα μαθαίνουν από τη συμπεριφορά της πλειοψηφίας, η οποία δεν είναι αρκετά ποικιλόμορφη από άποψη πολιτισμού και απόψεων.
Στο Βιετνάμ, ο αυστηρός έλεγχος του περιεχομένου από τις πλατφόρμες κοινωνικής δικτύωσης γίνεται ολοένα και πιο συνηθισμένος, ειδικά σε ιστότοπους ειδήσεων με υψηλή διαδραστικότητα. Τα σχόλια για τρέχοντα και κοινωνικά ζητήματα συχνά περιορίζονται στην προβολή τους ή πρέπει να έχουν «προεγκριθεί», γεγονός που προκαλεί την ερώτηση σε πολλούς ανθρώπους: Υπάρχει ακόμα ελευθερία λόγου στον κυβερνοχώρο;
Το ανησυχητικό είναι ότι οι χρήστες σπάνια γνωρίζουν γιατί τα σχόλια αποκρύπτονται ή διαγράφονται. Δεν υπάρχουν ειδοποιήσεις, ούτε διαφανείς μηχανισμοί ανατροφοδότησης. Όλα συμβαίνουν σιωπηλά, και σε έναν κόσμο που διέπεται από αλγόριθμους, η σιωπή μπορεί να είναι η πιο ανεπαίσθητη μορφή λογοκρισίας.
Κρατήστε το διαδίκτυο καθαρό, αλλά μην ξεθωριάζετε τη συζήτηση
Καθαρός κυβερνοχώρος δεν σημαίνει στείρος. Η κοινωνία είναι ένας χώρος όπου εκφράζονται διαφορετικές απόψεις, όπου γίνονται εποικοδομητικές, επικριτικές και συζητούνται. Χρειαζόμαστε αλγόριθμους για να φιλτράρουμε τον τοξικό λόγο, αλλά πρέπει επίσης να προστατεύσουμε το δικαίωμα στη διαφορετικότητα, το δικαίωμα στην αμφισβήτηση, το δικαίωμα στην έκφραση ενοχλήσεων.
Όταν κάθε σχόλιο πρέπει να «ελεγχθεί», πρέπει να αναρωτηθούμε: Προστατεύει η τεχνολογία την κοινότητα ή φιλτράρει αυτά που επιτρέπεται να ακούσει η κοινότητα;
Η τεχνολογία δεν μπορεί να αντικαταστήσει τους ανθρώπους στη λήψη πολύτιμων αποφάσεων. Και στην εποχή της Τεχνητής Νοημοσύνης, η διαφάνεια και το δικαίωμα στην ανατροφοδότηση είναι οι πιο δίκαιοι «αλγόριθμοι» για ολόκληρο το σύστημα.
Η τεχνολογία θα πρέπει να βοηθά τους ανθρώπους να μιλούν ανοιχτά, όχι να αποφασίζουν τι θα πουν εκ μέρους τους.
Πηγή: https://tuoitre.vn/khi-ai-quyet-dinh-ban-duoc-noi-gi-tren-mang-20250701231035288.htm






Σχόλιο (0)