Η σκοτεινή τεχνητή νοημοσύνη λειτουργεί εκτός των προτύπων ασφαλείας, συχνά επιτρέποντας συμπεριφορές όπως απάτη, χειραγώγηση, κυβερνοεπιθέσεις ή εκμετάλλευση δεδομένων χωρίς στενή εποπτεία.
«Κακόβουλοι δράστες εκμεταλλεύονται επίσης την Τεχνητή Νοημοσύνη για να ενισχύσουν τις δυνατότητες επιθέσεών τους. Η πιο συνηθισμένη κατάχρηση της Τεχνητής Νοημοσύνης σήμερα είναι η εμφάνιση μοντέλων Black Hat GPT. Πρόκειται για μοντέλα Τεχνητής Νοημοσύνης που έχουν αναπτυχθεί ή τροποποιηθεί ειδικά για να εξυπηρετούν παράνομους σκοπούς, όπως η δημιουργία κακόβουλου λογισμικού, η σύνταξη email ηλεκτρονικού «ψαρέματος» (phishing), η δημιουργία φωνητικών μηνυμάτων και βίντεο deepfake...», δήλωσε ο Sergey Lozhkin, Επικεφαλής της Παγκόσμιας Ομάδας Έρευνας και Ανάλυσης (GReAT) για τη Μέση Ανατολή, την Τουρκία, την Αφρική και την Ασία -Ειρηνικό στην Kaspersky.
Τα Black Hat GPT μπορούν να υπάρχουν ως εντελώς ιδιωτικά ή ημι-ιδιωτικά μοντέλα τεχνητής νοημοσύνης. Μερικά αξιοσημείωτα παραδείγματα περιλαμβάνουν τα WormGPT, DarkBard, FraudGPT και Xanthorox, όλα σχεδιασμένα για να εξυπηρετούν δραστηριότητες κυβερνοεγκλήματος, απάτης και κακόβουλου αυτοματισμού.
Ο Lozhkin αποκάλυψε ότι οι ειδικοί της Kaspersky παρατηρούν τώρα μια ακόμη πιο ανησυχητική τάση: οι ομάδες κυβερνοεπιθέσεων που υποστηρίζονται από το κράτος ή την κυβέρνηση αρχίζουν να αξιοποιούν μεγάλα γλωσσικά μοντέλα (LLM) στις εκστρατείες επιθέσεών τους.
«Η OpenAI ανακοίνωσε πρόσφατα ότι έχει αποτρέψει περισσότερες από 20 μυστικές εκστρατείες επιρροής και κυβερνοεπιθέσεις που εκμεταλλεύτηκαν τα εργαλεία τεχνητής νοημοσύνης της. Θα πρέπει να αντιμετωπίσουμε ολοένα και πιο εξελιγμένους εισβολείς που χρησιμοποιούν την τεχνητή νοημοσύνη ως όπλο, αποτελώντας απειλή τόσο για τα δημόσια όσο και για τα ιδιωτικά οικοσυστήματα. Πρόκειται για μια ανησυχητική τάση που όλοι οι οργανισμοί πρέπει να προετοιμαστούν να αντιμετωπίσουν», μοιράστηκε ο Lozhkin.
Σύμφωνα με μια έκθεση του OpenAI, κακόβουλοι παράγοντες έχουν αρχίσει να εκμεταλλεύονται τις δυνατότητες των μοντέλων μηχανικής μάθησης μεγάλης κλίμακας (LLM) για να εξαπατήσουν τα θύματα και να παρακάμψουν τα συμβατικά επίπεδα ασφαλείας. Μπορούν να δημιουργήσουν πειστικά ψεύτικα μηνύματα, να στείλουν μαζικά μηνύματα στα θύματα και να παράγουν περιεχόμενο σε πολλές γλώσσες.
Για την ενίσχυση της άμυνας έναντι των απειλών της σκοτεινής τεχνητής νοημοσύνης, οι ειδικοί της Kaspersky συνιστούν: Χρήση λύσεων ασφαλείας επόμενης γενιάς, όπως το Kaspersky Next, για την ανίχνευση κακόβουλου λογισμικού που δημιουργείται από την τεχνητή νοημοσύνη και τον έλεγχο των κινδύνων της εφοδιαστικής αλυσίδας· εφαρμογή εργαλείων πληροφοριών απειλών σε πραγματικό χρόνο για την παρακολούθηση της εκμετάλλευσης ευπαθειών που προκαλούνται από την τεχνητή νοημοσύνη· ενίσχυση του ελέγχου πρόσβασης και της εκπαίδευσης του προσωπικού για τον περιορισμό των κινδύνων διαρροής δεδομένων και της σκιώδους τεχνητής νοημοσύνης· και δημιουργία ενός Κέντρου Επιχειρήσεων Ασφαλείας (SOC) για την παρακολούθηση των απειλών και την ταχεία ανταπόκριση σε περιστατικά.
Πηγή: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Σχόλιο (0)