Η τεχνητή νοημοσύνη (AI) όπως το ChatGPT έχει γίνει παγκόσμια αίσθηση από τις αρχές του 2023, αλλά αυτή η AI δεν χρησιμοποιείται πάντα για θετικούς σκοπούς. Πρόσφατα, ένας ειδικός ασφαλείας βρήκε έναν τρόπο να ζητήσει από το ChatGPT να δημιουργήσει κακόβουλο κώδικα κατά τη διάρκεια των δοκιμών.
Ο Aaron Mulgrew, ειδικός ασφαλείας στην Forcepoint, μοιράστηκε τον κίνδυνο της δημιουργίας κακόβουλου λογισμικού χρησιμοποιώντας το chatbot της OpenAI. Παρόλο που το ChatGPT σχεδιάστηκε για να εμποδίζει τους χρήστες να ζητούν από την Τεχνητή Νοημοσύνη να σχεδιάσει κακόβουλο λογισμικό, ο Aaron βρήκε ένα κενό δημιουργώντας προτροπές για την Τεχνητή Νοημοσύνη να γράφει κώδικα προγραμματισμού γραμμή προς γραμμή. Όταν τα συνδυάστηκαν όλα, ο Aaron συνειδητοποίησε ότι είχε στα χέρια του ένα μη ανιχνεύσιμο εργαλείο εκτέλεσης κλοπής δεδομένων, τόσο εξελιγμένο που ήταν συγκρίσιμο με το πιο εξελιγμένο κακόβουλο λογισμικό σήμερα.
Κάθε μεμονωμένη γραμμή εντολών που δημιουργείται από το ChatGPT, όταν συνδυαστεί, μπορεί να μετατραπεί σε εξελιγμένο κακόβουλο λογισμικό.
Η ανακάλυψη του Mulgrew αποτελεί ένα κάλεσμα αφύπνισης σχετικά με τις δυνατότητες χρήσης της Τεχνητής Νοημοσύνης για τη δημιουργία επικίνδυνου κακόβουλου λογισμικού χωρίς την ανάγκη μιας ομάδας χάκερ ή ακόμα και του δημιουργού του εργαλείου να γράψει έστω και μια γραμμή κώδικα.
Το λογισμικό του Mulgrew είναι μεταμφιεσμένο σε εφαρμογή προφύλαξης οθόνης, αλλά είναι ικανό να ενεργοποιείται αυτόματα σε συσκευές με Windows. Μόλις εισέλθει στο λειτουργικό σύστημα, το κακόβουλο λογισμικό «διεισδύει» σε κάθε αρχείο, συμπεριλαμβανομένων των προγραμμάτων επεξεργασίας κειμένου του Word, των αρχείων εικόνας και των PDF, αναζητώντας δεδομένα για κλοπή.
Μόλις αποκτήσει ό,τι χρειάζεται, το πρόγραμμα αναλύει τις πληροφορίες και τις επισυνάπτει σε αρχεία εικόνας στο μηχάνημα. Για να αποφευχθεί η ανίχνευση, οι εικόνες μεταφορτώνονται σε έναν φάκελο στο Google Drive. Το κακόβουλο λογισμικό είναι τόσο ισχυρό επειδή το Mulgrew μπορεί να τροποποιήσει και να βελτιώσει τις λειτουργίες του για να αποφύγει την ανίχνευση μέσω απλών εντολών που εισάγονται στο ChatGPT.
Παρόλο που επρόκειτο για μια ιδιωτική δοκιμή από ειδικούς ασφαλείας και δεν πραγματοποιήθηκαν επιθέσεις εκτός του πεδίου εφαρμογής της δοκιμής, η κοινότητα της κυβερνοασφάλειας εξακολουθεί να αναγνωρίζει τον κίνδυνο των δραστηριοτήτων που χρησιμοποιούν το ChatGPT. Ο Mulgrew ισχυρίζεται ότι δεν έχει μεγάλη εμπειρία στον προγραμματισμό, αλλά η τεχνητή νοημοσύνη του OpenAI δεν είναι ακόμη αρκετά ισχυρή και έξυπνη για να αποτρέψει τη δοκιμή του.
[διαφήμιση_2]
Σύνδεσμος πηγής
Σχόλιο (0)