Κακόβουλο λογισμικό που τροφοδοτείται από AI απειλεί να κατακλύσει τα συστήματα ανίχνευσης με τη δημιουργία 10.000 παραλλαγών

Οι ερευνητές στον τομέα της κυβερνοασφάλειας κρούουν τον κώδωνα του κινδύνου για την πιθανή κακή χρήση μοντέλων μεγάλων γλωσσών (LLM) για την υπερφόρτιση της ανάπτυξης κακόβουλου λογισμικού. Μια νέα ανάλυση από τη Μονάδα 42 του Palo Alto Networks αποκαλύπτει ότι τα LLM, αν και δεν είναι έμπειρα στη δημιουργία κακόβουλου λογισμικού από την αρχή, μπορούν να ξαναγράψουν και να θολώσουν τον υπάρχοντα κακόβουλο κώδικα σε τεράστια κλίμακα, δημιουργώντας παραλλαγές που αποφεύγουν τον εντοπισμό σε έως και 88% των περιπτώσεων.
Αυτό εγείρει κρίσιμες ανησυχίες σχετικά με τον τρόπο με τον οποίο οι φορείς απειλών θα μπορούσαν να εκμεταλλευτούν τη γενετική τεχνητή νοημοσύνη για να παρακάμψουν τα συστήματα ανίχνευσης, να υποβαθμίσουν τα μοντέλα μηχανικής μάθησης και να αναπτύξουν ένα διαρκώς διευρυνόμενο οπλοστάσιο κακόβουλου λογισμικού .
Πίνακας περιεχομένων
Η μηχανική της δημιουργίας κακόβουλου λογισμικού με ενισχυμένη τεχνητή νοημοσύνη
«Σύμφωνα με την Ενότητα 42, οι εγκληματίες μπορούν να ζητήσουν από τα LLM να πραγματοποιήσουν μετασχηματισμούς σε κακόβουλο κώδικα JavaScript, καθιστώντας πιο δύσκολο για τα συστήματα ανίχνευσης να επισημάνουν τα σενάρια που έχουν ξαναγραφτεί . Σε αντίθεση με τα παραδοσιακά εργαλεία συσκότισης που παράγουν λιγότερο πειστικά αποτελέσματα, οι επανεγγραφές που βασίζονται στο LLM φαίνονται πιο φυσικές και πιο δύσκολο να εντοπιστούν.
Οι βασικές τεχνικές μετασχηματισμού περιλαμβάνουν:
- Μετονομασία μεταβλητής
- Σχίσιμο χορδών
- Εισαγωγή ανεπιθύμητου κώδικα
- Αφαίρεση κενού χώρου
- Ολοκληρωμένη εκ νέου υλοποίηση κώδικα
Κάθε επανάληψη δημιουργεί μια νέα παραλλαγή κακόβουλου λογισμικού που διατηρεί την αρχική κακόβουλη λειτουργία, ενώ μειώνει σημαντικά τις πιθανότητές του να εντοπιστεί.
Η ενότητα 42 κατέδειξε αυτήν την προσέγγιση χρησιμοποιώντας LLM για τη δημιουργία 10.000 παραλλαγών JavaScript από υπάρχοντα δείγματα κακόβουλου λογισμικού. Αυτές οι παραλλαγές ξεγέλασαν με επιτυχία ταξινομητές κακόβουλου λογισμικού, συμπεριλαμβανομένων μοντέλων που χρησιμοποιούνται ευρέως όπως το PhishingJS και το Innocent Until Proven Guilty (IUPG). Σε πολλές περιπτώσεις, ακόμη και η πλατφόρμα VirusTotal απέτυχε να εντοπίσει τα σενάρια που είχαν ξαναγραφτεί ως κακόβουλα.
Το επικίνδυνο άκρο της συσκότισης της AI
Σε αντίθεση με τα παλαιότερα εργαλεία όπως το obfuscator.io, τα οποία παράγουν μοτίβα που μπορούν να εντοπιστούν πιο εύκολα και να αποτυπωθούν δακτυλικά αποτυπώματα, οι επανεγγραφές που βασίζονται σε LLM είναι εγγενώς πιο εξελιγμένες. Φαίνονται πιο κοντά στον νόμιμο κώδικα, καθιστώντας τους πιο δύσκολο να τον αναγνωρίσουν τα μοντέλα μηχανικής εκμάθησης (ML) και τα εργαλεία προστασίας από ιούς.
Ο αντίκτυπος αυτής της μεθόδου είναι βαθύς:
- Οι ταξινομητές κακόβουλου λογισμικού εξαπατούνται για να χαρακτηρίσουν τα κακόβουλα σενάρια ως καλοήθη.
- Τα μοντέλα ML υφίστανται υποβάθμιση της απόδοσης, προσπαθώντας να συμβαδίσουν με τη συνεχή εξέλιξη των παραλλαγών κακόβουλου λογισμικού.
- Τα συστήματα ανίχνευσης κινδυνεύουν να καταστούν απαρχαιωμένα καθώς οι αντίπαλοι δημιουργούν συνεχώς φρέσκο, μη ανιχνεύσιμο κακόβουλο λογισμικό.
Εκμετάλλευση LLM για ευρύτερο έγκλημα στον κυβερνοχώρο
Αυτή η τάση δεν περιορίζεται στην ανάπτυξη κακόβουλου λογισμικού. Οι κακόβουλοι παράγοντες αξιοποιούν αδίστακτα εργαλεία όπως το WormGPT, το οποίο χρησιμοποιεί τεχνητή νοημοσύνη δημιουργίας για να αυτοματοποιήσει τις εκστρατείες ηλεκτρονικού ψαρέματος και να δημιουργήσει πειστικές επιθέσεις κοινωνικής μηχανικής προσαρμοσμένες σε συγκεκριμένα θύματα.
Ενώ οι πάροχοι LLM έχουν εφαρμόσει προστατευτικά κιγκλιδώματα για να περιορίσουν την κατάχρηση, όπως το πρόσφατο μπλοκάρισμα 20 παραπλανητικών λειτουργιών από το OpenAI τον Οκτώβριο του 2024, οι φορείς απειλών βρίσκουν συνεχώς τρόπους να παρακάμψουν αυτούς τους περιορισμούς.
The Silver Lining: Fighting Fire with Fire
Παρά τους κινδύνους, οι ίδιες τεχνικές που βασίζονται στο LLM που χρησιμοποιούνται για τη συσκότιση του κακόβουλου λογισμικού μπορούν επίσης να βοηθήσουν τους υπερασπιστές. Η ενότητα 42 προτείνει τη χρήση αυτών των μεθόδων AI για τη δημιουργία δεδομένων εκπαίδευσης που βελτιώνουν την ευρωστία των μοντέλων ανίχνευσης κακόβουλου λογισμικού. Παρέχοντας στους ταξινομητές περισσότερα παραδείγματα συγκεχυμένου κώδικα, οι ερευνητές θα μπορούσαν ενδεχομένως να ενισχύσουν την ικανότητά τους να ανιχνεύουν ακόμη και τις πιο προηγμένες παραλλαγές.
Αναδυόμενες ευπάθειες AI: Επίθεση TPUXtract
Η άνοδος του κακόβουλου λογισμικού που λειτουργεί με LLM δεν είναι η μόνη απειλή που σχετίζεται με την τεχνητή νοημοσύνη που γίνεται πρωτοσέλιδο. Ερευνητές από το Πολιτειακό Πανεπιστήμιο της Βόρειας Καρολίνας αποκάλυψαν μια επίθεση πλευρικού καναλιού, με το όνομα TPUXtract, ικανή να κλέψει αρχιτεκτονικές μοντέλων τεχνητής νοημοσύνης από τις Μονάδες Επεξεργασίας Τενυστήρα Edge (TPU) της Google.
Καταγράφοντας ηλεκτρομαγνητικά σήματα που εκπέμπονται κατά τη διάρκεια συμπερασμάτων νευρωνικών δικτύων, οι εισβολείς μπορούν να εξαγάγουν λεπτομέρειες όπως τύπους επιπέδων, αριθμούς κόμβων, μεγέθη φίλτρων και λειτουργίες ενεργοποίησης με ακρίβεια 99,91%. Αν και αυτή η επίθεση απαιτεί φυσική πρόσβαση στη συσκευή και δαπανηρό εξοπλισμό, ενέχει σοβαρό κίνδυνο για την πνευματική ιδιοκτησία και θα μπορούσε να διευκολύνει την παρακολούθηση κυβερνοεπιθέσεων.
Τι σημαίνει αυτό για την ασφάλεια στον κυβερνοχώρο
Η ταχεία εξέλιξη της γενετικής τεχνητής νοημοσύνης είναι ένα δίκοπο μαχαίρι για την ασφάλεια στον κυβερνοχώρο . Αν και ανοίγει νέες πόρτες για καινοτομία, παρέχει επίσης πρωτοφανή εργαλεία για εγκληματίες στον κυβερνοχώρο.
- Οι οργανισμοί πρέπει να ενεργούν προληπτικά , επενδύοντας σε προηγμένα συστήματα ανίχνευσης ικανά να προσαρμόζονται σε τεχνικές συσκότισης που βασίζονται στην τεχνητή νοημοσύνη.
- Οι υπεύθυνοι χάραξης πολιτικής θα πρέπει να θεσπίσουν σαφείς κατευθυντήριες γραμμές για την ηθική χρήση της τεχνητής νοημοσύνης, επιβάλλοντας παράλληλα αυστηρότερους ελέγχους για την πρόληψη της κακής χρήσης.
- Οι ερευνητές ασφάλειας πρέπει να αξιοποιήσουν την τεχνητή νοημοσύνη για να ξεπεράσουν τους αντιπάλους , αναπτύσσοντας ανθεκτικά συστήματα που μπορούν να αντιμετωπίσουν τις εξελισσόμενες απειλές.
Το μέλλον του κακόβουλου λογισμικού AI
Η ικανότητα των LLM να δημιουργούν 10.000 παραλλαγές κακόβουλου λογισμικού και να αποφεύγουν τον εντοπισμό στο 88% των περιπτώσεων είναι μια έντονη υπενθύμιση της αυξανόμενης πολυπλοκότητας των απειλών στον κυβερνοχώρο. Καθώς η τεχνολογία εξελίσσεται, το ίδιο πρέπει και οι άμυνές μας. Οι επιχειρήσεις, οι κυβερνήσεις και οι επαγγελματίες της κυβερνοασφάλειας πρέπει να υιοθετήσουν καινοτόμες στρατηγικές για να παραμείνουν μπροστά από κακόβουλους παράγοντες και να προστατεύσουν τον ψηφιακό κόσμο από επιθέσεις που τροφοδοτούνται από AI.