Αν και η ασφάλεια χρειάζεται να επαναξιολογηθεί στο πλαίσιο της Τεχνητής Νοημοσύνης, δεν επιβάλλεται να αλλάξουμε τα πάντα μονομιάς. Εκείνοι οι οργανισμοί που θα ακολουθήσουν μία μετρημένη προσέγγιση θα είναι και εκείνοι που θα υπερέχουν, καθώς θα έχουν αποφύγει να παρασυρθούν από την υπερβολική προβολή (την «μόδα») της τεχνητής νοημοσύνης και παράλληλα θα έχουν αναγνωρίσει τους στρατηγικούς τρόπους που η τεχνητή νοημοσύνη μπορεί να «αλλάξει τα δεδομένα» -καθώς και τους τρόπους που οι τροχιές της ασφάλειας μπορούν να αλλάξουν προς το καλύτερο.
Η τεχνητή νοημοσύνη αποδυναμώνει τις άμυνες
Οι επιθέσεις που ενεργοποιούνται με τη χρήση της τεχνητής νοημοσύνης παρουσιάζουν έξαρση αποδυναμώνοντας κατά τη διαδικασία τις υφιστάμενες άμυνες. Και απέναντι σε αυτή τη διπλή επιθετική προσέγγιση, τα τρέχοντα εργαλεία ασφάλειας δυσκολεύονται να ανταποκριθούν.
Παρατηρούμε την αξιοποίηση της τεχνητής νοημοσύνης για τη δημιουργία εξαιρετικά πειστικών τεχνητών βίντεο (deepfakes) που οδηγούν σε απάτες κοινωνικής μηχανικής. Εργαλεία μηχανικής μάθησης (ML) να επιστρατεύονται για την τροφοδότηση ψηφιακών βοηθών (chatbots) που κλιμακώνουν την εξαπάτηση περαιτέρω. Την τεχνητή νοημοσύνη να παράγει πλέον κώδικα που μπορεί να μεταβάλλεται δυναμικά (πολυμορφικό κακόβουλο λογισμικό που έχει δημιουργηθεί από τεχνητή νοημοσύνη) και τις παραβιάσεις κωδικών πρόσβασης και τις τεχνικές παράκαμψης της αυθεντικοποίησης πολλαπλών παραγόντων (MFA) μέσω τεχνητής νοημοσύνης να αποτελούν περιστατικά που συναντώνται όλο και συχνότερα.
Καθώς οι οργανισμοί συνειδητοποιούν την ανεπάρκεια των τρεχόντων εργαλείων τους, βλέπουμε να αναδεικνύεται μία τάση άκριτης αποδοχής της τεχνητής νοημοσύνης όσον αφορά την κυβερνοασφάλεια.
Κύκλος υπερβολής της ΑΙ έναντι της Προστασίας Δεδομένων
Αν οι εταιρείες δεν επιδείξουν προσοχή, ενδέχεται να παρασυρθούν στην αντίληψη ότι τα εργαλεία ασφάλειας με ενσωματωμένη τεχνητή νοημοσύνη ισοδυναμούν με άμυνα. Η προστασία των ευαίσθητων δεδομένων ωστόσο είναι αυτό που αποτελεί βασικό κριτήριο και αν οι δυνατότητες της τεχνητής νοημοσύνης εισαχθούν χωρίς να ληφθεί υπόψη η προστασία των δεδομένων και της πρόσβασης, ενδέχεται να προκύψουν προβλήματα μελλοντικά.
Η συνέπεια της εισαγωγής υπερβολικά πολλών στοιχείων τεχνητής νοημοσύνης, και σε σύντομο χρονικό διάστημα, είναι ότι η τεχνητή νοημοσύνη διευρύνει την επιφάνεια επίθεσης, ενδέχεται να παρουσιάσει απρόβλεπτη συμπεριφορά ελλείψει κατάλληλων δικλείδων ασφαλείας -ιδιαίτερα στην περίπτωση της πρακτορικής τεχνητής νοημοσύνης– να καταναλώνει πολλούς υπολογιστικούς πόρους και να είναι δαπανηρή όταν εφαρμόζεται σε μεγάλη κλίμακα.
Ο Michael Siegel, διευθυντής Κυβερνοασφάλειας στο MIT Sloan δήλωσε ότι «τα εργαλεία κυβερνοασφάλειας που βασίζονται σε AI δεν επαρκούν από μόνα τους». Υποστήριξε ότι «μια προληπτική, πολυεπίπεδη προσέγγιση -που θα ενσωματώνει ανθρώπινη εποπτεία, πλαίσια διακυβέρνησης, προσομοιώσεις απειλών καθοδηγούμενων από τεχνητή νοημοσύνη και ανταλλαγή πληροφοριών σε πραγματικό χρόνο- είναι κρίσιμης σημασίας».
Με άλλα λόγια, παρόλο που μία αντιμετώπιση του τύπου «μάχαιραν έδωσες, μάχαιρα θα λάβεις» αποτελεί το σύνθημα έναντι των αυξανόμενων επιθέσεων με τη χρήση τεχνητής νοημοσύνης, η χρήση του «μαχαιριού» πρέπει να έχει στρατηγικό υπόβαθρο.
Ασφαλής εφαρμογή της τεχνητής νοημοσύνης για επιχειρήσεις
Όταν οι οργανισμοί επιδιώκουν να υϊοθετήσουν την τεχνητή νοημοσύνη, συχνά το πράττουν για να αποκτήσουν και να διατηρήσουν το προβάδισμα έναντι του ανταγωνισμού τους που έχει επίσης υϊοθετήσει την τεχνητή νοημοσύνη.
Όσον αφορά την ασφάλεια της τεχνητής νοημοσύνης -δηλαδή, τη θωράκιση των εργαλείων AI που χρησιμοποιούνται σε συστήματα CRM, ψηφιακούς βοηθούς (chatbots), στην ανάπτυξη κώδικα, στην προγνωστική μοντελοποίηση και σε άλλες επιχειρηματικές εφαρμογές- υπάρχουν διάφορα βιομηχανικά πλαίσια που προσφέρουν βέλτιστες πρακτικές.
- Το «NIST AI Risk Management Framework» (AI RMF) υποστηρίζει ότι οι εταιρείες πρέπει να καθορίζουν πολιτικές, να χαρτογραφούν και να αξιολογούν το ρίσκο καθώς και να εφαρμόζουν στρατηγικές διαχείρισης κινδύνου παράλληλα με κάθε υϊοθέτηση νέας τεχνολογίας.
- Το Google Secure AI Framework (SAIF) αποτελεί μία καθοδηγούμενη από την βιομηχανία πολιτική που δίνει έμφαση στη μεταφορά των υφιστάμενων θεμελιωδών αρχών της κυβερνοασφαλείας στα οικοσυστήματα τεχνητής νοημοσύνης επισημαίνοντας κινδύνους όπως η δηλητηρίαση δεδομένων, η έγχυση εντολών και η κλοπή μοντέλου.
- Και πρότυπα όπως τα ISO/IEC 42001, MITRE ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) και ο οδηγός OWASP AI Security and Privacy υφίστανται για την παροχή περαιτέρω καθοδήγησης.
Ασφαλής μετάβαση στην τεχνητή νοημοσύνη για την ενίσχυση της κυβερνοασφάλειας
Υπάρχουν κίνδυνοι με την εφαρμογή «υπερβολικής τεχνητής νοημοσύνης, υπερβολικά νωρίς» στην κυβερνοασφάλεια; Δυστυχώς, ναι. Η αποτελεσματική ενσωμάτωση της τεχνητής νοημοσύνης απαιτεί ακρίβεια πάνω από ισχύ. Και φυσικά υπάρχουν τομείς όπου η τεχνητή νοημοσύνη προσφέρει πραγματική αξία, αλλά υπάρχουν και άλλοι όπου δεν προσφέρει το παραμικρό.
Για παράδειγμα, οι επιχειρήσεις παράγουν τεράστιες ποσότητες δεδομένων που χρήζουν ανάλυσης. Η χρήση εξελιγμένων εργαλείων που τροφοδοτούνται από μεγάλα γλωσσικά μοντέλα (LLM) για αυτό το έργο θα ήταν οικονομικά ασύμφορη για τις περισσότερες εταιρείες, για να μην πούμε περιττή· πρόκειται για έναν τομέα όπου τα παραδοσιακά εργαλεία ανάλυσης δεδομένων αποδίδουν καλύτερα και οικονομικότερα.
Οι ειδοποιήσεις ασφαλείας αποτελούν έναν ακόμη τομέα όπου μεγάλες ποσότητες δεδομένων πρέπει να φιλτράρονται και να ταξινομούνται για χρήση. Η εφαρμογή δαπανηρών, υπερβολικά εξελιγμένων εργαλείων τεχνητής νοημοσύνης απλώς και μόνο για να υπάρχουν αυξάνει τα κόστη, δεσμεύει υπολογιστική ισχύ και απορροφά πολύτιμους πόρους όταν άλλα προηγμένα εργαλεία θα επαρκούσαν για αυτό το έργο. Για αυτήν την περίπτωση, προτιμώνται λύσεις όπως το Fortra Threat Brain, το οποίο συσχετίζει τους δείκτες παραβίασης (IOCs) κατά μήκος της αλυσίδας επίθεσης αξιοποιώντας κοινή πληροφόρηση και τηλεμετρία από πολλαπλά εργαλεία.
Ήμασταν πιο ασφαλείς πριν την τεχνητή νοημοσύνη;
Καθώς γεφυρώνουμε το χάσμα μεταξύ της φαντασίωσης και της πραγματικότητας της τεχνητής νοημοσύνης είναι σημαντικό να γνωρίζουμε σε ποιους τομείς είναι απαραίτητη και σε ποιους μετουσιώνεται σε πρόσθετο επιχειρησιακό βάρος. Όταν κάτι εξαντλεί τους πόρους, έχει επιπτώσεις και στους ήδη καταπονημένους πόρους ασφαλείας.
Παρόλο που η τεχνητή νοημοσύνη μπορεί να αντιμετωπίσει επιθέσεις υποστηριζόμενες από AI, η ασφάλεια ενός οργανισμού θα εξαρτηθεί από την ικανότητά του να χρησιμοποιεί την τεχνητή νοημοσύνη αποτελεσματικότερα από τους αντιπάλους που την εργαλειοποιούν. Η επίτευξη αυτού του στόχου απαιτεί μια πειθαρχημένη προσέγγιση για την ασφαλή και κατάλληλη υλοποίηση και εφαρμογή της τεχνητής νοημοσύνης.
Πηγή: Fortra