Χωρίς κυβερνοασφάλεια, η τεχνητή νοημοσύνη είναι τεράστιο ρίσκο

Χωρίς κυβερνοασφάλεια, η τεχνητή νοημοσύνη είναι τεράστιο ρίσκο

Πολύ σύντομα η τεχνητή νοημοσύνη θα γίνει τόσο αναπόσπαστο κομμάτι της ζωής μας όσο το ηλεκτρικό ρεύμα

3' 16" χρόνος ανάγνωσης

Η συζήτηση για την τεχνητή νοημοσύνη βρίσκεται στο απόγειό της, το ίδιο και ο σκεπτικισμός γύρω από αυτήν. Ομως, η τεχνητή νοημοσύνη έχει έρθει για να μείνει. Παρότι κάποια πρωτοσέλιδα επικρίνουν τους τεχνολογικούς γίγαντες για τη χρήση AI στα μέσα κοινωνικής δικτύωσης ή για τα αμφιλεγόμενα καταναλωτικά εργαλεία, η τεχνητή νοημοσύνη γίνεται αναντικατάστατη. Η αποδοτικότητά της είναι ασυναγώνιστη, υποσχόμενη οφέλη που καμία επιχείρηση ή κυβέρνηση δεν μπορεί να αγνοήσει.

Πολύ σύντομα η τεχνητή νοημοσύνη θα γίνει τόσο αναπόσπαστο κομμάτι της ζωής μας όσο το ηλεκτρικό ρεύμα – που φορτίζει τα αυτοκίνητά μας, επηρεάζει την υγειονομική μας περίθαλψη, προστατεύει τις τράπεζές μας και κρατάει τα φώτα ανοιχτά.

Το μεγάλο ερώτημα είναι: Είμαστε έτοιμοι για ό,τι έρχεται;

Η δημόσια συζήτηση γύρω από την AI περιστρέφεται μέχρι στιγμής κυρίως γύρω από την ηθική, την παραπληροφόρηση και το μέλλον της εργασίας. Αλλά υπάρχει ένα ζωτικής σημασίας ζήτημα που διαφεύγει την προσοχή όλων: η ασφάλεια της ίδιας της τεχνητής νοημοσύνης. Με την ΑΙ ενσωματωμένη σχεδόν σε κάθε πλευρά της κοινωνικής ζωής, δημιουργούμε τεράστια, διασυνδεδεμένα συστήματα που έχουν τη δύναμη να διαμορφώσουν –ή, στα λάθος χέρια, να καταστρέψουν– την καθημερινότητά μας. Είμαστε προετοιμασμένοι για τους πιθανούς κινδύνους;

Καθώς δίνουμε στην AI περισσότερο έλεγχο σε εργασίες –από τη διάγνωση ασθενειών μέχρι τη διαχείριση πρόσβασης σε υψηλής σημασίας περιοχές– οι πιθανότητες μιας κυβερνοεπίθεσης, μαζί και οι συνέπειές τους, αυξάνονται εκθετικά. Δυστυχώς, όσο και να μη μας αρέσει, σε κάποιες λειτουργίες της, η AI είναι τόσο εύθραυστη όσο και ισχυρή.

Υπάρχουν δύο κύριοι τρόποι για να επιτεθεί κανείς σε συστήματα AI. Ο πρώτος είναι η κλοπή δεδομένων, θέτοντας σε κίνδυνο τα πάντα, από προσωπικά ιατρικά αρχεία έως ευαίσθητα εταιρικά μυστικά. Οι χάκερ μπορούν να παραπλανήσουν τα μοντέλα ώστε να εκθέσουν ασφαλείς πληροφορίες, είτε εκμεταλλευόμενοι ιατρικές βάσεις δεδομένων είτε ξεγελώντας chatbots προκειμένου να παρακάμψουν τα ίδια τους τα συστήματα ασφαλείας.

Ο δεύτερος είναι να σαμποτάρουν τα ίδια τα μοντέλα, αλλοιώνοντας τα αποτελέσματα με επικίνδυνους τρόπους. Ενα αυτοκίνητο με τεχνολογία AI που ξεγελιέται ώστε να διαβάσει μια πινακίδα «STOP» ως «70 χλμ./ώρα» δείχνει πόσο πραγματική μπορεί να είναι η απειλή. Και καθώς η τεχνητή νοημοσύνη επεκτείνεται, η λίστα των πιθανών επιθέσεων θα μεγαλώνει.

Ωστόσο, η απόρριψη της AI λόγω αυτών των πιθανών κινδύνων θα ήταν το μεγαλύτερο λάθος απ’ όλα. Αν θυσιάζαμε την ανταγωνιστικότητα στον βωμό της ασφάλειας, θα αφήναμε τους οργανισμούς να εξαρτώνται από τρίτους, που στερούνται εμπειρίας και ελέγχου σε μια τεχνολογία που εξελίσσεται ραγδαία σε απαραίτητη. Πώς λοιπόν μπορούμε να αποκομίσουμε τα οφέλη της AI χωρίς να ρισκάρουμε; Με τρία καθοριστικά βήματα:

Επιλέξτε σοφά τεχνολογίες AI. Δεν είναι ολόκληρη η τεχνητή νοημοσύνη το ίδιο ευάλωτη σε επιθέσεις. Τα μεγάλα γλωσσικά μοντέλα, για παράδειγμα, είναι ιδιαίτερα ευαίσθητα επειδή βασίζονται σε τεράστια σύνολα δεδομένων και στατιστικές μεθόδους. Αλλοι τύποι AI, όπως τα συμβολικά ή τα υβριδικά μοντέλα, είναι λιγότερο εξαρτημένα από δεδομένα και λειτουργούν με σαφείς κανόνες, καθιστώντας δυσκολότερη την παραβίασή τους.

Εφαρμόστε άμυνες που αποδεδειγμένα λειτουργούν. Εργαλεία όπως η ψηφιακή υδατογράφηση (watermark), η κρυπτογράφηση και η εξατομικευμένη εκπαίδευση μπορούν να θωρακίσουν τα μοντέλα AI έναντι αναδυόμενων απειλών. Για παράδειγμα, το «Battle Box» της Thales επιτρέπει στις ομάδες κυβερνοασφάλειας να δοκιμάζουν τα μοντέλα AI υπό πίεση, βρίσκοντας και διορθώνοντας αδυναμίες πριν τις εκμεταλλευθούν οι χάκερ.

Αναβαθμίστε την οργανωτική κυβερνοασφάλεια. Η τεχνητή νοημοσύνη δεν λειτουργεί εν κενώ – είναι μέρος ενός ευρύτερου πληροφοριακού οικοσυστήματος. Τα παραδοσιακά μέτρα κυβερνοασφάλειας πρέπει να ενισχυθούν και να προσαρμοστούν στις ανάγκες της AI εποχής. Αυτό ξεκινά με την εκπαίδευση των εργαζομένων – το ανθρώπινο λάθος, άλλωστε, παραμένει η αχίλλειος πτέρνα κάθε συστήματος κυβερνοασφάλειας.

Κάποιοι μπορεί να θεωρούν ότι η μάχη για την τεχνητή νοημοσύνη είναι απλώς άλλο ένα κεφάλαιο στη συνεχιζόμενη σύγκρουση μεταξύ όσων δρουν υστερόβουλα και των ανυποψίαστων θυμάτων τους. Αυτή τη φορά, όμως, τα διακυβεύματα είναι σημαντικότερα από κάθε άλλη φορά. Αν η ασφάλεια της τεχνητής νοημοσύνης δεν αποτελέσει προτεραιότητα, κινδυνεύουμε να παραχωρήσουμε τον έλεγχο σε εκείνους που θα χρησιμοποιήσουν τη δύναμή της για κακό σκοπό.

* Ο κ. Πατρίς Κέιν είναι διευθύνων σύμβουλος του ομίλου Thales.

comment-below Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή

Editor’s Pick

ΤΙ ΔΙΑΒΑΖΟΥΝ ΟΙ ΣΥΝΔΡΟΜΗΤΕΣ

MHT