Ποιος μπορεί να εμποδίσει το υπουργείο Πολέμου των ΗΠΑ να χρησιμοποιήσει την τεχνητή νοημοσύνη για μαζική παρακολούθηση πολιτών ή για τον εξοπλισμό αυτόνομων οπλικών συστημάτων που θα παρακάμπτουν τον ανθρώπινο παράγοντα στη λήψη αποφάσεων; Η απάντηση δόθηκε από την εταιρεία τεχνολογίας Anthropic, η οποία επέμεινε ότι δεν μπορεί να αφαιρέσει αυτές τις δύο δικλίδες ασφαλείας από τη συμφωνία τους, πυροδοτώντας σφοδρή αντιπαράθεση μεταξύ των δύο πλευρών και την υποβολή εκατέρωθεν μηνύσεων.
Το Πεντάγωνο απευθύνθηκε σε άλλη εταιρεία, την OpenAI. Κι ενώ αρχικά ο κολοσσός τεχνητής νοημοσύνης ανακοίνωσε ότι διατήρησε τις ίδιες «κόκκινες γραμμές» που είχε θέσει και η Anthropic, ο διευθύνων σύμβουλος, Σαμ Αλτμαν, παραδέχθηκε εντέλει ότι η εταιρεία δεν ελέγχει τον τρόπο με τον οποίο η αμερικανική κυβέρνηση χρησιμοποιεί τα προϊόντα της.
Μπαράζ βομβαρδισμών με τη βοήθεια της ΑΙ
Η αντιπαράθεση κυβέρνησης και ιδιωτικών εταιρειών για τη χρήση AΙ σε πολέμους δεν αφορά ένα μελλοντικό σενάριο. Ηδη χρησιμοποιείται εκτεταμένως στις στρατιωτικές επιχειρήσεις των ΗΠΑ εναντίον του Ιράν. Στις 28 Φεβρουαρίου, αμερικανικά και ισραηλινά μαχητικά χτύπησαν πάνω από 1.000 στόχους στο Ιράν. Οπως σημειώνει η Washington Post, για την επιλογή των χτυπημάτων «επιστρατεύθηκε» η τεχνητή νοημοσύνη, η οποία εντόπιζε στόχους και τους ιεραρχούσε σε πραγματικό χρόνο. Σύμφωνα με το ρεπορτάζ, οι αμερικανικές δυνάμεις χρησιμοποιούν το Maven Smart System της Palantir, που επιτρέπει σε έναν χειριστή να εγκρίνει έως 80 στόχους την ώρα, έναντι 30 χωρίς AI.
Ρεπορτάζ της Wall Street Journal συμπληρώνει ότι, στο πλαίσιο της επιχείρησης εξόντωσης του ανώτατου ηγέτη του Ιράν, Αλί Χαμενεΐ, οι ισραηλινές υπηρεσίες πληροφοριών παρακολουθούσαν επί χρόνια χακαρισμένες κάμερες κυκλοφορίας στην Τεχεράνη και υπέκλεπταν επικοινωνίες ανώτερων αξιωματούχων, και σε αυτή την περίπτωση με τη βοήθεια τεχνητής νοημοσύνης.
Ηθικά και νομικά διακυβεύματα
Μιλώντας στην «Κ», η καθηγήτρια Πολιτικής Θεωρίας στο Queen Mary University of London, Ελκε Σβαρτς, σημειώνει πως υπάρχουν πολλοί τρόποι με τους οποίους η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για στρατιωτικούς σκοπούς – πολλοί εκ των οποίων εγείρουν σημαντικά ηθικά ζητήματα.
Οπως εξηγεί, η AI μπορεί να χρησιμοποιηθεί για τη βελτιστοποίηση των επιχειρήσεων εφοδιαστικής αλυσίδας, τη συντήρηση οχημάτων και εξοπλισμού, ή για μεταφράσεις. Μπορεί επίσης να αξιοποιηθεί για τον συντονισμό σμηνών drones. «Εκεί που τα πράγματα γίνονται πολύ πιο περίπλοκα είναι όταν αρχίζουμε να αναθέτουμε ένα αυξανόμενο μέρος της τακτικής και στρατηγικής λήψης αποφάσεων στην τεχνητή νοημοσύνη. Για τους αρμοδίους των στρατιωτικών επιχειρήσεων αυτός ακριβώς είναι ο στόχος. Να ενσωματωθεί η τεχνητή νοημοσύνη στις περισσότερες, αν όχι σε όλες, λειτουργίες των επιχειρήσεων, συμπεριλαμβανομένου του κύκλου στόχευσης όπου τα ηθικά και νομικά διακυβεύματα είναι ιδιαίτερα υψηλά, και αυτό φαίνεται να βλέπουμε αυτή τη στιγμή στην πρόσφατη σύγκρουση μεταξύ ΗΠΑ και Ιράν», εξηγεί.
Ποιος φέρει την ευθύνη;
Κατά τον Βασίλη Βασσάλο, ανώτερο διευθυντή AI της εταιρείας Automation Anywhere και καθηγητή Πληροφορικής στο Οικονομικό Πανεπιστήμιο Αθηνών, η χρήση AI σε τόσο σημαντικό επίπεδο αποφάσεων προκαλεί σημαντικούς κινδύνους για δύο λόγους.
«Ο πρώτος είναι ότι οι σημερινές τεχνολογικές δυνατότητες δεν διασφαλίζουν πάντοτε επαρκή ακρίβεια στην αξιολόγηση της πραγματικής κατάστασης. Δεν υπάρχουν δηλαδή επαρκείς εγγυήσεις ότι το σύστημα αντιλαμβάνεται σωστά τι συμβαίνει σε ένα περιβάλλον πολέμου όπου υπάρχει και το λεγόμενο fog of war. Το δεύτερο σημαντικό ζήτημα αφορά την ευθύνη της τελικής απόφασης. Σήμερα δεν υπάρχει σαφές νομικό πλαίσιο που να ρυθμίζει ποιος φέρει την ευθύνη σε τέτοιες περιπτώσεις», σημειώνει.
«Δεν υπάρχουν επαρκείς εγγυήσεις ότι το σύστημα αντιλαμβάνεται σωστά τι συμβαίνει σε ένα περιβάλλον πολέμου όπου υπάρχει και το λεγόμενο fog of war».
Στο ζήτημα της αξιοπιστίας των συστημάτων AI στέκεται και ο Γιώργος Τζογόπουλος, λέκτορας στο Ευρωπαϊκό Πανεπιστήμιο της Νίκαιας και αναλυτής στο ΕΛΙΑΜΕΠ, αναφέροντας πως όπου περιορίζεται ο ανθρώπινος έλεγχος, αυτόματα, περιορίζεται και η δυνατότητα επαλήθευσης των συστημάτων.
Γνωρίζοντας πως τα συστήματα τεχνητής νοημοσύνης δεν είναι ιδιαίτερα αξιόπιστα, κατά την άποψή του, σε ένα τόσο ασταθές διεθνές περιβάλλον, μία λάθος απόφαση από σύστημα AI θα μπορούσε να οδηγήσει σε ευρύτερη σύρραξη.
Απόφαση ζωής και θανάτου
Για τον Μίχαελ Ρίχαρντσον, καθηγητή Μέσων και Πολιτισμού στο University of New South Wales, ο μεγαλύτερος κίνδυνος από την ενσωμάτωση της τεχνητής νοημοσύνης στις στρατιωτικές επιχειρήσεις είναι ότι μεταφέρει στις μηχανές την ευθύνη της απόφασης μεταξύς ζωής και θανάτου. Ο ίδιος εξηγεί λέγοντας πως τα συστήματα AI μπορούν να χρησιμοποιηθούν για να προτείνουν στόχους και στη συνέχεια να αποφασίζουν αν δικαιολογείται μια θανατηφόρα ενέργεια, ή ακόμη και για να συντονίζουν τις αποστολές και τις ενέργειες βομβαρδιστικών, πυραύλων και στρατευμάτων. «Με τη μεταφορά της ευθύνης στις μηχανές αναφορικά με αποφάσεις που μπορεί να είναι και θανατηφόρες, οι στρατοί αποφεύγουν να λάβουν επιλογές, οι οποίες όμως βασίζονται στην ηθική και τη δεοντολόγια τους», εξηγεί ο ίδιος.
«Τυφλή» εμπιστοσύνη
Πώς όμως φτάσαμε στο να μιλάμε για «τυφλή» εμπιστοσύνη στην τεχνητή νοημοσύνη ακόμη και σε τόσα κρίσιμα ζητήματα, όπως το σημείο ενός βομβαρδισμού; Η κ. Σβαρτς εξηγεί πως τα συστήματα που προτείνουν χιλιάδες στόχους την ημέρα, αν όχι την ώρα, δημιουργούν αφενός ένα «automation bias», δηλαδή μια τάση που η απόφαση της μηχανής γίνεται αυθεντία και ο άνθρωπος έχει περιορισμένη γνωστική δυνατότητα να την αμφισβητήσει· και αφετέρου ένα «action bias», δηλαδή μια τάση δράσης, που η ταχύτητα της μηχανικής απόφασης δημιουργεί αίσθηση επείγοντος για άμεση ενέργεια.
«Γίνεται εξαιρετικά δύσκολο να αξιολογηθεί η εγκυρότητα όλων αυτών των στόχων όταν προτεραιότητα έχουν η ταχύτητα και η κλίμακα».
«Σκεφτείτε το εξής. Αν οι ΗΠΑ στοχοποίησαν 1.000 στόχους μέσα στις πρώτες 24 ώρες, αυτό σημαίνει περίπου 41 προτεινόμενους στόχους την ώρα. Πρόκειται για έναν πολύ μεγάλο αριθμό και γίνεται εξαιρετικά δύσκολο να αξιολογηθεί η εγκυρότητα όλων αυτών των στόχων όταν προτεραιότητα έχουν η ταχύτητα και η κλίμακα», σημειώνει η ειδικός, ενώ ο κ. Ρίχαρντσον συμπληρώνει ότι «στη Γάζα, για παράδειγμα, δημοσιογραφικές έρευνες έδειξαν ότι οι Ισραηλινές Ενοπλες Δυνάμεις σχεδόν πάντα ακολουθούσαν χωρίς αμφισβήτηση τις συστάσεις των μοντέλων τεχνητής νοημοσύνης για τη στόχευση».
Ειδικοί και αναλυτές σε θέματα AI θεωρούν πως όσο περισσότερο θα χρησιμοποιείται η στρατιωτική τεχνητή νοημοσύνη τόσο πιο δύσκολη θα είναι η λογοδοσία για το πώς δημιουργήθηκαν και έγιναν αντικείμενο επεξεργασίας οι πληροφορίες, ή γιατί το σύστημα τεχνητής νοημοσύνης παρήγαγε συγκεκριμένα αποτελέσματα.
«Αν δεν υπάρξει ένας πολύ αυστηρός τρόπος περιορισμού αυτής της χρήσης, το πιθανότερο αποτέλεσμα είναι να προκληθεί περισσότερη βλάβη. Και στον πόλεμο είναι πάντοτε οι άμαχοι που υφίστανται το μεγαλύτερο βάρος της βίας», καταλήγει η κ. Σβαρτς.

