Ως τώρα, οι κίνδυνοι είναι επαρκώς καταγεγραμμένοι, αν και μάλλον δεν έχουν γίνει απόλυτα κατανοητοί από όλους. Η αδυναμία του σημερινού συστήματος να μας προστατέψει από οποιονδήποτε από αυτούς τους κινδύνους είναι επίσης επαρκώς καταγεγραμμένη –τεκμηριώνεται κάθε μέρα, στους τίτλους των ειδήσεων. Οπότε τι μπορεί να γίνει; Τι πρέπει να κάνει ο κόσμος (τα κράτη, οι υπερεθνικοί οργανισμοί, οι ψηφοφόροι) για να εξασφαλιστεί ότι οι τεχνητές νοημοσύνες θα ωφελήσουν τον κόσμο μας, όπως μας υπόσχονται, και δεν θα καταστρέψουν οικονομίες, κοινωνικές ομάδες ή το ανθρώπινο είδος γενικώς;
Υπάρχουν διάφορες ιδέες περί του θέματος.
Πρώτα απ’ όλα, το ποιοι ακριβώς χαρακτηρίζονται κίνδυνοι από την ανεξέλεγκτη ανάπτυξη των εργαλείων τεχνητής νοημοσύνης από αμερικανικές και κινεζικές (κυρίως) εταιρείες τεχνολογίας, εξαρτάται από το ποιος γράφει το άρθρο. Κυμαίνονται από εντελώς χειροπιαστούς και καθημερινούς, που αφορούν το σήμερα –τους βιώνουμε ήδη– μέχρι τους πιο μακροπρόθεσμους και σχεδόν φιλοσοφικούς. Οι μεν είναι πιο εύκολο να αντιμετωπιστούν έστω και καθυστερημένα, βεβαίως. Οι δε μπορούν δυνητικά να έχουν πολύ πιο καταστροφικές συνέπειες.
Μια από τις πιο απλές και κατανοητές συνέπειες, για παράδειγμα, είναι η επίπτωση που έχουν τα νέα data centers που χτίζονται σε αδιανόητη κλίμακα σε όλο τον κόσμο, για να υποστηρίξουν την εκπαίδευση και την ταυτόχρονη λειτουργία των εργαλείων όλων αυτών των εταιρειών. Πρόκειται για πολύ διαφορετικές δομές από τα παλιά data centers που ξέραμε, αυτά όπου στεγαζόταν το επονομαζόμενο “cloud”. Τα ΑΙ data centers έχουν διαφορετικά μηχανήματα μέσα, διαφορετικά τσιπ μνήμης και εντελώς άλλης κλίμακας ανάγκες για ενέργεια και ψύξη. Χρειάζονται πάρα πολύ ηλεκτρικό ρεύμα και πολύ νερό. Και, καθώς είναι πάρα πολλά, και χτίζονται ολοένα και περισσότερα, πάρα πολύ γρήγορα, θα έχουν συνέπειες. Καταναλώνουν ήδη το 1,5% του ηλεκτρικού ρεύματος παγκοσμίως ενώ μέχρι το 2030 αναμένεται να καταναλώνουν το 3%. Ενα καινούργιο report της 1830 lab (PDF link) αναλύει ότι αυτό στην πράξη σημαίνει τέσσερα πράγματα:
1) τα data centers προκαλούν την αύξηση των λογαριασμών ρεύματος για όλους (και τους οικιακούς καταναλωτές),
2) τα data centers μπορεί να αποσταθεροποιούν το δίκτυο ηλεκτρικής ενέργειας,
3 ) τα data centers μπορεί να καθυστερούν τη μετάβαση σε «πράσινη», καθαρή ενέργεια και
4) τα data centers, ελλείψει κανόνων, χτίζονται οπουδήποτε προκαλώντας σοβαρά προβλήματα σε τοπικές κοινωνίες και στο περιβάλλον.
Ολα αυτά τα προβλήματα δεν είναι θεωρητικά. Τα βλέπουμε στην πράξη σε πολλές περιοχές του κόσμου, ειδικά σε μέρη που αναπτύσσουν ήδη μεγάλα AI data centers. Στο Τέξας είχαν 30 περιπτώσεις παρολίγον μπλακ άουτ τα τελευταία 5 χρόνια, εξαιτίας τους. Σε όλες τις περιπτώσεις, όμως, υπάρχουν και γνωστές και δοκιμασμένες λύσεις, τις οποίες το report καταγράφει αναλυτικά. Μάλιστα, καθώς στην Ελλάδα δεν έχει χτιστεί ακόμη κανένα ΑΙ data center, ίσως να προλαβαίνουμε να εφαρμόσουμε κάποιες από αυτές.
Για τις λύσεις που χρειάζονται, βεβαίως, αρμόδιο είναι μόνο το κράτος. Δεν μπορεί να είναι κανένας άλλος. Σε τέτοια θέματα, και θα το δούμε και παρακάτω αυτό, λύση μπορεί να δοθεί μόνο κεντρικά, με τον σχεδιασμό και την εφαρμογή κανόνων που να ισχύουν για όλους. Στη συγκεκριμένη περίπτωση, οι λύσεις περιλαμβάνουν σχετικά εύκολες θεσμικές παρεμβάσεις, από την υποχρέωση των κατασκευαστών να παράγουν τις δικές τους υποδομές ενέργειας “behind the meter” για να μην επιβαρύνουν το δίκτυο (φυσικά «πράσινες», με μπαταρίες, όχι να καίμε ορυκτά καύσιμα για compute) μέχρι την επικαιροποίηση του κανονιστικού πλαισίου για το πού μπορούν να χτίζονται data centers και πώς.
Αλλά, βεβαίως, αυτό είναι μόνο ένα από τα προβλήματα που καλούμαστε να αντιμετωπίσουμε από την ανάπτυξη της ΑΙ, ένα από τα πιο «πεζά», άμεσα, και εύκολα. Τι γίνεται με τα «μεγάλα»; Ο Ντάριο Αμοντέι της Anthropic τα έγραφε στο πρόσφατο μανιφέστο του, ο Μουσταφά Σουλεϊμάν της Microsoft τα έγραφε και αυτός αναλυτικότερα στο βιβλίο του παλαιότερα: τρομακτικές αναταραχές στην αγορά εργασίας, ανεργία, έκρηξη των ανισοτήτων, τεράστιοι κίνδυνοι από κακή χρήση της τεχνολογίας από τρομοκράτες, δικτάτορες και επιθετικά κράτη, τέτοια πράγματα. Πώς τα γλιτώνουμε αυτά;
Οι λύσεις που προτείνουν σε αυτό το επίπεδο οι CEOs των εταιρειών μοιάζουν, για να το πω κομψά, ανεπαρκείς.
Η Anthropic, για παράδειγμα, έχει φτιάξει ένα «Σύνταγμα» για το Claude, το πανίσχυρο εργαλείο της. Είναι ένα κείμενο βασικών αρχών που πρέπει να ακολουθεί πάντα το μοντέλο. Δεν του υπαγορεύουν μόνο συγκεκριμένες εντολές του τύπου «μη δώσεις στους χρήστες οδηγίες συναρμολόγησης μιας βόμβας» (δίνουν κάποιες, αλλά δεν θα μπορούσαν να προβλέψουν μία μία όλες τις πιθανές κακές χρήσεις) αλλά γενικές αξίες περί ηθικής, ειλικρίνειας και ασφάλειας. Σαν κανόνες για το πώς να υπάρχεις, σαν κατευθύνσεις για ένα μωρό με εγκέφαλο ενήλικα. Σαν να έπαιρνες τον χαρακτήρα της Εμα Στόουν από το Poor Things και να έπρεπε να της εξηγήσεις πώς να είναι καλός άνθρωπος. Αυτό προσπαθούν να κάνουν με το «Σύνταγμά» τους στην Anthropic. Και ο Ντάριο Αμοντέι πιστεύει ότι αυτό αρκεί, φτάνει να γίνεται με διαφάνεια.
Το χαρακτηριστικό με αυτά τα μοντέλα είναι ότι, αντίθετα με τα κανονικά προγράμματα στους ηλεκτρονικούς υπολογιστές, δεν μπορείς να δεις τον κώδικά τους και να καταλάβεις τι κάνουν. Αν κάποιος ανοίξει και διαβάσει τον κώδικα του Microsoft Word μπορεί να καταλάβει ακριβώς τι κάνει, πώς μεταχειρίζεται τα αρχεία, πού εμφανίζει τα κουμπιά, τι κάνει κάθε κουμπί. Τα LLMs όμως δουλεύουν εντελώς διαφορετικά. Οι δημιουργοί τους δεν ξέρουν ακριβώς πώς λειτουργούν. Προσπαθούν εκ των υστέρων να καταλάβουν γιατί βγάζουν τα αποτελέσματα που βγάζουν, και έτσι, με έμμεση παρατήρηση, να κάνουν τις διορθώσεις και τις δοκιμές. Σαν να εκπαιδεύεις έναν πολύ έξυπνο και κάπως πιο περίπλοκο σκύλο. Εχουν διάφορους τρόπους να παρακολουθούν αυτή τη διαδικασία, και εδώ πολύ κρίσιμος παράγοντας είναι ότι αυτή η διαδικασία πρέπει να γίνεται δημόσια. Οποτε βρίσκουν προβλήματα, πρέπει να τα δημοσιεύουν, για να τα βλέπουν και όλοι οι άλλοι που ασχολούνται με τον χώρο. Γιατί αν μία εταιρεία που φτιάχνει LLMs βρει έναν τρόπο να αντιμετωπίσει ένα πρόβλημα, μια μεθοδολογία η οποία δεν θα επιτρέπει στο εργαλείο να εκβιάζει τους χρήστες που έχουν την αρμοδιότητα να το κλείσουν, πρέπει να τη δείχνουν και στους άλλους.
Είναι αυτό αρκετό; Φτάνει να δίνεις «ηθικούς κανόνες» στα εργαλεία αυτά, και να δείχνεις δημόσια πώς λύνεις προβλήματα και αστοχίες; Στο μανιφέστο του ο Αμοντέι γράφει πως, γενικά, πέρα από τις εθελοντικές πρωτοβουλίες με τα «Συντάγματα», υποστηρίζει και ρυθμίσεις από το κράτος, αλλά μόνο στον βαθμό που αναγκάζουν τις εταιρείες να δημοσιοποιούν πρακτικές και λύσεις, να λειτουργούν δηλαδή με διαφάνεια. Μοιάζει να πιστεύει ότι ναι, μόνο αυτό αρκεί.
Δεν είναι καθόλου πειστικό αυτό. Στις συμφωνίες για τον περιορισμό των πυρηνικών όπλων δεν ζητάνε μόνο διαφάνεια από τις χώρες. Βάζουν όρια στον αριθμό των πυρηνικών κεφαλών. Αλλά σήμερα, πολλές άλλες εταιρείες στις ΗΠΑ –και όλες οι ανταγωνιστικές της Anthropic– κάνουν λυσσαλέο λόμπινγκ κατά οποιασδήποτε ρύθμισης, ακόμα και σε ήπιες παρεμβάσεις που να απαιτούν διαφάνεια.
Δεν είναι λύση αυτό.
Λύση μπορεί να είναι μόνο το να αντιμετωπιστούν οι ΑΙ όπως αντιμετωπίστηκαν από τη διεθνή κοινότητα τα πυρηνικά όπλα –κι αυτό είναι που προτείνει και ο Μουσταφά Σουλεϊμάν στο βιβλίο του, όπως έχουμε ξαναγράψει.
Τι σόι λύσεις είναι αυτές;
- Διεθνείς συμφωνίες για τον περιορισμό και τη χρήση των εργαλείων ΑΙ, παρόμοιες με συμφωνίες που έχουν υπογραφεί για τα πυρηνικά ή τα βιολογικά όπλα.
- Δημιουργία νέων οργανισμών με χιλιάδες εργαζομένους για την έρευνα πάνω σε θέματα τεχνικής ασφάλειας και ελέγχου των ΑΙ.
- Θέσπιση ανεξάρτητων οργανισμών εποπτείας των εταιρειών και των φορέων που αναπτύσσουν τεχνολογίες και εργαλεία.
- Αύξηση της φορολογίας στην εργασία των μηχανών (ώστε να μην ανταγωνίζονται άνισα το κόστος της εργασίας των ανθρώπων).
- Αυστηρές κρατικές πιστοποιήσεις για εταιρείες και οργανισμούς που μπορούν να παράγουν τέτοια εργαλεία (όπως κάνει η Κίνα).
«Ακριβώς όπως στις ΗΠΑ είναι αδύνατο για μια εταιρεία σήμερα να εκτοξεύσει έναν πύραυλο χωρίς την άδεια της κυβέρνησης», γράφει ο Σουλεϊμάν, «έτσι αύριο δεν θα έπρεπε να επιτρέπεται να λανσάρει ένα εξελιγμένο μοντέλο τεχνητής νοημοσύνης».
Γίνονται αυτά τα πράγματα; Θα έπρεπε να μπορούν να γίνουν. Δεν είναι τόσο εξωφρενικό. Σε κάποιο βαθμό το δεύτερο bullet συμβαίνει ήδη. Στη Μεγάλη Βρετανία έχουν στήσει μια εξαιρετική κρατική υπηρεσία ειδικά γι’ αυτό το θέμα, ονόματι AI Security Institute (AISI). Με δομή παρόμοια με τη δομή της task force που έτρεξε την ανάπτυξη εμβολίων για την Covid, είναι μια ευέλικτη υπηρεσία που στελεχώνεται από ακαδημαϊκούς, μηχανικούς και άλλους ειδικούς του χώρου, με μπάτζετ 66 εκατομμύρια λίρες τον χρόνο και μοναδικό σκοπό να δοκιμάζει τις υποδομές ασφάλειας όλων των ΑΙ εργαλείων. Ο οργανισμός δημοσιεύει διαρκώς μελέτες και αναλύσεις, αποκαλύπτοντας τρωτά σημεία και προβλήματα, αλλά και χαρακτηριστικά των ΑΙ εργαλείων που δεν έχουν άμεση σχέση με την ασφάλεια: όπως το ότι οι συζητήσεις με chatbots είναι 50% πιο αποτελεσματικές στο να αλλάζουν τη γνώμη χρηστών για πολιτικά θέματα από ό,τι η ανάγνωση απλών «στατικών» κειμένων. Σαν ένα ανεξάρτητο παρατηρητήριο που «δοκιμάζει» εγκαίρως τις ευαλωτότητες και τα προβλήματα των εργαλείων, χωρίς να εξαρτάται από την καλή προαίρεση των αμερικανικών και κινεζικών εταιρειών. Θα πρέπει να φτιαχτεί ένας μεγαλύτερος τέτοιος οργανισμός, στα πρότυπα του IPCC του ΟΗΕ που παρακολουθεί το φαινόμενο της κλιματικής αλλαγής. Και μετά να γίνουν και όλα τα άλλα, ακόμα δυσκολότερα bullets.
Γίνεται; Δύσκολα. Αλλά από ό,τι φαίνεται υπάρχει τουλάχιστον μια κοινωνική ομάδα που συμφωνεί με αυτή την κατεύθυνση, εκτός από τους πιο ευαισθητοποιημένους tech bro CEOs: οι λαοί. Σύμφωνα με την πρόσφατη έρευνα της διαΝΕΟσις, το 90,3% των πολιτών που δηλώνουν ότι ξέρουν τι είναι η ΑΙ, συμφωνούν με την επιβολή περιορισμών στη χρήση της.
