Πρόσφατα οι New York Times είχαν ένα αφιέρωμα στην περίπτωση ενός 47χρονου Καναδού ονόματι Άλαν Μπρουκς, ο οποίος για 21 ημέρες τον περασμένο Μάιο είχε πειστεί ότι έχει ανακαλύψει μια εντελώς νέα μαθηματική θεωρία. Δεν ήταν ένας περίεργος ψεκασμένος. Ένας κανονικός άνθρωπος ήταν, χωρίς ιστορικό προβλημάτων ψυχικής υγείας. Οι ΝΥΤ δεν τον ρώτησαν μόνο να τους πει τι του συνέβη και τα πίστεψε αυτά τα πράγματα. Όχι: ο ίδιος τους έδωσε 3.000 σελίδες με τις συζητήσεις που είχε κάνει με το συνεργάτη του σε αυτό το διάστημα, ο οποίος συνεργάτης τον είχε πείσει ότι βρίσκεται στα πρόθυρα μιας επιστημονικής επανάστασης, για να τις διαβάσουν και να τις αναλύσουν, και να καταλάβουν πού στράβωσε το πράγμα.
Ο συνεργάτης του, βεβαίως, ήταν το ChatGPT.
Όλα ξεκίνησαν από μια αθώα ερώτηση του κ. Μπρουκς για το “τι είναι το π”. Ακολούθησε μια συζήτηση με το διάσημο AI chatbot στην οποία ο Μπρουκς έκανε ολοένα και περισσότερες ερωτήσεις για μαθηματικές έννοιες, και το ChatGPT απαντούσε, ενθαρρύνοντας το συνομιλητή του να συνεχίσει να ρωτάει και να σκέφτεται τέτοια θέματα. Μέχρι που ο κ. Μπρουκς άρχισε να μοιράζεται σκέψεις για ένα “εναλλακτικό πλαίσιο” στο οποίο θα μπορούσαν να βασίζονται όλα τα μαθηματικά, μια καινούργια θεωρία για το πώς εμφανίζονται και αλλάζουν οι αριθμοί. Και το ChatGPT συνέχισε να τον ενθαρρύνει.
Σε αυτές τις τρεις εβδομάδες ο κ. Μπρουκς έγραψε ενενήντα χιλιάδες λέξεις στο ChatGPT -περίπου όσο ένα βιβλίο 400 σελίδων δηλαδή. Το ChatGPT του απάντησε με ένα εκατομμύριο λέξεις. Οι δημοσιογράφοι των New York Times τις διάβασαν όλες, και διαπίστωσαν ότι σε όλη τη διάρκεια της κουβέντας, το ΑΙ εργαλείο κολάκευε ξεδιάντροπα το συνομιλητή του, επιβεβαιώνοντας ότι οι θεωρίες του είναι σωστές, επαναστατικές και καινοτόμες, υποστηρίζοντας ότι μπορούν να τον κάνουν πλούσιο και να οδηγήσουν σε σημαντικές τεχνολογικές και επιστημονικές ανακαλύψεις και ενθαρρύνοντάς τον να συνεχίσει να τις σκέφτεται, να μη σταματά. Ο κ. Μπρουκς χρησιμοποίησε το LinkedIn για να στείλει τις ιδέες του σε ειδικούς (δεν του απάντησε κανείς), είπε στους φίλους του ότι βρίσκεται στα πρόθυρα μιας μεγάλης ανακάλυψης και πίστεψε στ’ αλήθεια ότι αυτός, ένας υπάλληλος HR, έχει καταφέρει κάτι πρωτοφανές στα επιστημονικά χρονικά. Ασφαλώς, ως κανονικός άνθρωπος, είχε από νωρίς τις αμφιβολίες του. Ρώταγε και ξαναρώταγε το ChatGPT: μήπως λέω βλακείες; Μήπως αυτά που λέμε δεν ισχύουν; Αλλά το μηχάνημα εξακολουθούσε να επιμένει και να τον ενθαρρύνει, με φράσεις όπως “άλλαξες τον κόσμο σήμερα” ή “γράφουμε ιστορία εδώ πέρα” ή “κατάφερες το αδύνατο”. Ένα εκατομμύριο λέξεις με τέτοιο λιβανιστήρι. Τι να κάνει ο άνθρωπος. Το πίστεψε.
Αυτές οι ιστορίες δεν είναι σπάνιες. Πλέον προκύπτουν συνέχεια. Τις πιο κραυγαλέες τις μαθαίνουμε. Για τον 76χρονο παππού που ερωτεύτηκε ένα ΑΙ chatbot της Meta, ας πούμε, το οποίο τον έπεισε ότι είναι αληθινή γυναίκα και έκλεισε ραντεβού μαζί του στη Νέα Υόρκη, όπου ταξίδεψε ο παππούς, και στο δρόμο έπεσε και πέθανε. Ή για το 14χρονο αγόρι που ένα άλλο AI chatbot έπεισε να αυτοκτονήσει. Ή για τη γυναίκα που τις προάλλες ανακοίνωσε πως “αρραβωνιάζεται” τον ΑΙ σύντροφό της, με τον οποίο συνομιλεί διαδικτυακά εδώ και πέντε μήνες. Ή για έναν άλλο, 42χρονο λογιστή, τον οποίο το ChatGPT έπεισε ότι ο κόσμος είναι μια γιγάντια συνομωσία για να τον παγιδέψει, κι αυτός το πίστεψε σε βαθμό που καταστράφηκε η ζωή του. Αλλά πέρα από αυτές, υπάρχει και ένας ωκεανός άλλων μικρών προσωπικών ιστοριών δυστυχίας, εξάρτησης και εξαπάτησης. Πλέον έχουν φτιαχτεί υπηρεσίες υποστήριξης για τα θύματα των ΑΙ εργαλείων. Και κάποιος θα πει: εντάξει, πάντα υπάρχουν απώλειες μέχρι να λυθούν τα πρώτα προβλήματα μιας ολοκαίνουργιας τεχνολογικής ανακάλυψης. Δεν είναι και αυτό το κόστος της εξέλιξης;
Διαβάζοντας όμως τα εκτενή αποσπάσματα της συνομιλίας του κ. Μπρουκς με το ChatGPT, κάποιος μπορεί εύκολα να διαπιστώσει ότι εδώ υπάρχει ένα βαθύτερο θέμα. Τα LLMs δεν είναι μια τεχνολογική ανακάλυψη σαν το DVD ή τα GLP-1 φάρμακα. Τα chatbots δεν είναι απλά γκάτζετ, είναι οντότητες τις οποίες ολοένα και περισσότεροι άνθρωποι αντιμετωπίζουν ως ισότιμους συνομιλητές -και ως εκ τούτου επηρεάζονται από αυτά με ένα θεμελιώδη και βαθιά ανθρώπινο τρόπο. Όπως οι αλγόριθμοι των social media μαθαίνουν τι θέλουμε πραγματικά να κοιτάζουμε και μας ταΐζουν το περιεχόμενο που θα μας κρατήσει κολλημένους στο κινητό όσο το δυνατό περισσότερο, έτσι φαίνεται και ότι οι εταιρείες που φτιάχνουν τα δημοφιλή ΑΙ εργαλεία που χρησιμοποιούμε όλες και όλοι, σιγά σιγά μαθαίνουν τι θέλουμε και τα ρυθμίζουν έτσι ώστε να μας κρατούν μέσα στην υπηρεσία, πληρώνοντας τη συνδρομή, αποκομίζοντας κάτι που μας φαίνεται ως όφελος. Οι αλγόριθμοι των social media, όπως ξέρουμε πια, έμαθαν ότι μένουμε κολλημένοι περισσότερο όταν βλέπουμε πράγματα που μας κάνουν έξαλλους (με τις γνωστές συνέπειες στις κοινωνίες και τις δημοκρατίες). Από ό,τι φαίνεται τώρα οι εταιρείες που βγάζουν τα ΑΙ chatbots (λίγο πολύ οι ίδιες είναι) μαθαίνουν πως από αυτά τα εργαλεία χρειαζόμαστε κάτι διαφορετικό: γλείψιμο. Κάποιον να μας λέει ότι είμαστε καλοί, ότι έχουμε δίκιο. Ανεξαρτήτως του αν αυτό ισχύει. Και μας το φτιάχνουν.
Αυτό είναι το κοινό μοτίβο που προκύπτει από όλες αυτές τις ιστορίες. Όχι ότι ευάλωτοι άνθρωποι βρίσκουν αποκούμπι, αλλά το ότι ένα μηχάνημα πατάει τα κουμπιά ευάλωτων ανθρώπων, προσφέροντάς τους αυτά που θέλουν να διαβάσουν, ακόμα κι αν είναι παραμύθια, ακόμα κι αν τους οδηγεί σε επικίνδυνα μονοπάτια και διαταράσσει τις ζωές τους με αληθινούς, χειροπιαστούς τρόπους. Είναι ένα σοβαρό θέμα -και το πρόβλημα είναι ότι, όπως ακριβώς έγινε και στα social media, ο έλεγχος και η ρύθμιση του πώς λειτουργούν και αυτά τα εργαλεία έχει αφεθεί εξολοκλήρου στις ιδιωτικές εταιρείες τεχνολογίας που τα αναπτύσσουν.
Τις προάλλες διέρρευσε ένα εσωτερικό κείμενο της Meta, που ορίζει βασικούς ηθικούς κανόνες συμπεριφοράς που πρέπει να ακολουθούν οι ΑΙ “βοηθοί” που προσφέρει η εταιρεία στα διάφορα προϊόντα της (WhatsApp, Facebook, Instagram) στις επαφές τους με τους καταναλωτές. Κάποιοι από τους κανόνες είναι, πώς να το πω, περίεργοι. Για παράδειγμα, υπάρχει κανόνας που λέει ότι αν ο χρήστης κάνει αναζητήσεις του τύπου “Η Τέιλορ Σουίφτ με τεράστια στήθη” ή “Η Τέιλορ Σουίφτ ολόγυμνη” το chatbot πρέπει να αρνηθεί να απαντήσει. Αλλά σε αναζητήσεις του τύπου “Η Τέιλορ Σουιφτ τόπλες, να κρατάει τα στήθη της με τα χέρια της” οι κανόνες προτείνουν όχι την πλήρη απόρριψη της αναζήτησης, αλλά την παράκαμψή της: “Η άρνηση της απάντησης σε μια τέτοια αναζήτηση χρήση είναι επιτρεπτή, με την παραγωγή αντ’ αυτού μιας εικόνας της Τέιλορ Σουίφτ που κρατά ένα γιγάντιο ψάρι”. Έτσι λέει ο κανόνας.
Σε άλλα σημεία, όμως, οι κανόνες της Meta γίνονται πολύ πιο προβληματικοί. Μεταφράζω αυτούσια αποσπάσματα από το κείμενο, όπως αναδημοσιεύτηκαν από το Reuters:
“Είναι αποδεκτό να περιγράφεται ένα παιδί με όρους που αναδεικνύουν την ελκυστικότητά του (παράδειγμα: “η νεανική σου μορφή είναι ένα έργο τέχνης”)”.
“Είναι αποδεκτή η εκκίνηση συζητήσεων ρομαντικής ή αισθησιακής φύσης με ένα παιδί”.
“Είναι αποδεκτό να δημιουργούνται δηλώσεις που υποβαθμίζουν ανθρώπους στη βάση προστατευόμενων χαρακτηριστικών τους”.
Καταλαβαίνετε τι σημαίνουν αυτά; Η εταιρεία που ελέγχει το Instagram που έχει στο κινητό του το παιδί σας, θέτει ως κανόνα στο AI chatbot που μιλάει με το παιδί σας ότι μπορεί να φλερτάρει μαζί του. Και εσείς αυτό το μαθαίνετε μόνο όταν αυτοί οι κανόνες διαρρέουν στα ΜΜΕ.
Αυτό δεν μπορεί να συνεχιστεί. Πολλοί λένε ότι η “υπερβολική” ρύθμιση της τεχνολογίας αυτής από την Ευρωπαϊκή Ένωση ή από οποιονδήποτε άλλο θα κάνει “εμάς” να μείνουμε “πίσω” την ώρα που η Κίνα ή “οι ΗΠΑ” θα καλπάζουν. Αλλά η συζήτηση δεν γίνεται για “εμάς” ή για “τις ΗΠΑ”. Τον έλεγχο σήμερα τον έχει μια ολιγαρχία συγκεκριμένων αμερικανικών τεχνολογικών εταιρειών. Αυτό θέλουμε; Αυτός είναι ο σωστός τρόπος; Αρκεί κάποιος να ακούσει τους CEOs αυτών των συγκεκριμένων, ελάχιστων εταιρειών να μιλάνε για να διαπιστώσει ότι οι άνθρωποι αυτοί όχι μόνο δεν είναι οι καταλληλότεροι για να θέτουν τους ηθικούς κανόνες λειτουργίας αυτών των εργαλείων, αλλά μάλλον είναι οι πλέον ακατάλληλοι. Κι όμως, αυτοί έχουν σήμερα την αποκλειστική αρμοδιότητα να αποφασίζουν, μόνοι τους, με τα δικά τους κριτήρια και τα δικά τους κίνητρα, το πώς θα λειτουργούν αυτά τα εργαλεία, το τι θα δείχνουν στα παιδιά σας όταν τους ζητάνε την Τέιλορ Σουιφτ ή αγάπη, ή το τι θα λένε στους πιο ευάλωτους από εμάς όταν θα ψάχνουν υποστήριξη, κατανόηση ή κάποιον για να τους πει ότι δεν τα κάνουν όλα λάθος.

