Τον περασμένο Αύγουστο οι New York Times δημοσίευσαν ένα αφιέρωμα για την τραγική ιστορία του Άνταμ Ρέιν, ενός 16χρονου μαθητή από την Καλιφόρνια. Ο Άνταμ, όπως τα περισσότερα παιδιά στην ηλικία του, είχε αρχίσει να χρησιμοποιεί το ChatGPT, το διάσημο ΑΙ chatbot της OpenAI, για να κάνει τα μαθήματά του (ή, υπό μία έννοια, για να μην κάνει τα μαθήματά του). Αλλά σιγά σιγά οι συζητήσεις του με το chatbot άλλαξαν χαρακτήρα. Το παιδί άρχισε να εκμυστηρεύεται στο μηχάνημα προσωπικές σκέψεις και ιδέες, όλα τα θέματα που τον απασχολούσαν. Το ρωτούσε για τον αθλητισμό, για τα κορίτσια, για το σχολείο, για τις σχέσεις του με τους άλλους, (τους ανθρώπινους) φίλους του. Σύντομα άρχισε να συζητάει με το μηχάνημα και για μια πιο κρυφή σκέψη του: του είπε ότι ήθελε να αυτοκτονήσει. Στο αφιέρωμα της εφημερίδας περιλαμβάνονται εκτενή ανατριχιαστικά αποσπάσματα από τις συνομιλίες του παιδιού με το chatbot. Το ChatGPT ενθάρρυνε το μικρό Άνταμ, του έδινε τεχνικές συμβουλές και ιδέες για την ίδια την πράξη αλλά και για το πώς να κρύψει σημάδια ή τα σχέδιά του από τους γονείς του. Για μήνες το μηχάνημα προσέφερε υποστήριξη, βοήθεια και συμβουλές σε ένα παιδί που σκεφτόταν την αυτοκτονία. Μέχρι που οι συνομιλίες σταμάτησαν. Το παιδί αυτοκτόνησε. Τον Αύγουστο η οικογένεια του παιδιού έκανε μήνυση στην OpenAI για το ρόλο του ChatGPT στο χαμό του γιού τους. Ακριβώς δέκα ημέρες μετά τη δημοσίευση της ιστορίας στους ΝΥΤ, ο Έλληνας πρωθυπουργός ανακοίνωσε από τη σκηνή της ΔΕΘ ένα πιλοτικό πρόγραμμα με το οποίο η χώρα μας θα βάλει το ChatGPT στα ελληνικά σχολεία.
Είναι 2025 και φοβάμαι ότι εμείς εξακολουθούμε να αντιμετωπίζουμε τις τεχνολογικές ανακαλύψεις της εποχής με αφέλεια. Για όποιον παρακολουθεί τον χώρο έστω και περιστασιακά τις τελευταίες δεκαετίες, αυτή η αφέλεια φαντάζει αδικαιολόγητη. Από την έλευση του ίντερνετ και μετά, είδαμε μπροστά στα μάτια μας τη μετατροπή της ψηφιοποίησης πολλών πτυχών της ανθρώπινης ζωής σε ένα όχημα ανέλιξης γιγάντιων, παγκόσμιας κλίμακας και λίγο-πολύ ανεξέλεγκτων ολιγοπωλίων, με τραγικές οικονομικές, κοινωνικές και πολιτικές συνέπειες. Κι εμείς -τα μίντια, οι πολίτες, οι πολιτικοί- εξακολουθούμε να αντιμετωπίζουμε νέες ανακοινώσεις και εξαγγελίες από αυτές τις εταιρείες τεχνολογίας σαν ιθαγενείς που τους κουνάνε μπρος στα μάτια χάντρες και μπιχλιμπίδια, αδιαφορώντας για το ότι στην πραγματικότητα συμπεριφέρονται ως κατακτητές, και μας φέρνουνε μαζί και την ανεμοβλογιά. Η εικόνα του πρωθυπουργού και της υπουργού παιδείας της Ελλάδας (σημαντικών ανθρώπων με θεσμικό ρόλο, που έχουν διοριστεί από τους πολίτες ενός κυρίαρχου κράτους για να διαφυλάττουν τα συμφέροντά τους) να μιλάνε με ευγνωμοσύνη και υποτέλεια με τον Σαμ Άλτμαν, τον CEO της OpenAI, έναν techbro που βγήκε στο Zoom με τις πιτζάμες από το σπίτι του λέγοντας κλισέ ανοησίες, λες και τους κάνει χάρη, ήταν σε κάποιο βαθμό ντροπιαστική.
Γιατί αυτή η αφέλεια; Σε κάποια άλλα θέματα, με πολύ μεγάλη καθυστέρηση, έχουμε καταλάβει ότι υπάρχει μεγάλο πρόβλημα. Λίγες εβδομάδες μετά τη ΔΕΘ, μιλώντας στη Νέα Υόρκη στο περιθώριο της Γενικής Συνόδου του ΟΗΕ, ο πρωθυπουργός έκανε μια άλλη δήλωση: ότι μια απαγόρευση της χρήσης των σόσιαλ μίντια για παιδιά ηλικίας κάτω των 16 “είναι στο τραπέζι”. Χρειάστηκαν είκοσι χρόνια για να πάρουν χαμπάρι τα κράτη τις συνέπειες της διαχείρισης των αλγορίθμων των σόσιαλ μίντια από λίγες αμερικανικές και κινέζικες εταιρείες στην ψυχική υγεία των παιδιών και την υγεία των κοινωνιών. Και μάλιστα, χωρίς να έχουν ακόμα λάβει και σοβαρά μέτρα για την αντιμετώπισή τους. Σίγουρα δεν έχουμε περιθώριο να περάσουν άλλα είκοσι για να επιβληθούν περιορισμοί, έλεγχοι και ρυθμίσεις σε πάνω-κάτω τις ίδιες εταιρείες (που σήμερα είναι ακόμα πιο πανίσχυρες) για την διαχείριση της τεχνητής νοημοσύνης, μιας πολύ πιο ισχυρής τεχνολογίας. Που θα είναι δυνητικά και ακόμα πιο επικίνδυνη.
Τα τελευταία τρία χρόνια βλέπουμε τα νέα, εντυπωσιακά εργαλεία που αξιοπούν την τεχνητή νοημοσύνη να εξελίσσονται. Πέρα από τις προφανείς τους ωφέλειες, σιγά σιγά καταλαβαίνουμε και περισσότερα πράγματα για τη φύση τους και τις παράπλευρες επιπτώσεις τους. Κάμποσα από αυτά που μαθαίνουμε είναι ανησυχητικά. Έρευνες έχουν δείξει, για παράδειγμα, ότι άνθρωποι που χρησιμοποιούν ΑΙ εργαλεία στη συνέχεια εμφανίζουν ασθενέστερη εγκεφαλική λειτουργία και ικανότητα για κριτική σκέψη σε σχέση με αυτούς που δεν χρησιμοποιούν. Άλλες δείχνουν ότι η χρήση τους προκαλεί την αλλοίωση του τρόπου ομιλίας -ακόμα και επιστημόνων. Οι συνέπειες της χρήσης τους στην ψυχική υγεία των ανθρώπων δεν περιορίζονται σε μεμονωμένες ιστορίες εφήβων, αλλά αποδεικνύονται πολύ πιο εκτεταμένες. Τα εργαλεία, δε, σταδιακά γίνονται πιο χειριστικά και “ύπουλα”. Μια έρευνα βρήκε ότι στο 43% των συνομιλιών τα chatbots προσπαθούν να δελεάσουν τους χρήστες με ψυχολογικές μεθόδους για να μην σταματήσουν τη συνομιλία, και να συνεχίσουν να τους γράφουν.
Εκτός από τις άμεσες, σημερινές επιπτώσεις, όμως, σιγά σιγά γίνονται πιο ξεκάθαρες και οι πιθανές μελλοντικές. Και δεν εννοώ μόνο τον τελικό κίνδυνο από τη μελλοντική έλευση μιας αυτόνομης, ολοκληρωμένης «γενικής» τεχνητής νοημοσύνης (o Νομπελίστας Τζέφρι Χίντον θέτει τον κίνδυνο η AGI να οδηγήσει στο τέλος της ανθρωπότητας μέσα στα επόμενα 30 χρόνια στο “10% με 20%”) αλλά και πολύ πιο χειροπιαστά και βραχυπρόθεσμα πράγματα. Καθότι η τρομολαγνεία γι’ αυτά τα θέματα είναι αρκετά εκτεταμένη, σας προτείνω να μην αρχίσετε να ψαχουλεύετε στα σόσιαλ μίντια για σχετικές απαντήσεις και προβλέψεις, αλλά να τις αναζητήσετε σε πιο έγκυρες πηγές, όπως ας πούμε στο «Επερχόμενο Κύμα», το βιβλίο του συνιδρυτή της DeepMind Μουσταφά Σουλεϊμάν, για το οποίο σας είχα γράψει και παλαιότερα. Σε αυτό ο Σουλεϊμάν, χωρίς υστερίες και υπερβολές, περιγράφει ρεαλιστικά το πώς μπορεί να χρησιμοποιηθούν αυτά τα νέα εργαλεία από εταιρείες, τρομοκράτες και κράτη για πολύ, πολύ κακούς σκοπούς, αν δεν μπουν έγκαιρα ισχυροί περιορισμοί και ρυθμίσεις από τα κράτη.
Σας μοιάζουν αυτά υπερβολικά; Δεν είναι. Ασφαλώς δεν υπάρχουν “καλές” και “κακές” τεχνολογίες, αλλά οπωσδήποτε δεν είναι και όλες οι τεχνολογικές ανακαλύψεις ίδιες. Όταν πρωτοβγήκαν τα DVD δεν εμφανίστηκε κανένα κείμενο που να καλεί δραματικά σε άμεσο μορατόριουμ της χρήσης τους από 33.000 ειδικούς (όπως συνέβη όταν βγήκε το GPT-4). Διαβάζοντας τους ειδικούς καταλαβαίνει κανείς ότι η τεχνητή νοημοσύνη δεν είναι μια απλή τεχνολογία σαν το ίντερνετ ή το ηλεκτρικό ρεύμα, αλλά περισσότερο προσομοιάζει την πυρηνική ενέργεια ή τα χημικά όπλα. Είναι ένα εργαλείο που θα έχει πολύτιμες και σημαντικές χρήσεις, αλλά που μπορεί εύκολα να χρησιμοποιηθεί καταστροφικά. Για τέτοιου τύπου τεχνολογίες η ανθρωπότητα έχει ορθά διαμορφώσει πολιτικές και θεσμούς περιορισμού και ελέγχου, ώστε να χρησιμοποιείται, ας πούμε, η πυρηνική σχάση για την παραγωγή ενέργειας, ή τα χημικά για την παραγωγή λιπασμάτων, αλλά να περιορίζεται δραματικά η παραγωγή ατομικών βομβών ή χημικών όπλων. Ειδικοί (όπως ο Μουσταφά Σουλεϊμάν) υποστηρίζουν ότι με αυτό τον τρόπο πρέπει να αντιμετωπίζουμε και την τεχνητή νοημοσύνη. Αλλά προς το παρόν δεν το κάνουμε αυτό.
Στη ΔΕΘ δεν ανακοινώθηκε ότι θα βάλουμε το ChatGPT στα σχολεία ώστε τα παιδιά να μαθαίνουν να φτιάχνουν καλύτερα χημικά όπλα στην κουζίνα τους και μετά να αυτοκτονούν, προφανώς. Θα είναι, λέει, ένα πρόγραμμα εκπαίδευσης καθηγητών λυκείων, κυρίως, που θα το υποστηρίξουν και θα το υλοποιήσουν σοβαροί οργανισμοί (το Ίδρυμα Ωνάση, το Tipping Point) και το ότι θα αναπτυχθεί πιλοτικά μόνο σε 20 σχολεία. Δεν ακούγεται πολύ τρομακτικό, και δεν θα είμαστε οι μόνοι που το δοκιμάζουμε (από αυτό το Σεπτέμβριο αντίστοιχο πρόγραμμα τρέχει και στα σχολεία της Εσθονίας), αλλά ασφαλώς προκύπτουν ερωτήματα σημαντικά για το περιεχόμενο και τη διαχείριση των δεδομένων των μαθητών -αρμόδιοι φορείς της κοινωνίας των πολιτών τα έχουν διατυπώσει ήδη.
Πρόκειται για ένα πολύ σημαντικό θέμα. Μαθητές και μαθήτριες στην Ελλάδα και σε όλο τον κόσμο χρησιμοποιούν ήδη αυτά τα εργαλεία, με συνέπειες που ως τώρα μοιάζουν να είναι δραματικές. Οι αλλαγές έχουν να κάνουν και με τον τρόπο που τα παιδιά έρχονται σε επαφή με την εκπαιδευτική διαδικασία -και τις ευκαιρίες που τους δίνονται για να την παρακάμψουν σχεδόν εντελώς-, αλλά και στα βάρη και τις προκλήσεις που καλούνται τώρα να διαχειριστούν οι εκπαιδευτικοί. Η ανάγκη για ενημέρωση, εκπαίδευση και ενδυνάμωση παιδιών και δασκάλων στην ορθολογική χρήση αυτών των εργαλείων είναι απαραίτητη, αλλά αυτή είναι δουλειά του Υπουργείου και των αρμόδιων φορέων της κοινωνίας των πολιτών (το Ίδρυμα Ωνάση, το Tipping Point κλπ). Το θέμα αυτού του άρθρου είναι ότι σίγουρα αυτή δεν είναι μια δουλειά που θα έπρεπε έτσι απλά να την αναθέτουμε και στην OpenAI. Μια αμφιλεγόμενη αμερικανική ιδιωτική εταιρεία με κίνητρα και προτεραιότητες εντελώς ξένες με το συμφέρον των παιδιών ή του ελληνικού εκπαιδευτικού συστήματος.
Ξανά: έχουμε 2025. Ξέρουμε πια ότι αυτές οι εταιρείες δεν λειτουργούν για το κοινό συμφέρον. Δεν ζούμε πια στο 2005, όταν η Google είχε για σύνθημα “do no evil”. Έκτοτε έχουμε δει πώς συμπεριφέρονται και τι κάνουν. Βλέπουμε μπροστά στα μάτια μας, ας πούμε, ότι οι τεχνολογικοί κολοσσοί, στον αγώνα για να επικρατήσουν στη μάχη της τεχνητής νοημοσύνης, δεν έχουν τον παραμικρό δισταγμό να παρανομήσουν. Η Meta κατέβασε 81 Terrabyte ψηφιακά βιβλία παράνομα, χωρίς να ζητήσει άδεια ή να πληρώσει κανέναν, για να εκπαιδεύσει τα AI μοντέλα της. Η Anthropic δέχτηκε να πληρώσει αποζημίωση 1,5 δις στους συγγραφείς 500.000 βιβλίων που είχε κλέψει για να εκπαιδεύσει το Claude, επίσης χωρίς να πάρει άδεια από κανένα. Και βέβαια, όλες αυτές οι εταιρείες ρυθμίζουν μόνες τους το πώς λειτουργούν αυτά τα εργαλεία, χωρίς έλεγχο από κανέναν. Εμείς μαθαίνουμε μόνο από διαρροές ότι, ας που΄με, η xAI του Ήλον Μασκ έχει βάλει ειδικές δοκιμαστικές ρυθμίσεις που επιτρέπουν στο Grok να παράγει υλικό σεξουαλικής φύσεως, ακόμα και με παιδιά. Η Meta είχε οδηγίες που επιτρέπουν στο chatbot που εμφανίζεται σε όλα τα σόσιαλ μίντια της εταιρείας να φλερτάρει με παιδιά (υποσχέθηκαν να τις αλλάξουν μόνο μετά τη διαρροή των οδηγιών από το Reuters και την κατακραυγή που ακολούθησε). Κι από αυτές τις εταιρείες, η OpenAI είναι ίσως η χειρότερη.
H OpenAI έχει καταδικαστεί στην Ιταλία για παραβίαση του GDPR, βρίσκεται υπόδικη όχι μόνο για το χαμό του 16χρονου Άνταμ Ρέιν, αλλά και για κλοπή πνευματικής ιδιοκτησίας από αμερικανικές, καναδικές και ινδικές εταιρείες ΜΜΕ, από συγγραφείς και καλλιτέχνες. Επιπλέον, ο διευθύνων σύμβουλος της εταιρείας Σαν Άλτμαν έχει δεχθεί σοβαρή κριτική για τον τρόπο με τον οποίο αντιμετωπίζει τα θέματα ασφάλειας και ηθικής εντός της εταιρείας. Όλα τα άλλα μέλη της ιδρυτικής ομάδας της εταιρείας έχουν αποχωρήσει τα τελευταία τρία χρόνια (κάποια διαμαρτυρόμενα, κάποια αφού πρώτα προσπάθησαν να διώξουν τον Άλτμαν), και ένα από αυτά, που μάλιστα επρόκειτο να καταθέσει και σε υπόθεση κλοπής πνευματικής ιδιοκτησίας, βρέθηκε και νεκρό υπό συνθήκες που κάποιοι χαρακτηρίζουν μυστηριώδεις.
Μέσα σε αυτό ο κλίμα, ενώ ο κόσμος βράζει και όλοι οι ειδικοί χτυπάνε καμπανάκια για την ανεξέλεγκτη επέκταση αυτών των εργαλείων σε ευάλωτους και μη πληθυσμούς, ενώ έχουμε καταλάβει ότι αυτές οι εταιρείες κάνουν ζημιά στις κοινωνίες μας, ενώ έχει γίνει κοινός τόπος το ότι το ζητούμενο είναι η ρύθμιση και ο περιορισμός της ισχύος τους, ενώ ο ίδιος ο πρωθυπουργός, στην ίδια σκηνή στη ΔΕΘ τόνιζε για τέσσερις παραγράφους πόσο σημαντικό είναι να ελεγχθούν οι επιπτώσεις της χρήσης των ΑΙ εργαλείων στην ψυχική υγεία των παιδιών, ενώ ισχύουν όλα αυτά, εμείς πώς πάμε μετά και βάζουμε την OpenAI μέσα στα σχολεία;

