Για την τεχνητή νοημοσύνη υπάρχει, αφενός, μεγάλος ενθουσιασμός και προσδοκία και, αφετέρου, ανησυχία, ακόμη και πανικός, για την υπαρξιακή απειλή που μπορεί να θέτει, καθώς υπάρχει ο φόβος ότι οι αυτόματες μηχανές μπορεί να υποκαταστήσουν τον άνθρωπο, να τον αδρανοποιήσουν, να τον ανταγωνιστούν ή και να τον αφανίσουν. Χρειάζεται ψυχραιμία. Συναντούμε εκδοχές τεχνητής νοημοσύνης και αυτόματες μηχανές από τις απαρχές της ανθρωπότητας. Στην Ιλιάδα, ο Ηφαιστος είχε κατασκευάσει τρίποδες με χρυσές ρόδες που μπορούσαν αυτόματα να μπαίνουν στις συντροφιές των θεών και να επιστρέφουν –«θαύμα ιδέσθαι», λέει ο Ομηρος (18.37-377)–, ενώ τον βοηθούσαν νεαρές κοπέλες, πάλι από χρυσό, που είχαν νου, ομιλία και δύναμη (18.418-420). Τον Μεσαίωνα, ο Ραμόν Λουλ επινόησε την Ars Magna, ένα όργανο για να προσηλυτίζει «απίστους» στον χριστιανισμό. Περιστρέφοντας τους δίσκους αυτού του οργάνου παράγονταν μηχανικά απαντήσεις σε θεολογικά ερωτήματα με βάση τους όρους που είχαν εγγραφεί. Βοηθούσε τους ιεραποστόλους στη δουλειά τους. Ο Ντα Βίντσι σχεδίασε έναν ιππότη-ρομπότ, ενώ αργότερα ο Λάιμπνιτς, που εισηγήθηκε την ars combinatoria, ήθελε «να βρούμε κατάλληλους χαρακτήρες ή σημεία για να εκφράσουμε όλες τις σκέψεις μας τόσο κατηγορηματικά και με τόση ακρίβεια όσο η αριθμητική εκφράζει αριθμούς» ώστε να διευθετούμε οποιοδήποτε ζήτημα κάνοντας υπολογισμούς. Αν υπάρχει διαφωνία, έλεγε, θα λέμε: «Ας υπολογίσουμε, Κύριε» και θα δεχόμαστε τα αποτελέσματα όπως στην αριθμητική.
Σήμερα, ρωτάμε συχνά με απορία αν τα Μεγάλα Γλωσσικά Μοντέλα (ΜΓΜ) καταλαβαίνουν τη γλώσσα που χρησιμοποιούν, αν σκέφτονται, αν έχουν συναισθήματα, αυτενέργεια ή συνείδηση. Η απάντηση στα ερωτήματα αυτά εξαρτάται ασφαλώς από το πώς θα ορίσουμε ή θα κατανοήσουμε τις αντίστοιχες έννοιες. Αλλά, εάν θέλαμε μια σύντομη απάντηση, θα λέγαμε ότι αυτή είναι «όχι». Γιατί συμβαίνει αυτό; Οχι γιατί τα συστήματα αυτά δεν έχουν ψυχή. Ούτε ο άνθρωπος έχει ψυχή, μιλώντας με επιστημονικούς όρους. Πλην θρησκειών, έχουμε να μιλήσουμε κυριολεκτικά για ψυχή ή πνεύμα στον άνθρωπο από την εποχή του Ντεκάρτ. Η σύγχρονη φιλοσοφία και επιστήμη δεν δέχονται πνευματικές οντότητες και προσπαθούν να κατανοήσουν φαινόμενα όπως η συνείδηση με φυσιοκρατικούς όρους.
Γιατί, λοιπόν, δεν καταλαβαίνουν τα ΜΓΜ τη γλώσσα που χρησιμοποιούν; Διότι είναι «στοχαστικοί παπαγάλοι» (Bender et al 2021). Τι κάνουν; Παράγουν σημεία (γραφήματα, ήχους κ.λπ.) που σχηματίζουν λέξεις, προτάσεις και κείμενα. Τα σημεία από μόνα τους, όμως, δεν συνιστούν γλώσσα την οποία ο χρήστης κατανοεί. Τα σημεία αυτά πρέπει να έχουν και κάτι άλλο, το νόημα, για να μην είναι απλώς φυσικά αντικείμενα, για να είναι σύμβολα, για να αναφέρονται δηλαδή σε κάτι άλλο από τον εαυτό τους. Το σύμβολο στην αρχαιότητα ήταν «εκάτερον των μερών αστραγάλου ή δύο αρμοστών τμημάτων άλλου πράγματος» το οποίο χρησίμευε είτε για να αναγνωρίζεται η ταυτότητα εκείνου που το έφερε είτε ως απόδειξη μιας συμφωνίας (Λεξικό Δημητράκου). Οπως το σύμβολο για να λειτουργήσει χρειάζεται δύο μέρη, έτσι και η γλώσσα που συμβολίζει χρειάζεται δύο πράγματα: τα σημεία και το νόημα. Το λεγόμενο «Επιχείρημα του Κινεζικού Δωματίου», που ανέπτυξε ο φιλόσοφος Τζον Σερλ (John Searle) τo 1980, δείχνει ακριβώς ότι η ορθή ανταλλαγή απλώς σημείων δεν συνεπάγεται κατανόηση. Ας φανταστούμε, λέει ο Σερλ, έναν άνθρωπο που δεν ξέρει καθόλου κινεζικά και βρίσκεται κλειδωμένος σε ένα δωμάτιο γεμάτο με κινεζικά σημεία (μια βάση δεδομένων) μαζί με ένα βιβλίο οδηγιών για τον χειρισμό τους (το πρόγραμμα). Ο άνθρωπος αυτός δέχεται απ’ έξω από το δωμάτιο άλλα κινεζικά σημεία τα οποία, χωρίς να το γνωρίζει, είναι ερωτήσεις στα κινεζικά. Ακολουθώντας τις οδηγίες του προγράμματος, χειρίζεται τα κινεζικά σημεία σωστά και απαντάει στις ερωτήσεις. Ετσι, περνάει το τεστ Turing για την κατανόηση κινεζικών ενώ εξ ορισμού δεν καταλαβαίνει κινεζικά.
Οσο τα ΜΓΜ αναζητούν patterns στα δεδομένα με τα οποία εκπαιδεύτηκαν, προβλέποντας στατιστικά την επόμενη λέξη, δεν μπορούν να καταλάβουν τις εκφράσεις που παράγουν. Τα ΜΓΜ δεν καταλαβαίνουν τα κείμενα με τα οποία εκπαιδεύονται, δεν καταλαβαίνουν τις ερωτήσεις που τους κάνουμε, δεν καταλαβαίνουν τις απαντήσεις που δίνουν, δεν παράγουν περιεχόμενο· παράγουν σημεία/λέξεις μιας γλώσσας σε σωστή κατά κανόνα σύνταξη, γλώσσα την οποία καταλαβαίνουμε εμείς. Δεν την καταλαβαίνει το ΜΓΜ.
Τα Μεγάλα Γλωσσικά Μοντέλα της τεχνητής νοημοσύνης δεν σκέφτονται, δεν έχουν αυτονομία, ούτε αυτενέργεια.
Μήπως τα ΜΓΜ σκέφτονται; Για να σκέφτονται πρέπει, μεταξύ άλλων, να κάνουν λογικούς συλλογισμούς. Αυτό σημαίνει ότι οι απαντήσεις τους σε ερωτήματα που τους τίθενται θα πρέπει να στηρίζονται σε άλλες σχετικές πεποιθήσεις. Π.χ., για τους ανθρώπους η πεποίθηση πως ο Τραμπ είναι ο επόμενος πρόεδρος των ΗΠΑ στηρίζεται στην πεποίθηση ότι αυτό ήταν το αποτέλεσμα των εκλογών. Οταν όμως το ΜΓΜ απαντάει στο ερώτημα ποιος είναι ο επόμενος πρόεδρος των ΗΠΑ, δεν παράγει την «πεποίθηση» ότι είναι ο Τραμπ από το αποτέλεσμα των εκλογών, αλλά από στατιστικούς υπολογισμούς που αφορούν το πόσο συχνά εμφανίζεται μια γλωσσική έκφραση σε ένα συγκεκριμένο περιβάλλον. Αλλά αυτή η «πεποίθηση» για τη συχνότητα με την οποία εμφανίζονται συγκεκριμένες λέξεις σε ένα μεγάλο σώμα κειμένων, δεν συνεπάγεται ότι ο Τραμπ είναι ο επόμενος πρόεδρος των ΗΠΑ· οπότε το ΜΓΜ δεν κάνει λογικούς συλλογισμούς, δεν σκέφτεται (Stoljar & Zhang 2024).
Μήπως έχει αυτονομία και αυτενέργεια; Εδώ αρκετοί επιστήμονες μας λένε ότι δεν έχει αυτενέργεια ούτε ο άνθρωπος. Οτι είμαστε βιολογικές μηχανές και ότι η ελευθερία της βούλησης δεν είναι παρά μια ψευδαίσθηση. Αν δεν μπορούμε να εξηγήσουμε πώς έφθασε μια μηχανή σε κάποιες «αποφάσεις», αυτό δεν σημαίνει ότι οι μηχανές έχουν αυτενέργεια. Αλλο το μεταφυσικό ζήτημα εάν έχουν αυτενέργεια άνθρωποι και μηχανές, και άλλο το επιστημολογικό ζήτημα, ότι δηλαδή δεν ξέρουμε τα βήματα που οδήγησαν σε μια συγκεκριμένη «πράξη».
Πάντα οι τεχνολογικές εξελίξεις προκαλούσαν αντιδράσεις και αγωνία για τις συνέπειες. Αυτό που χρειάζεται είναι ψυχραιμία, ενημέρωση, εγρήγορση και αξιοποίηση των ευκαιριών με προσοχή και χωρίς ψευδαισθήσεις.
*Η κ. Βάσω Κιντή είναι καθηγήτρια Φιλοσοφίας στο ΕΚΠΑ.

