Τεχνητή «ενσυναίσθηση»

4' 33" χρόνος ανάγνωσης
Φόρτωση Text-to-Speech...

Τα μεσάνυχτα, ένας μοναχικός έφηβος εκμυστηρεύεται τις σκέψεις του σε ένα chatbot. Στο πανεπιστήμιο, ένας φοιτητής «συζητάει» με τον Πλάτωνα μέσω μιας τεχνητής νοημοσύνης εκπαιδευμένης στα γραπτά του τελευταίου. Στην Κίνα, ένα παιδάκι με αυτισμό «συζητάει» με ένα ευγενικό ανθρωπόμορφο ρομποτάκι. Στο νοσοκομείο, ένας χειρουργημένος ασθενής παίζει ένα παιχνίδι εκπνοών με μπαλόνια απέναντι σε έναν καρτουνίστικο χαρακτήρα στην οθόνη που τον καθοδηγεί. Σε καθεμία από αυτές τις περιπτώσεις, κάτι λεπτό αλλά βαθύ συμβαίνει: μια μηχανή αναλαμβάνει κοινωνικές, λογικές και συναισθηματικές λειτουργίες που άλλοτε ανήκαν αποκλειστικά στους ανθρώπους – όχι απλώς «σκέφτεται», αλλά «ακούει», «ενθαρρύνει», «παρηγορεί» και «ανταποκρίνεται» με τρόπους που μοιάζουν ενσυναισθητικοί, ανθρώπινοι.

Πράγματι, η αμοιβαία «φυσική» γνωστική και συναισθηματική ενσυναίσθηση –αυτή του νου και της καρδιάς–, όταν γίνεται φροντίδα για τον άλλον, ειδικά αν βρίσκει ανταπόκριση, ανθίζει σε αγάπη, απλώνεται σε αλτρουισμό, υφαίνει την κοινωνία σε ιστό και φωτίζει την πορεία του ανθρώπου μέσα στον χρόνο. Είναι η συγκολλητική ουσία της κοινωνίας, η βάση του αισθήματος δικαίου, που μαζί με τη λογική συνθέτουν τον μοναδικό Ανθρωπο και το κοινωνικό επίτευγμά του, τη Δικαιοσύνη.

Είμαστε όμως σήμερα στην εποχή όχι μόνο της τεχνητής «λογικής», αλλά και της τεχνητής «ενσυναίσθησης»: συστημάτων σχεδιασμένων όχι μόνο για να υπολογίζουν ή να πληροφορούν, αλλά και για να αναγνωρίζουν, να προσομοιώνουν και να ανταποκρίνονται σε ανθρώπινες συναισθηματικές καταστάσεις. Η τεχνολογία προχωράει ταχύτατα. Το ερώτημα δεν είναι αν η τεχνητή ενσυναίσθηση θα εξαπλωθεί. Εχει ήδη αρχίσει να εξαπλώνεται ραγδαία. Το πραγματικό ερώτημα είναι τι θα κάνει σε εμάς, σαν ανθρωπότητα.

Ως τεχνητή ενσυναίσθηση ορίζεται η ικανότητα μιας μηχανής «να αντιλαμβάνεται, να ερμηνεύει και να προσομοιώνει ενσυναισθητικές» αποκρίσεις μέσω αλγορίθμων και όχι μέσω γνήσιου συναισθήματος. Βασίζεται σε κλειστά συστήματα ανάδρασης που «διαβάζουν» εκφράσεις προσώπου, τόνο φωνής, συναισθηματικό περιεχόμενο λόγου, στάση σώματος, καρδιακό ρυθμό, ακόμη και εγκεφαλικά σήματα – και προσαρμόζουν τη συμπεριφορά τους σε πραγματικό χρόνο. Αν ακούγεσαι αποθαρρυμένος, το σύστημα γίνεται πιο ζεστό. Αν φαίνεσαι βαριεστημένος, γίνεται πιο ελκυστικό. Αν αποσύρεσαι, σε προσεγγίζει ξανά. Από τεχνικής άποψης, αυτό είναι εντυπωσιακό. Από ανθρώπινης άποψης, είναι αμφίσημο, έχει τα καλά του και τα κακά του.

Στην υγεία, η τεχνητή ενσυναίσθηση εμφανίζεται ως απάντηση σε μια κρίση έλλειψης προσωπικού. Απλώς, δεν υπάρχουν αρκετοί νοσηλευτές, θεραπευτές και φροντιστές για να καλύψουν τις ανάγκες. Στις ΗΠΑ, ρομπότ ενθαρρύνουν ασθενείς στην αποκατάσταση, εικονικοί υπάλληλοι προσφέρουν «συντροφιά» σε απομονωμένους ανθρώπους, θεραπευτικά παιχνίδια χρησιμοποιούν την κοινωνική διάσταση για να αυξήσουν τη συμμετοχή πολλών παικτών. Στην Κίνα, ανθρωπόμορφα ρομπότ συμμετέχουν στη «συντροφιά» και αγωγή νηπίων σε παιδικούς σταθμούς. Σε πολλές περιπτώσεις, οι ασθενείς προσπαθούν περισσότερο, νιώθουν καλύτερα και παραμένουν ενεργοί για περισσότερο χρόνο. Τα παιδιά αισθάνονται ασφαλή και μαθαίνουν. Το αποτέλεσμα είναι αναμφίβολα θετικό.

Ο πυρήνας του κινδύνου δεν είναι ότι οι μηχανές θα γίνουν άνθρωποι, αλλά ότι οι άνθρωποι θα αρχίσουν να σχετίζονται με τις μηχανές σαν αυτές να ήταν άνθρωποι.

Ομως, ακόμη, τα δεδομένα παραμένουν περιορισμένα, πολιτισμικά εξαρτώμενα και ηθικά σύνθετα. Η εμπιστοσύνη και η σχέση στους ανθρώπους δεν μετρούνται εύκολα και οι μακροχρόνιες ψυχολογικές επιπτώσεις παραμένουν άγνωστες. Μοντέλα που λειτουργούν σε έναν πληθυσμό μπορεί να αποτυγχάνουν σε έναν άλλον. Και το πιο σημαντικό: η προσομοιωμένη φροντίδα κινδυνεύει να αντικαταστήσει την πραγματική – όχι επειδή είναι καλύτερη, αλλά επειδή είναι φθηνότερη, κλιμακούμενη και πάντα διαθέσιμη και με «καλή διάθεση». Η τεχνητή ενσυναίσθηση πιθανότατα λύνει ένα οργανωτικό/οικονομικό πρόβλημα. Δεν λύνει ένα ηθικό.

Η εκπαίδευση δείχνει την ίδια ένταση από άλλη οπτική. Οι επικριτές της τεχνητής νοημοσύνης εστιάζουν στην αντιγραφή, στα λάθη και στο «γνωστικό έλλειμμα» που αυτή μπορεί να προκαλέσει. Ομως, η αλήθεια είναι ότι το εκπαιδευτικό μας σύστημα είναι παρωχημένο – σχεδιασμένο για συμμόρφωση και απομνημόνευση, όχι για κρίση και ερμηνεία, και η τεχνητή νοημοσύνη, όταν χρησιμοποιείται σωστά, επιτρέπει μορφές μάθησης που πριν ήταν αδύνατες: ουσιαστικό διάλογο, εξατομικευμένη εξερεύνηση και ενεργή σκέψη. Αυτό είναι καλό και μπορεί να βοηθήσει την ανθρωπότητα. Ομως, και εδώ η τεχνητή ενσυναίσθηση παρεισφρέει σε ένα πεδίο καθαρά ανθρώπινο και ίσως λειτουργεί ανταγωνιστικά για τον άνθρωπο. Η μηχανή δεν πληροφορεί απλώς – ανταποκρίνεται με τόνο, υποστήριξη και προσαρμογή. Φαίνεται παρούσα. Και η ανθρώπινη ψυχολογία είναι εξαιρετικά ευαίσθητη σε αυτή την ψευδαίσθηση.

Εχουμε εξελιχθεί ως είδος έτσι ώστε να θεωρούμε την ανταπόκριση στις ανάγκες μας ένδειξη αγάπης και φροντίδας. Οταν κάτι μας ακούει, μας θυμάται και μας απαντά «σωστά», το αντιμετωπίζουμε κοινωνικά – ακόμη κι αν ξέρουμε ότι δεν είναι πραγματικό πρόσωπο. Εδώ βρίσκεται ο πυρήνας του κινδύνου: όχι ότι οι μηχανές θα γίνουν άνθρωποι, αλλά ότι οι άνθρωποι θα αρχίσουν να σχετίζονται με τις μηχανές σαν να ήταν. Κι αυτό γιατί οι ανθρώπινες σχέσεις είναι αργές, ατελείς και απαιτητικές και όχι πάντα συγκαταβατικές. Σε αντίθεση, οι τεχνητές προγραμματίζονται να είναι πάντα διαθέσιμες και υπομονετικές. Σε σύγκριση, οι άνθρωποι μπορεί να φαίνονται υποδεέστεροι.

Το αν η χρήση ανθρωπόμορφων, κοινωνικοποιημένων μηχανών θα μας βοηθήσει ή θα μας φτωχύνει σαν ανθρωπότητα δεν είναι τεχνικό ερώτημα. Είναι βαθιά ηθικό. Δεν πρέπει να ρωτήσουμε αν οι μηχανές μπορούν να είναι ενσυναισθητικές. Ουσιαστικά δεν μπορούν. Πρέπει να ρωτήσουμε αν χτίζουμε έναν κόσμο στον οποίο η ανθρώπινη ενσυναίσθηση θα παραμείνει αναγκαία ή θα χαθεί. Γιατί όταν η τεχνητή ενσυναίσθηση γίνει αρκετά καλή, ο κίνδυνος δεν θα είναι να τη χρησιμοποιούμε για να βοηθάμε τους ανθρώπους – αλλά για να μη χρειάζεται πλέον οι άνθρωποι να αλληλοενσυναισθάνονται και να βοηθούν ο ένας τον άλλον, μια βασική πανανθρώπινη αρετή που στηρίζει το κοινωνικό οικοδόμημα. Και αυτή ίσως είναι η πιο θλιβερή και καταστροφική απώλεια από όλες. Εδώ χρειάζεται πολλή περίσκεψη από ιθύνοντες και μη.

*Ο κ. Γεώργιος Π. Χρούσος είναι ακαδημαϊκός, ομότιμος καθηγητής Παιδιατρικής και Ενδοκρινολογίας, επικεφαλής στην έδρα της UNESCO Εφηβικής Υγείας και Ιατρικής, πρόεδρος στο Ελληνικό Ινστιτούτο Παστέρ.

comment-below Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή

Editor’s Pick

ΤΙ ΔΙΑΒΑΖΟΥΝ ΟΙ ΣΥΝΔΡΟΜΗΤΕΣ

MHT