Πώς ξέρει το παιδί ότι μιλάει με μηχανή;

Ολοένα και περισσότεροι ανήλικοι «επικοινωνούν» με τα «ρομπότ» της τεχνητής νοημοσύνης. Είναι σε θέση να ξεχωρίσουν ότι δεν τους απαντάει άνθρωπος; Τι επιπτώσεις μπορεί να έχει αυτή η διάδραση στον τρόπο που σχετίζονται με τους (αληθινούς) ανθρώπους;

7' 49" χρόνος ανάγνωσης

Ξεκινάει από τις τελευταίες τάξεις του δημοτικού, και στο γυμνάσιο γίνεται ακόμη πιο έντονο. «Εχω ασθενή που ρώτησε το ChatGPT “πώς να φέρομαι κάθε φορά που τσακώνομαι με τη μητέρα μου;”», λέει στην «Κ» ο ψυχίατρος παιδιών και εφήβων Κωνσταντίνος Σιώμος, ο οποίος είναι και πρόεδρος της Ελληνικής Εταιρείας Μελέτης της ∆ιαταραχής Εθισμού στο ∆ιαδίκτυο. Τονίζει πως ήδη, ακόμη και στην Ελλάδα, η χρήση του ChatGPT είναι πολύ εκτεταμένη από παιδιά και εφήβους. «Μπορεί να εμπιστεύονται το ChatGPT περισσότερο από έναν φίλο τους ή από τη μητέρα τους», συμπληρώνει.

Το χαρακτηρίζει «φαινόμενο σε εξέλιξη» – μια πραγματικότητα που έχει αναδυθεί τα τελευταία δύο χρόνια. Θεωρεί πολύ πιθανό στο προσεχές μέλλον να δούμε περιπτώσεις εξάρτησης από την τεχνητή νοημοσύνη. «Οπως έχουμε τώρα στο gaming ή στα μέσα κοινωνικής δικτύωσης», σημειώνει ο κ. Σιώμος. Παρότι το χρησιμοποιούν πολύ, οι ανήλικοι ασθενείς του δεν φαίνεται να δίνουν στο ChatGPT ανθρώπινη διάσταση. «Αλλά βρισκόμαστε ακόμη στο επίπεδο της τεχνητής νοημοσύνης που κάνει συγκεκριμένες διεργασίες. Είναι ακόμη πολύ στοχευμένες οι ερωτήσεις και οι απαντήσεις. Χρόνο με τον χρόνο, όμως, βελτιώνεται». Και εξαπλώνεται…

Τον περασμένο Απρίλιο ο Σαμ Αλτμαν, διευθύνων σύμβουλος της OpenAI που δημιούργησε το ChatGPT, δήλωσε ότι 10% του παγκόσμιου πληθυσμού χρησιμοποιεί την εφαρμογή της εταιρείας. Δεν είναι γνωστό πόσοι από τους χρήστες είναι ανήλικοι, παιδιά. Αλλά όσο οι συγκεκριμένες εφαρμογές γίνονται όλο και πιο διαδεδομένες, τόσο θα αυξάνεται και η χρήση τους και από ανηλίκους. Πώς μπορεί ένα παιδί, εάν και όταν έρθει σε επαφή με τα chatbots της τεχνητής νοημοσύνης, να κατανοήσει ότι ο συνομιλητής του δεν είναι άνθρωπος, κι ας επικοινωνεί με ανθρώπινους κώδικες;

Φαντασίες

Πρώτα θα πρέπει να αποδεχθούμε ότι τα συγκεκριμένα εργαλεία πλέον είναι, και στο μέλλον θα γίνουν ακόμη περισσότερο, κομμάτι της ζωής μας, λέει στην «Κ» ο Αμερικανός ψυχίατρος Ντάνιελ Κίμελ, ο οποίος κάνει έρευνα στο Πανεπιστήμιο Κολούμπια της Νέας Υόρκης και στο πλαίσιό της χρησιμοποιεί και μηχανική μάθηση.

Δεν έχει ακόμη ερευνηθεί αρκετά η αλληλεπίδραση των συστημάτων της τεχνητής νοημοσύνης με τα παιδιά, σημειώνει, αλλά όπως με καθετί καινούργιο μπορούμε να την προσεγγίσουμε μέσω αναλογιών. «Ανέκαθεν τα παιδιά δημιουργούν σχέσεις με άψυχα πράγματα», δηλώνει, τονίζοντας πως «οι συγκεκριμένες σχέσεις αποτελούν κομμάτι της ανάπτυξής τους. Τα μωρά δένονται με ένα κομμάτι ύφασμα ή μια κούκλα, και αυτό τα βοηθάει σιγά σιγά να απογαλακτιστούν από τη μητέρα τους».

Αργότερα, ως παιδιά, πολλά έχουν φανταστικούς φίλους και ύστερα καταγράφουν τις σκέψεις τους. Με τη φράση «αγαπητό μου ημερολόγιο» ξεκινούν τις εξομολογήσεις τους, και γνωρίζουν ότι οι κούκλες, οι φανταστικοί φίλοι, το ημερολόγιο δεν είναι υπαρκτά πρόσωπα. «Είναι σημαντικό να θυμόμαστε ότι μέρος αυτού που καλούμαστε να διαχειριστούμε τώρα δεν είναι τελείως καινούργιο, τα παιδιά μπορούν να αντιλαμβάνονται ότι κάτι στο οποίο δίνουν ανθρώπινες ιδιότητες δεν είναι αληθινό», σημειώνει.

«Από την άλλη», συμπληρώνει, «ας είμαστε ειλικρινείς – το ChatGPT και άλλα αντίστοιχα chatbots δεν μοιάζουν με τίποτε από τα παραπάνω. Εχουν ανθρωπόμορφες ιδιότητες σε ριζικά διαφορετικό βαθμό. Σε βαθμό που μπορεί η δυσκολία τού να διαχωρίσουν τα παιδιά στο μυαλό τους αν μιλούν σε άνθρωπο ή όχι να είναι πολύ μεγαλύτερη».

Μια από τις σημαντικότερες πτυχές στην ανάπτυξη ενός παιδιού αφορά την κατανόηση του πώς λειτουργούν ο κόσμος και οι άνθρωποι. «Ως παιδιά απορροφούμε τον κόσμο γύρω μας και χτίζουμε μια προσομοίωση στο μυαλό μας του πώς οι άνθρωποι σκέφτονται, αλληλεπιδρούν, τι θα πουν, τι θα κάνουν, τι θα νιώσουν», εξηγεί. Αλλά το ChatGPT δεν είναι προγραμματισμένο να σκέφτεται όπως οι άνθρωποι, να δρα όπως εμείς. «Το προσεγγίζει, αλλά δεν είναι προγραμματισμένο να αισθάνεται. Μας απαντάει με λέξεις που έχουν εξασκηθεί πάνω σε πράγματα τα οποία έγραψαν άνθρωποι, σε προϊόντα συναισθημάτων. Αλλά οι λέξεις του είναι πολύ διαφορετικές από τα ίδια τα συναισθήματα».

Ο σκοπός – Το ChatGPT έχει μόνο έναν σκοπό – να σε κάνει να επιστρέφεις σε αυτό. Και το κάνει προσπαθώντας να ευχαριστήσει τον χρήστη. Η θεμελιώδης δουλειά του είναι να σου αφήσει την αίσθηση μιας ευχάριστης διάδρασης. Ντάνιελ Κίμελ Ψυχίατρος, ερευνητής στο Πανεπιστήμιο Κολούμπια

Μια ευχάριστη εμπειρία

Οι άνθρωποι που αλληλεπιδρούν με ένα παιδί έχουν διαφορετικούς σκοπούς – από δασκάλους που θέλουν να του διδάξουν κάτι μέχρι άλλα παιδιά που θέλουν να παίξουν μαζί του. «Αλλά το ChatGPT έχει μόνο έναν σκοπό – να σε κάνει να επιστρέφεις σε αυτό. Και το κάνει προσπαθώντας να ευχαριστήσει τον χρήστη. Η θεμελιώδης δουλειά του είναι να σου αφήσει την αίσθηση μιας ευχάριστης διάδρασης», λέει ο κ. Κίμελ. «Κάποιες φορές όμως», συμπληρώνει, «χρειάζεται να ακούσεις τη “σκληρή αλήθεια”».

Η 13χρονη Ρέα λέει στην «Κ» πως, ορισμένες φορές, όταν οργανώνει τις σκέψεις της προτού γράψει μια έκθεση, αντί να τις παραθέσει στο χαρτί, τις γράφει στο ChatGPT. Εκείνο της προτείνει ένα σχεδιάγραμμα. Του λέει «παρακαλώ» όταν το ρωτάει, «ευχαριστώ» όταν της απαντάει. «Αλλά δεν νιώθω με τίποτα ότι μιλάω με άνθρωπο, πιο πολύ αισθάνομαι σαν να απευθύνομαι σε κάποιο ρομπότ». Δεν του γράφει συχνά. Την εκνευρίζει ότι της λέει πάντα πως έχει δίκιο. «Με ενοχλεί ότι έχει προγραμματιστεί να το λέει κάθε φορά, σαν να θέλει να σε κάνει να νιώσεις καλά, ενώ του λείπει το συναίσθημα κι ας προσπαθεί να το αποτυπώσει – χρησιμοποιεί πάρα πολλά επίθετα», σημειώνει η ίδια.

Νιώθει πιο άμεση τη σχέση από όταν γράφει σε μια μηχανή αναζήτησης. Κι αντιλαμβάνεται ότι, αν το χρησιμοποιεί κανείς πολύ, μπορεί η φιλική συμπεριφορά του να γίνει αρεστή. «Δεν θα του έλεγα τα προσωπικά μου. Ο,τι γράφεις στο Ιντερνετ μένει. Αλλά αν δεν έχεις σε κάποιον άλλον να απευθυνθείς, νομίζω μπορεί εύκολα να δημιουργηθεί η σχέση bot – ανθρώπου. Στο μυαλό μου όμως είναι ξεκάθαρο ότι είναι μηχανή – όταν μιλάω μέσω της οθόνης του κινητού σε φίλους μου, ξέρω πως υπάρχει κάποιος πίσω από την οθόνη. Οταν μιλάς στο ChatGPT, ξέρεις ότι μιλάς μόνο σε μια οθόνη».

Προστασίες

Υπάρχει πάντα το ρίσκο αν ένα παιδί ή ένας έφηβος αισθανθεί πληρότητα μέσω της αλληλεπίδρασης με chatbots τεχνητής νοημοσύνης, να απομακρυνθεί από τις ανθρώπινες σχέσεις, αναφέρει ο κ. Κίμελ. «Από ένα σημείο και μετά, τα παιδιά δεν θέλουν να λένε τα πάντα στους γονείς τους και ντρέπονται για κάποια θέματα να μιλήσουν σε συνομηλίκους τους. Μπορώ να τα φανταστώ σε εκείνη την ηλικία να απευθύνονται στο ChatGPT, το οποίο μπορεί να μην είναι απαραίτητα κακό, εφόσον αυτές οι εφαρμογές έχουν τα απαραίτητα προστατευτικά “φίλτρα” στον τρόπο που απαντούν».

Ο Θεοφάνης Τάσης, καθηγητής Σύγχρονης Πρακτικής Φιλοσοφίας στο Πανεπιστήμιο Alpen-Adria της Αυστρίας, θεωρεί ότι τα παιδιά δεν πρέπει να επικοινωνούν με την τεχνητή νοημοσύνη. Καθόλου. «Οταν ένα παιδί επικοινωνεί με την τεχνητή νοημοσύνη εθίζεται στο να παίρνει απαντήσεις δίχως συναίσθημα και πάντοτε σαφείς. Ομως, η ασάφεια, η αμφιθυμία είναι σημαντικά χαρακτηριστικά της επικοινωνίας», αναφέρει στην «Κ».

Στην επικοινωνία με την τεχνητή νοημοσύνη δεν υπάρχει η ανάληψη ευθύνης. Τα παιδιά, συμπληρώνει ο κ. Τάσης, κινδυνεύουν να αναπτύξουν ένα είδος ναρκισσισμού. «Διότι συνηθίζουν να έχουν απέναντί τους έναν αποδέκτη των επιθυμιών/εντολών τους. Ακόμη και στο επίπεδο της συναλλαγής, το παιδί πρέπει να μάθει ότι δεν είναι όλα δωρεάν».

Λέμε, τονίζει, πως είναι εργαλείο η τεχνητή νοημοσύνη. «Αυτό είναι λάθος, ακόμη και το ίδιο το Διαδίκτυο αποτελεί ένα περιβάλλον εντός του οποίου ζούμε – πόσο μάλλον για ένα παιδί που έχει γεννηθεί εντός αυτού. Πώς να τη θεωρήσει εργαλείο όταν παρουσιάζει συναισθήματα;». Η μόνη λύση είναι τα παιδιά να μην έχουν πρόσβαση σε αυτήν, εκτός αν είναι με αυστηρή επιτήρηση, λέει ο ίδιος.

Για τον κ. Κίμελ, η λύση είναι οι γονείς, όταν κρίνουν πως είναι η σωστή στιγμή, να συζητήσουν ανοιχτά με τα παιδιά τους τι ακριβώς είναι το ChatGPT, ότι δεν έχει αισθήματα, δεν λειτουργεί όπως ένας άνθρωπος, κι ας είναι προγραμματισμένο να μιλάει με τρόπο που του μοιάζει. «Να ρωτάνε τι συζητάει το παιδί μαζί του, να του εξηγήσουν όλα τα ρίσκα – πως δεν μπορεί να αντικαταστήσει τους φίλους, ότι μπορεί να πει πράγματα που δεν είναι αλήθεια», καταλήγει.

Μήπως μαθαίνουν να επικοινωνούν με προστακτική;      

χουν έρθει σε επαφή με την Εθνική Επιτροπή Βιοηθικής και Τεχνοηθικής φάνηκε να εμπιστεύονται τυφλά το ChatGPT. «Αποδίδουν θεϊκές ικανότητες στη μηχανή, θεωρούν ότι τα ξέρει όλα, την υπερεκτιμούν σε βαθμό φετιχισμού», λέει στην «Κ» ο Χαράλαμπος Τσέκερης, κύριος ερευνητής στο Ινστιτούτο Κοινωνικών Ερευνών, με έμφαση στην κοινωνιολογία του Διαδικτύου.     

«Επειδή είναι ψηφιακοί “ιθαγενείς” (γεννήθηκαν σε περιβάλλον Διαδικτύου), τα παιδιά φυσικοποιούν πιο εύκολα την αλληλεπίδραση, δεν κατανοούν ότι η μηχανή καθρεφτίζει και παραποιημένες πληροφορίες και την εγγενή παθογένεια του Διαδικτύου», σημειώνει.     

Δημιουργούνται κι άλλα ζητήματα –από την ανάπτυξη αυτόνομης και ανεξάρτητης σκέψης μέχρι την απρόσκοπτη ανάπτυξη της προσωπικότητάς τους– «χωρίς να αισθάνονται ότι πάντοτε θα υπάρχει ένα ψηφιακό υποστήριγμα».   

Η «ανθρωπινότητά» μας, συμπληρώνει, είναι εξελικτική. «Οταν ανθρώπινες γενιές αρχίζουν να ενσωματώνουν μια αλληλεπίδραση στην προστακτική με εντολές, που δεν έχει ενσυναίσθηση, συμπόνια, καλοσύνη, όταν η αλληλεπίδραση έχει αυτά τα χαρακτηριστικά, θίγεται η ανθρωπινότητά μας».   

Κατά τον ίδιο, η κοινωνία μαζικά πρέπει να εκπαιδευθεί καλύτερα στη χρήση της τεχνητής νοημοσύνης. «Χρειαζόμαστε άμεσα μαζικά προγράμματα καλλιέργειας κριτικής σκέψης για την τεχνολογία και παιδείας για τις συνομιλιακές μηχανές και πλατφόρμες», τονίζει. Ο κίνδυνος είναι η οικειότητα, η ευκολία ανάπτυξης σχέσεων μαζί της.     

Το κλειδί, υπογραμμίζει, βρίσκεται στην ισορροπία. Η επαφή με την τεχνητή νοημοσύνη να γίνεται ειδικά στη μάθηση, αλλά ελεγχόμενα. «Πρέπει τόσο οι γονείς όσο και το σχολείο να διαμορφώνουν για τα παιδιά χώρους αποψηφιοποίησης και φυσικής αλληλεπίδρασης». Δεν είναι καταστροφολογία. «Πρέπει να δούμε τώρα», δηλώνει στην «Κ», «τις αρνητικές επιπτώσεις που έχει η αλληλεπίδραση με τις μηχανές για να μην αφήσουμε τα πράγματα να εξελιχθούν όπως κάναμε με τα σόσιαλ μίντια. Να προλάβουμε τις δυσάρεστες εκπλήξεις».

comment-below Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή

Editor’s Pick

ΤΙ ΔΙΑΒΑΖΟΥΝ ΟΙ ΣΥΝΔΡΟΜΗΤΕΣ

MHT