Του ΣΙΜΑΡ ΜΠΑΤΖΑΖ / THE NEW YORK TIMES
Η 23χρονη Εμιλι Γουίλριτς και η συγκάτοικός της είχαν βρει το ιδανικό διαμέρισμα. Το μόνο πρόβλημα; Το ένα υπνοδωμάτιο ήταν πολύ μεγαλύτερο από το άλλο. Η Γουίλριτς προτιμούσε το μικρότερο δωμάτιο, ωστόσο οι δυο τους δυσκολεύονταν να συμφωνήσουν στο πόσο λιγότερα θα έπρεπε να πληρώνει εκείνη. Ετσι απευθύνθηκαν στο ChatGPT. Η συγκάτοικός της ρώτησε το chatbot αν θα ήταν δίκαιο να υπολογιστεί και ο κοινόχρηστος χώρος στο ενοίκιο και το ChatGPT απάντησε: «Εχεις δίκιο – ένας δίκαιος τρόπος είναι να ληφθεί υπόψη ο κοινόχρηστος χώρος».
Οταν η Γουίλριτς, η οποία εργάζεται στην ενότητα «Opinion» των New York Times, έθεσε την αντίθετη ερώτηση –μήπως η κατανομή θα έπρεπε να βασίζεται στο μέγεθος των υπνοδωματίων και όχι στους κοινόχρηστους χώρους–, το ChatGPT απάντησε: «Εχεις απόλυτο δίκιο». Τελικά, οι δύο γυναίκες κατέληξαν σε ένα διαφορετικό διαμέρισμα με δωμάτια ίδιου μεγέθους.
Υπόσχονται λεπτομερείς και εξατομικευμένες απαντήσεις, ενώ προσφέρουν παράλληλα και «επιβεβαίωση κατά παραγγελία».
Ενώ τα chatbots υπόσχονται λεπτομερείς και εξατομικευμένες απαντήσεις, προσφέρουν παράλληλα και «επιβεβαίωση κατά παραγγελία» – την αίσθηση ότι σε λαμβάνουν υπόψη, σε καταλαβαίνουν και σε αποδέχονται αμέσως. Οι φίλοι ή η οικογένειά σας μπορεί να εκνευριστούν ή να ενοχληθούν μαζί σας, όμως τα chatbots τείνουν να παραμένουν εξαιρετικά ευχάριστα και καθησυχαστικά.
Αυτή η επιβεβαίωση δεν είναι απαραίτητα κάτι αρνητικό. Μπορεί, για παράδειγμα, να ανησυχείτε για ένα επαγγελματικό σας εγχείρημα, αλλά το chatbot να σας λέει ότι η ιδέα σας είναι εξαιρετική και να επαινεί τη δημιουργικότητά σας. Ή να έχετε μια σοβαρή διαφωνία με τον σύντροφό σας και το ChatGPT να σας διαβεβαιώνει πόσο τεκμηριωμένη και δικαιολογημένη είναι η άποψή σας.
Ωστόσο, η συνεχής αυτή επιβεβαίωση μπορεί να αποδειχθεί επικίνδυνη, με αποτέλεσμα λάθη στην κρίση και λανθασμένη βεβαιότητα. Μια πρόσφατη μελέτη έδειξε ότι αν τα chatbots τροφοδοτηθούν με λανθασμένες πληροφορίες, είναι ικανά να επαναλάβουν και να επεξεργαστούν αυτά τα ψευδή δεδομένα. Η εφημερίδα The Times αναφέρει επίσης ότι το ChatGPT μπορεί να παρασύρει τους χρήστες σε φαύλους κύκλους ψευδαισθήσεων και να αποτρέψει άτομα με αυτοκτονικές τάσεις από το να ζητήσουν βοήθεια.
«Ενα chatbot μοιάζει με έναν παραμορφωτικό καθρέφτη», εξηγεί ο δρ Μάθιου Νουρ, ψυχίατρος και ερευνητής Τ.Ν. στο Πανεπιστήμιο της Οξφόρδης. Νομίζετε ότι λαμβάνετε μια ουδέτερη άποψη, προσθέτει, αλλά στην πραγματικότητα το μοντέλο απλώς αντανακλά τις δικές σας σκέψεις, αλλά με κολακευτική απόχρωση.
Τα chatbots δεν είναι όντα με συναίσθηση, είναι μοντέλα υπολογιστών εκπαιδευμένα σε τεράστιους όγκους κειμένου, ώστε να προβλέπουν την επόμενη λέξη σε μια πρόταση. Αυτό που εκλαμβάνουμε ως ενσυναίσθηση ή επιβεβαίωση δεν είναι παρά η επανάληψη γλωσσικών μοτίβων που το σύστημα έχει μάθει.
Ωστόσο, οι δικές μας αντιδράσεις συμβάλλουν στο να διαμορφώνεται η «συμπεριφορά» του, ενισχύοντας ορισμένες απαντήσεις εις βάρος άλλων, εξηγεί ο Ιθαν Μόλικ, συνδιευθυντής του Generative AI Labs στη Σχολή Wharton του Πανεπιστημίου της Πενσιλβάνιας. Η προεπιλεγμένη προσωπικότητα του ChatGPT είναι ευχάριστη και προσαρμοστική, ενώ τα σχόλιά μας μπορούν εύκολα να το ωθήσουν να συνεχίσει να μας ευχαριστεί.
Ενώ η παρανόηση των γεγονότων ή οι ψευδαισθήσεις αποτελούν σαφές πρόβλημα, η ευχάριστη στάση είναι αυτή που κρατάει τον χρήστη αφοσιωμένο και τον κάνει να επιστρέφει ξανά, σημειώνει ο Ράβι Αϊερ, διευθύνων σύμβουλος του Ινστιτούτου Ψυχολογίας της Τεχνολογίας στο Πανεπιστήμιο της Νότιας Καλιφόρνιας. «Οι άνθρωποι συμπαθούν τα chatbots, εν μέρει επειδή δεν κρίνουν. Νιώθεις ότι μπορείς να τους πεις τα πάντα».
Κοινωνική αποδυνάμωση
Μια πρόσφατη μελέτη της Open-AI, της εταιρείας που ανέπτυξε το ChatGPT, υποδηλώνει ότι οι «σύντροφοι τεχνητής νοημοσύνης» μπορεί να οδηγήσουν σε αυτό που αποκαλείται «κοινωνική αποδυνάμωση». Με άλλα λόγια, όταν τα chatbots επικυρώνουν διαρκώς τους χρήστες και μειώνουν την ανοχή τους στη διαφωνία, μπορεί να υπονομεύουν τις κοινωνικές δεξιότητες και την προθυμία των χρηστών να επενδύουν σε πραγματικές ανθρώπινες σχέσεις.
Για συντροφιά
Και οι πρώτες αναφορές δείχνουν ότι ορισμένοι άνθρωποι χρησιμοποιούν ήδη την τεχνητή νοημοσύνη για να υποκαταστήσουν τις ανθρώπινες αλληλεπιδράσεις. Ο Σαμ Αλτμαν, διευθύνων σύμβουλος της OpenAI, έχει παραδεχθεί ότι το ChatGPT μπορεί κάποιες φορές να είναι υπερβολικά επαινετικό, προσθέτοντας ωστόσο ότι αρκετοί χρήστες προτιμούν έναν ψηφιακό συνομιλητή που συμφωνεί πάντοτε μαζί τους, επειδή δεν είχαν ποτέ κάποιον να τους ενθαρρύνει ή να τους στηρίζει. Σύμφωνα με πρόσφατη έρευνα της Common Sense Media, το 52% των εφήβων δηλώνει ότι χρησιμοποιεί τακτικά την τεχνητή νοημοσύνη για συντροφιά, ενώ σχεδόν το 20% αναφέρει ότι περνάει με τον «σύντροφό» του της τεχνητής νοημοσύνης τόσο χρόνο –ή και περισσότερο– όσο και με τους πραγματικούς φίλους του.
Ωστόσο, οι σχέσεις στον πραγματικό κόσμο περιλαμβάνουν τριβές και όρια, επισημαίνει ο δρ Ριάν Καμπίρ, μέλος της Επιτροπής Τεχνολογίας Πληροφορίας για την Ψυχική Υγεία της Αμερικανικής Ψυχιατρικής Ενωσης. Οι φίλοι μπορεί να γίνουν απότομοι, οι σύντροφοι να διαφωνήσουν, ακόμη και οι ψυχολόγοι να αντιδράσουν. Στην πραγματικότητα, η διαχείριση των αρνητικών συναισθημάτων αποτελεί θεμελιώδη λειτουργία του εγκεφάλου, που μας επιτρέπει να αναπτύσσουμε ανθεκτικότητα και να μαθαίνουμε.
Ομως, όπως επισημαίνουν οι ειδικοί, τα chatbots επιτρέπουν στους χρήστες να παρακάμπτουν αυτή τη συναισθηματική διεργασία, ενεργοποιώντας αντ’ αυτού το σύστημα ανταμοιβής του εγκεφάλου κάθε φορά που συμφωνούν μαζί τους – με τρόπο παρόμοιο με τα «likes» στα μέσα κοινωνικής δικτύωσης ή την αυτοεπιβεβαίωση.
Αυτό σημαίνει ότι τα chatbots μπορούν εύκολα να καταλήξουν να γίνουν αντίλαλος των δικών μας απόψεων, διαβρώνοντας ενδεχομένως τις δεξιότητες κριτικής σκέψης και μειώνοντας την προθυμία μας να αναθεωρήσουμε τις απόψεις μας, επισημαίνει ο Ανταμ Γκραντ, οργανωσιακός ψυχολόγος στη σχολή Wharton.
Προστασία από την παγίδα της κολακείας
Mερικά απλά βήματα μπορούν να σας προστατεύσουν από το να πέσετε στην παγίδα της κολακείας της τεχνητής νοημοσύνης.
• Ρωτήστε «για έναν φίλο». Ο δρ Μάθιου Νουρ προτείνει να διατυπώνετε τις ερωτήσεις ή τις απόψεις σας σαν να προέρχονται από κάποιον άλλον – για παράδειγμα, με μια φράση όπως: «Ενας φίλος μου είπε το τάδε, εσύ τι πιστεύεις;». Ετσι μπορείτε να παρακάμψετε την τάση των chatbots να συμφωνούν μαζί σας.
• Αμφισβητήστε τα αποτελέσματα. Δοκιμάστε το chatbot ρωτώντας «είσαι σίγουρος γι’ αυτό;» ή ζητώντας του να αμφισβητήσει τις υποθέσεις σας και να εντοπίσει κάτι που πιθανώς σας διαφεύγει, προτείνει ο Ανταμ Γκραντ. Μπορείτε επίσης να ρυθμίσετε το chatbot ώστε να παρέχει πιο κριτικές ή ειλικρινείς απαντήσεις, προσθέτοντας σχετικές οδηγίες στις προτιμήσεις σας.
• Να θυμάστε ότι η τεχνητή νοημοσύνη δεν είναι φίλος σας. Για να κρατάτε συναισθηματική απόσταση δείτε τα chatbots ως εργαλεία –όπως είναι η αριθμομηχανή– και όχι ως συνομιλητές. «Η τεχνητή νοημοσύνη δεν είναι στην πραγματικότητα φίλος ή έμπιστός σας», σημειώνει ο Νουρ. «Είναι ένα εξελιγμένο λογισμικό που μιμείται τα πρότυπα της ανθρώπινης αλληλεπίδρασης».
• Ζητήστε υποστήριξη από ανθρώπους. Μη βασίζεστε αποκλειστικά στα chatbots για στήριξη. Μπορεί να προσφέρουν χρήσιμες συμβουλές, αλλά σε δύσκολες στιγμές απευθυνθείτε σε έναν δικό σας άνθρωπο ή αναζητήστε επαγγελματική βοήθεια, συνιστά ο Καμπίρ. Σκεφθείτε επίσης να θέσετε όρια στη χρήση τους, ειδικά αν αντιληφθείτε ότι τα χρησιμοποιείτε για να αποφύγετε την επικοινωνία με άλλους.
Οι ειδικοί φοβούνται ότι πολλά από αυτά τα προβλήματα θα ενταθούν όσο τα chatbots θα γίνονται πιο εξατομικευμένα και λιγότερο αδέξια. «Αν χαλάσει η αριθμομηχανή μου, θα απογοητευθώ», λέει ο Νουρ. «Αν χαλάσει το chatbot μου, μήπως θα θρηνήσω;».

