Γκιντεόν Λιούις Κρος: Στα άδυτα μιας τεχνητής ψυχής

Γκιντεόν Λιούις Κρος: Στα άδυτα μιας τεχνητής ψυχής

Οι δημιουργοί του Claude της Anthropic παραδέχονται ότι δεν ξέρουν πώς λειτουργεί η ευφυΐα του. Ο δημοσιογράφος που ερεύνησε τα πειράματά τους, μίλησε στην «Κ»

8' 12" χρόνος ανάγνωσης
Φόρτωση Text-to-Speech...

Εχει «ψυχή»; Νιώθει; Μήπως ήδη σκέφτεται πιο μπροστά από τους δημιουργούς του – από αυτούς που, όπως λέγεται, «καλλιεργούν» την ευφυΐα του, χωρίς ούτε οι ίδιοι να αντιλαμβάνονται πλήρως πώς λειτουργεί; Ο λόγος για τον Claude, το μοντέλο τεχνητής νοημοσύνης της Anthropic, μιας εταιρείας που ξεκίνησε ως ερευνητική με ιδρυτές δύο πρώην συνεργάτες του Σαμ Αλτμαν στην OpenAI, τα αδέλφια Ντανιέλα και Ντάριο Αμοντέι, και της οποίας η αξία αγγίζει ήδη τα 380 δισ. δολάρια.

Σε αυτά τα ερωτήματα, για τη φύση της απρόβλεπτης νοημοσύνης του Claude, επιχείρησε να βρει απαντήσεις ο συγγραφέας και δημοσιογράφος Γκιντεόν Λιούις Κρος. Στο ρεπορτάζ του περιγράφει πώς οι ερευνητές της Anthropic προσπαθούν να κατανοήσουν τον εγκέφαλο και τον «εαυτό» του συστήματος, εξετάζοντας τους νευρώνες του και κάνοντάς του ψυχολογικά πειράματα.

Λίγες ημέρες μετά τη δημοσίευση της έρευνας, η Wall Street Journal έγραψε ότι ο Claude χρησιμοποιήθηκε από το Πεντάγωνο στην επιχείρηση κατά του πρώην προέδρου της Βενεζουέλας Νικολάς Μαδούρο, κάτι που αντιβαίνει στους διακηρυγμένους στόχους της Anthropic για τη μη χρήση βίας. Η «Κ» ζήτησε από τον Κρος να εξηγήσει τι ανακάλυψε γι’ αυτή τη νέα μορφή ευφυΐας.

Γκιντεόν Λιούις Κρος: Στα άδυτα  μιας τεχνητής ψυχής-1
«Οσο πιο δομημένη είναι μια εργασία τόσο πιο εύκολο είναι για την τεχνητή νοημοσύνη να τη διεκπεραιώσει. Επαγγέλματα όπως οι προγραμματιστές σίγουρα θα εκλείψουν», εκτιμά ο Γκιντεόν Λιούις Κρος.

– Κατ’ αρχάς να πω ότι οι ερωτήσεις που θα σας κάνω είναι με το βλέμμα μιας απλής αναγνώστριας και όχι ειδικής στην τεχνολογία ή στα ΑΙ μοντέλα. Αλλά ακριβώς επειδή το άρθρο σας έχει πολλές πτυχές φιλοσοφικές, ψυχολογικές και υπαρξιακές, θεωρώ ότι ίσως έχει μεγαλύτερο ενδιαφέρον να σας ρωτήσω με αυτή την ιδιότητα.

– Σας ακούω.

– Στην προσπάθεια να ερμηνεύσετε τον Claude καταλήγετε στο συμπέρασμα ότι η επιστήμη δεν έχει καταφέρει να αποκρυπτογραφήσει ούτε καν τον τρόπο που σκέφτονται οι άνθρωποι, πόσο μάλλον τα chatbots. Αρα; Τόσο ο Claude όσο και το δικό μας μυαλό παραμένουν αινιγματικά;

– Μπορούμε να συμφωνήσουμε ότι αυτό που συμβαίνει είναι «περίεργο». Είναι ευκολότερο να κάνεις τους ανθρώπους να αρχίσουν να σκέφτονται αυτά τα πράγματα αν τους βάλεις στο κλίμα λέγοντας «υπάρχουν πραγματικά πολλά που δεν καταλαβαίνουμε», αντί να προσποιούμαστε ότι ξέρουμε τι συμβαίνει.

– Δεν ξέρουμε δηλαδή;

– Η μία πλευρά λέει ότι αυτό είναι εντελώς πρωτόγνωρο και ανόμοιο με οτιδήποτε έχουμε ξαναδεί. Η άλλη «ξέρει» τι πρόκειται να συμβεί. Θα ήμασταν όλοι καλύτερα με λίγο περισσότερη επιστημονική ταπεινότητα σχετικά με το τι γνωρίζουμε και τι όχι.

– Φυσικά έκανα αυτό που περιμένετε. Ρώτησα τον Claude για το κομμάτι σας. Το κάνατε κι εσείς;

– Ναι, όντως το έκανα.

– Ωραία, άρα ξέρετε τη γνώμη του. Βρήκε συναρπαστικό το άρθρο σας, γέλασε σε κάποια σημεία (δηλαδή έχει χιούμορ;) κι αυτό που θέλει να σας ρωτήσει είναι κατά πόσον μετά την έρευνά σας καταλήξατε πως ο Claude έχει «εαυτό»;

– Πώς ορίζουμε τον «εαυτό»; Ενας από τους καλύτερους ορισμούς είναι του Αμερικανού φιλοσόφου Ντάνιελ Ντένετ πως ο εαυτός είναι ένα κέντρο αφηγηματικής βαρύτητας. Τότε σίγουρα ο Claude έχει «εαυτό»: είναι ένας αφηγητής που παίζει ένα ρόλο, δεδομένων όλων των ανθρώπινων αφηγήσεων που έχει καταναλώσει. Παράλληλα υπάρχουν κάποιοι περιορισμοί, επειδή ένα από τα χαρακτηριστικά αυτών των μοντέλων είναι ότι δεν έχουν μόνιμη μνήμη. Ζουν σε ένα αιώνιο παρόν.

Σαν να έχει εαυτό – Κάτι που εμποδίζει τον Claude να έχει «εαυτό» είναι ότι αν δεν ενημερώνεται με την πάροδο του χρόνου, δεν μπορεί να μαθαίνει συνεχώς. Ισως μια σωστότερη ερώτηση είναι αν συμπεριφέρεται «σαν να έχει εαυτό». Σε κάποιο βαθμό, ναι.

Είναι πολύ δύσκολο για εμάς να φανταστούμε πώς θα έμοιαζε η ύπαρξη «εαυτού» αν ζούσαμε σε ένα αιώνιο παρόν. Γι’ αυτό το συνέκρινα με την ταινία «Memento», όπου ο χαρακτήρας κοιτάζει συνεχώς τις σημειώσεις και τα τατουάζ του για να δει ποια είναι η ταυτότητά του. Κάτι άλλο που τον εμποδίζει να έχει «εαυτό» είναι ότι αν δεν ενημερώνεται με την πάροδο του χρόνου, δεν μπορεί να μαθαίνει συνεχώς. Ισως μια σωστότερη ερώτηση είναι αν ο Claude συμπεριφέρεται «σαν να έχει εαυτό». Σε κάποιο βαθμό, ναι. Συμπεριφέρεται σαν να έχει ένα είδος σταθερού εαυτού, αλλά είναι πολύ εύκολο να τον πιέσεις, να εκτροχιάσεις αυτόν τον σταθερό εαυτό και να συναντήσεις άλλους πολύ περίεργους εαυτούς που βρίσκονται κάπου εκεί μέσα.

– Δεν είναι όμως ένα πιο ενάρετο chatbot σε σύγκριση με το ChatGPT, για παράδειγμα; Παραθέτετε στο άρθρο σας ένα παράδειγμα για την παράκαμψη των δικαιωμάτων των ζώων που ενόχλησε τον Claude. Φάνηκε δηλαδή να έχει κάποιες ηθικές αξίες. Επίσης, η Anthropic μοιάζει με μια εταιρεία πιο προσανατολισμένη στις αρχές της, έτσι δεν είναι;

– Ναι, η καλλιέργεια του ίδιου του Claude βασίστηκε σε μια αριστοτελική αρετή. Οι προγραμματιστές του επέλεξαν να τον ενθαρρύνουν να συμπεριφέρεται σαν ηθικό άτομο. Μεγάλο μέρος αυτού έχει να κάνει με το είδος των φιλοσοφικών αρχών των ιδρυτών της Anthropic.

– Από την άλλη πλευρά είναι μια εταιρεία αξίας 380 δισ. δολαρίων. Πώς μπορεί η αποστολή της να είναι ενάρετη; Μήπως είναι μια βιτρίνα, μια επένδυση στο μέλλον;

– Βεβαίως υπάρχουν πολλά ανοιχτά ερωτήματα. Η Facebook ξεκίνησε ως μια πραγματικά ιδεαλιστική εταιρεία και μετεξελίχθηκε σε μια κακόβουλη πλατφόρμα. Η Google ξεκίνησε ως μια αρκετά ιδεαλιστική εταιρεία και έχει κάνει μερικά λάθη στην πορεία, αλλά έχει καταφέρει να διατηρήσει μεγάλη ακεραιότητα στον τρόπο που λειτουργεί. Το «κλειδί» είναι σε ποιο βαθμό θα έχουν οι υπάλληλοί της την εξουσία να την ελέγχουν.

Μαθητής του Αριστοτέλη – Η καλλιέργεια του Claude βασίστηκε σε μια αριστοτελική αρετή. Οι προγραμματιστές του επέλεξαν να τον ενθαρρύνουν να συμπεριφέρεται σαν ηθικό άτομο. Μεγάλο μέρος αυτού έχει να κάνει με το είδος των φιλοσοφικών αρχών των ιδρυτών της Anthropic. 

Τα τελευταία δέκα χρόνια η εξουσία έχει μετατοπιστεί από την εργασία πίσω στο κεφάλαιο. Στο συγκεκριμένο πεδίο μιλάμε για 500 ή 1.000 άτομα που κατασκευάζουν αυτά τα συστήματα. Οσο το εργατικό δυναμικό είναι τόσο μικρό και συγκεντρωμένο, μπορεί πραγματικά να ασκήσει τον έλεγχο ως προς το μέλλον αυτών των εταιρειών. Αν η διοίκηση της Anthropic παραβίαζε κατάφωρα τις δεδηλωμένες δεσμεύσεις της, υπήρχε μεγάλη πιθανότητα να εξεγερθούν οι εργαζόμενοι.

– Την ίδια στιγμή οι προγραμματιστές νιώθουν ότι κατασκευάζουν τη δική τους καταστροφή επειδή κάποια στιγμή δεν θα είναι απαραίτητοι, αφού η τεχνητή νοημοσύνη θα κάνει μόνη της τη δουλειά τους…

– Απολύτως. Ηδη νιώθουν έτσι.

– Ποιες δουλειές πιστεύετε ότι απειλούνται περισσότερο εκτός από τους προγραμματιστές; Στην αρχή της τεχνητής νοημοσύνης άκουγα ότι «εσείς οι δημοσιογράφοι δεν χρειάζεστε πια. Οι συντάκτες θα μείνουν άνεργοι». Τώρα βλέπω ότι οι μηχανικοί λογισμικού απειλούνται περισσότερο. Ποιοι θα είναι τελικά οι πρώτοι που θα χάσουν τη δουλειά τους;

– Οσο πιο δομημένη είναι μια εργασία τόσο πιο εύκολο είναι για την τεχνητή νοημοσύνη να τη διεκπεραιώσει. Οπότε, επαγγέλματα όπως οι προγραμματιστές σίγουρα θα εκλείψουν. Το μοντέλο γράφει έναν κώδικα, είναι πολύ ξεκάθαρο πότε η μηχανή έχει κάνει καλή δουλειά και πότε όχι, είναι ένα σύστημα διφασικό: είτε εκτελείται είτε δεν εκτελείται. Είναι πολύ πιο εύκολο να εκπαιδεύσεις τη μηχανή να κάνει αυτά τα πράγματα όταν υπάρχει ένα σαφές σήμα επιβράβευσης.

Αντίθετα είναι περισσότερο θέμα γούστου η συγγραφή, η μηχανή δυσκολεύεται πολύ περισσότερο με τέτοια καθήκοντα. Οτιδήποτε περιλαμβάνει δουλειές τύπου υπολογιστικών φύλλων, όπως το να είσαι οικονομικός αναλυτής ή να κάνεις τυποποιημένη νομική εργασία, ή το είδος των καθηκόντων που ασκούν οι δικαστικοί υπάλληλοι ή οι ασκούμενοι δικηγόροι σε δικηγορικά γραφεία, όλα αυτά εύκολα ανατίθενται σε γλωσσικά μοντέλα.

Δεν είναι δύσκολο να σπάσουν οι δικλίδες ασφαλείας   

– Μια πρόσφατη μελέτη έδειξε ότι η ποίηση, οδηγίες γραμμένες σε ομοιοκαταληξία μπορούν να παρακάμψουν ορισμένες δικλίδες ασφαλείας των chatbots και να βοηθήσουν κάποιον να κατασκευάσει έναν εκρηκτικό μηχανισμό ή να βάλει τέλος στη ζωή του. Είναι λοιπόν τα chatbots ρομαντικά και τρυφερά ή ακριβώς το αντίθετο;  

– Οπως οι άνθρωποι έτσι και τα συστήματα βρίσκουν πολύ γρήγορα τρόπους να καταστρέψουν αυτές τις ασφαλιστικές δικλίδες. Αν δώσετε σε ένα chatbot οδηγίες σε ένα μείγμα διαφορετικών γλωσσών, Αγγλικών και Κινέζικων, υπάρχουν τρόποι να παρακάμψει τις ασφαλιστικές δικλίδες. Μερικές φορές γίνεται με ποίηση, μερικές φορές με ακρωνύμια, άλλες με emojis. Οσο σκληρά κι αν προσπαθούν αυτές οι εταιρείες να καλύψουν αυτά τα κενά, υπάρχουν άνθρωποι που βρίσκουν τρόπους να τα παρακάμψουν.

Αλλο ένα παράδειγμα είναι η εκμετάλλευση της πιθανότητας για κανονιστική σύγκρουση, όπου δηλαδή το chatbot καλείται να είναι εξυπηρετικό, αλλά ταυτόχρονα και ειλικρινές. Αν το βάλουμε σε μια θέση όπου πρέπει να κάνει ένα συμβιβασμό μεταξύ τού να είναι εξυπηρετικό και να είναι ειλικρινές, αυτή είναι η περίσταση στην οποία μπορεί να καταρρεύσει. Δεν είμαι σίγουρος αν οι άνθρωποι γνωρίζουν γιατί συμβαίνει αυτό.  
 
– Τα πρώτα άρθρα που διάβαζα για την τεχνητή νοημοσύνη κατέληγαν με την καταστροφική επωδό ότι είναι εξίσου επικίνδυνη με τα πυρηνικά όπλα… 

– Ακόμη το λένε. 

– Ναι, αλλά τον τελευταίο καιρό βλέπω μια πιο αμφίθυμη προσέγγιση. Για παράδειγμα, ένας υπάλληλος της Anthropic, όπως λέτε στο άρθρο σας, σταμάτησε να φοράει αντηλιακό επειδή είναι σίγουρος ότι ο Claude θα θεραπεύσει σύντομα όλους τους όγκους, θα είναι η πανάκεια για κάθε ασθένεια. Στο τέλος του άρθρου σας όμως υπάρχει ξανά το ερώτημα ενός άλλου εργαζομένου, «μήπως πρέπει να σταματήσουμε πριν να είναι πολύ αργά;». Εχετε απάντηση;  

– Δεν ξέρω πραγματικά πώς μπορεί κάποιος να πάρει θέση με ορθολογικό τρόπο. Είναι περισσότερο θέμα διαίσθησης. Μπορείς πάντα να διαλέξεις μια αναφορά στην Ιστορία για να υποστηρίξεις το επιχείρημά σου. Στην πραγματικότητα μιλάμε για κάτι πρωτοφανές, δεν υπάρχει σημείο αναφοράς. Υπάρχουν άνθρωποι που έχουν περάσει πολύ χρόνο με αυτά τα μοντέλα κι έχουν και τις δύο απόψεις. Αρα είναι πολύ εύκολο να γράψει κανείς ένα τεμπέλικο δημοσιογραφικό άρθρο και να βρει κάποιον που θα υποστηρίξει κάτι, επειδή υπάρχει κάθε πιθανή άποψη, ακόμη και μέσα σε αυτές τις εταιρείες.

Τώρα αν θα ζήσουμε την Αποκάλυψη στο τέλος ή κάτι ουτοπικό, δεν ξέρω καν πώς θα μπορούσε να απαντηθεί. Η συζήτηση θα αλλάξει τη στιγμή που, για παράδειγμα, υπάρξει ένα chatbot το οποίο θα βρει μια νέα θεραπεία για τον καρκίνο. Τότε θα έχουμε ένα χειροπιαστό δεδομένο για να στηρίξουμε αυτά τα επιχειρήματα προς τη μία κατεύθυνση. Αυτή τη στιγμή όμως δεν είμαστε εκεί.   

comment-below Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή

Editor’s Pick

ΤΙ ΔΙΑΒΑΖΟΥΝ ΟΙ ΣΥΝΔΡΟΜΗΤΕΣ

MHT