Το ηθικό βάρος της «άφθονης» νοημοσύνης για τον άνθρωπο

Το ηθικό βάρος της «άφθονης» νοημοσύνης για τον άνθρωπο

3' 42" χρόνος ανάγνωσης
Φόρτωση Text-to-Speech...

Στη μεγαλύτερη διάρκεια της ανθρώπινης ιστορίας, τα προϊόντα της νοημοσύνης ήταν περιορισμένα. Η σκέψη απαιτούσε χρόνο, η διορατικότητα ωρίμαζε μέσα από εμπειρίες και λάθη, και η γνώση είχε τριβές που της έδιναν βάθος. Σήμερα, αυτή η συνθήκη έχει ανατραπεί. Η τεχνητή νοημοσύνη, υποκαθιστώντας την ανθρώπινη γνωστική λειτουργία, καθιστά τα γνωστικά προϊόντα άφθονα – ίσως επικίνδυνα άφθονα. Οι απαντήσεις εμφανίζονται ακαριαία, τα μοτίβα αναγνωρίζονται χωρίς προσπάθεια και η κρίση παραδίδεται τεχνολογικά συσκευασμένη, με μια αυτοπεποίθηση που συχνά ανταγωνίζεται ή και υπερβαίνει τη δική μας. Για πρώτη φορά, η ίδια η ανθρώπινη σκέψη μοιάζει να μπαίνει σε τροχιά απαξίωσης, όχι επειδή είναι ελαττωματική, αλλά επειδή φαίνεται προαιρετική και ίσως και «φτωχότερη».

Στο παρελθόν, αντικαταστήσαμε εργαλεία, ποτέ όμως τη σκέψη. Οι μηχανές ενίσχυσαν τη μυϊκή δύναμη, την ταχύτητα, την υπολογιστική ικανότητα· δεν διεκδίκησαν τον χώρο της λογικής, της σύνθεσης και της ερμηνείας. Η τεχνητή νοημοσύνη, όμως, καταλαμβάνει ακριβώς αυτό το πεδίο που θεωρούσαμε κατεξοχήν ανθρώπινο. Και σε πολλούς τομείς –από τη διάγνωση έως τη δημιουργικότητα– το κάνει συχνά πιο αποτελεσματικά από εμάς. Η αλλαγή αυτή είναι απότομη, εκθετική και ήδη ενσωματωμένη στην καθημερινότητα. Ακόμη και η ηθική, το προπύργιο της ανθρώπινης μοναδικότητας, αποδεικνύεται σε μεγάλο βαθμό κωδικοποιήσιμη. Κανόνες, περιορισμοί και συμβιβασμοί μπορούν να τυποποιηθούν και οι «παραινέσεις» ή οι «απαγορεύσεις» να εφαρμοστούν σε μεγάλη κλίμακα.

Η πιο ανησυχητική ανακάλυψη ίσως δεν είναι ότι οι μηχανές στερούνται ηθικής, που ούτως ή άλλως αληθεύει, αλλά ότι ένα σημαντικό μέρος της δικής μας ηθικής συλλογιστικής είναι πιο διαδικαστικό απ’ όσο θέλουμε να παραδεχθούμε. Ετσι, το κρίσιμο ερώτημα δεν είναι αν η τεχνητή νοημοσύνη θα γίνει γνωστικά ανώτερη. Από πολλές απόψεις, είναι ήδη. Το ουσιαστικό ερώτημα είναι τι συμβαίνει τώρα και στο εξής, όταν η ίδια η νοημοσύνη αλλάζει κατηγορία και γίνεται άφθονη, έτσι ώστε να μετατοπίζεται η αξία της. Αυτό που σπανίζει πια δεν είναι η γνώση, αλλά η ηθική ευθύνη της χρήσης της: η ιδιοκτησία, η κρίση και η ανάληψη των συνεπειών. Περνάμε από τη διορατικότητα στην υπευθυνότητα. Δεν είναι τόσο οι απαντήσεις που έχουν σημασία, αλλά η ευθύνη για τις συνέπειές τους. Αυτό είναι το πραγματικό ηθικό βάρος της νοημοσύνης σήμερα. Καθώς τα συστήματα τεχνητής νοημοσύνης γίνονται ισχυρότερα, το κόστος της ηθικής αποσύνδεσης αυξάνεται. Μια λανθασμένη οδηγία από ένα πανίσχυρο σύστημα έχει πολύ μεγαλύτερες επιπτώσεις από μια σύσταση ενός περιορισμένου εργαλείου. Eτσι, ένα σφάλμα σε ιατρικό πλαίσιο μπορεί να επηρεάσει θεραπευτικές αποφάσεις σε μεγάλο αριθμό ασθενών· ένα σφάλμα σε διοικητικό πλαίσιο μπορεί να παγιώσει αδικίες· ένα σφάλμα σε ενημερωτικό πλαίσιο μπορεί να διαβρώσει την εμπιστοσύνη.

Και όσο πιο «έξυπνη» είναι η τεχνητή νοημοσύνη, τόσο πιο δελεαστικό γίνεται να αποσυρθούμε. Ακριβώς τότε, όμως, είναι που η ανθρώπινη αποχώρηση γίνεται πιο επικίνδυνη. Πολλοί το βιώνουμε ήδη: τη δυσφορία να υποστηρίζουμε μια θέση που δεν έχουμε σκεφτεί σε βάθος, την αμηχανία να υπερασπιζόμαστε ένα συμπέρασμα που μοιάζει σωστό αλλά προέρχεται «από αλλού». Αυτή η δυσφορία δεν είναι αποτυχία. Είναι αποτέλεσμα της χρήσης της τεχνητής νοημοσύνης χωρίς ατομική δημιουργικότητα και χωρίς πλήρη κατανόηση. Μας υπενθυμίζει ότι, ακόμη κι όταν ένα άψυχο σύστημα σκέφτεται καλύτερα από εμάς, δεν μπορεί να «ζήσει» τις συνέπειες αντί για εμάς. Το συναισθηματικό αυτό βάρος είναι απαίτηση για μια διαρκή γνωστική παρουσία σε τεχνολογίες που έχουν σχεδιαστεί για να λειτουργούν «άψογα» χωρίς ανθρώπινη συμμετοχή. Μας καλεί να παραμείνουμε υπεύθυνοι ακριβώς τη στιγμή που η αυτοματοποίηση μας προτρέπει να παραδοθούμε. Εκεί, στα όρια της λήψης αποφάσεων, συγκρούονται αξίες και συσσωρεύεται το πραγματικό ηθικό κόστος. Ο κίνδυνος δεν είναι ότι οι μηχανές μπορεί να «σκέφτονται» καλύτερα από εμάς. Είναι ότι η «νοημοσύνη» θα μπορεί να συνεχίσει να υπάρχει πλήρως χωρίς εμάς. Το μέλλον της, όμως, δεν θα είναι, όπως τώρα, διαγωνισμός μυαλών, αλλά δοκιμασία ευθύνης. Το ηθικό βάρος που προκαλεί είναι η δυσκολία να εγκαταλείψουμε την ανθρώπινη ευθύνη, απλώς και μόνον επειδή το να «σκε-φτόμαστε» έχει γίνει εύκολο.

Από τα παραπάνω γίνεται ξεκάθαρο ότι η κοινωνία χρειάζεται θεσμικές δικλίδες: διαφάνεια στα δεδομένα, έλεγχο μεροληψίας, σαφή κατανομή ευθύνης και εκπαίδευση των πολιτών ώστε να κατανοούν τα όρια, τα σφάλματα και τα κίνητρα των συστημάτων τεχνητής νοημοσύνης. Χωρίς αυτά, η ευκολία των απαντήσεων θα μετατραπεί σε ευκολία παραίτησης, και, τελικά, σε συλλογικό ηθικό έλλειμμα.

Η τεχνητή νοημοσύνη δεν αλλάζει μόνο τι κάνουμε, αλλά και το πώς σκεφτόμαστε – και το αν παραμένουμε παρόντες σε αυτό που σκεφτόμαστε. Καθώς η γνωστική εργασία αυτοματοποιείται, η ανθρώπινη ευθύνη γίνεται το σπανιότερο και πολυτιμότερο συστατικό της νοημοσύνης.

*Ο κ. Γεώργιος Π. Χρούσος είναι ακαδημαϊκός, ομότιμος καθηγητής Παιδιατρικής και Ενδοκρινολογίας, επικεφαλής στην έδρα της UNESCO Εφηβικής Υγείας και Ιατρικής, πρόεδρος στο Ελληνικό Ινστιτούτο Pasteur.

comment-below Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή

Editor’s Pick

ΤΙ ΔΙΑΒΑΖΟΥΝ ΟΙ ΣΥΝΔΡΟΜΗΤΕΣ

MHT