Λουτσιάνο Φλορίντι στην «Κ»: Απειλεί τη δημοκρατία η κακή χρήση της ΑΙ στην πολιτική

Λουτσιάνο Φλορίντι στην «Κ»: Απειλεί τη δημοκρατία η κακή χρήση της ΑΙ στην πολιτική

Ενα από τα προβλήματα που προκύπτουν είναι ότι με την αυτοματοποίηση μειώνεται η ευθύνη και η έλλειψη ευθύνης μετατρέπεται σε έλλειψη λογοδοσίας

5' 28" χρόνος ανάγνωσης

Μπορεί η τεχνητή νοημοσύνη (ΑΙ) να «καταργήσει» τις ευθύνες των πολιτικών και από εργαλείο να γίνει η κύρια πηγή λήψης πολιτικών αποφάσεων; Σε συζήτηση με την «Κ» ο διευθυντής του κέντρου ψηφιακής ηθικής του Γέιλ και καθηγητής στα Πανεπιστήμια του Γέιλ και της Μπολόνια, Λουτσιάνο Φλορίντι, υπογραμμίζει ότι ο μεγαλύτερος κίνδυνος από την ανάπτυξη της ΑΙ είναι να εξαφανιστεί η λογοδοσία των πολιτικών και ο σχεδιασμός και η εκτέλεση των νόμων να αφεθεί στις «έξυπνες» μηχανές. Εκτιμώντας ότι η «ηθική αυτονομία» των μηχανών είναι ένα σενάριο «επιστημονικής φαντασίας», ο καθηγητής Φλορίντι αντιτίθεται σε όσους διαδίδουν τον φόβο για την «κυριαρχία» των μηχανών, αποσπώντας την προσοχή των πολιτών από τα πραγματικά προβλήματα.

– Στους πρόσφατους «Δελφικούς διαλόγους», συζητήσατε τις προκλήσεις που θέτει η τεχνητή νοημοσύνη στη δημοκρατία. Πώς επηρεάζει η τεχνητή νοημοσύνη τις θεμελιώδεις αρχές της δημοκρατίας, όπως τη δικαιοσύνη, την ισότητα και την ελευθερία;

– Αυτό είναι ένα σημαντικό ερώτημα. Δεν είναι η τεχνητή νοημοσύνη που επηρεάζει τις αρχές, αλλά οι άνθρωποι που χρησιμοποιούν την τεχνητή νοημοσύνη και επηρεάζουν τις αρχές της δημοκρατίας. Οπότε, ας βεβαιωθούμε ότι δεν μιλάμε γι’ αυτή την τεχνολογία σαν να είναι μια αυτόνομη δύναμη ή κάποιο είδος θεότητας, αλλά μια ισχυρή και πρωτόγνωρη τεχνολογία που βρίσκεται στα χέρια ατόμων, κυβερνήσεων και κομμάτων, αφού μιλάμε για πολιτική. Οπως πιθανώς γνωρίζετε, η τεχνολογία αυτή είναι διπλής χρήσης. Αφενός μπορεί να αναπτυχθεί για να βελτιώσει σημαντικά τη δημοκρατία μας, όπως για να αντιμετωπιστούν σύνθετα σενάρια τόσο σε εθνικό όσο και σε διεθνές επίπεδο, όπου υπάρχει τεράστιος όγκος δεδομένων και οι πολιτικές που βασίζονται σε αποδείξεις χρειάζονται καλύτερες γνώσεις και πιο ισχυρά εργαλεία για τον χειρισμό των δεδομένων και των πιθανών σεναρίων. Επομένως, από αυτή την άποψη η δημοκρατία, η δικαιοσύνη, η ισότητα και η ελευθερία μας βελτιώνονται από τη χρήση της ΑΙ. Από την άλλη, οι άνθρωποι μπορούν πολύ εύκολα να καταχραστούν και υπερεκμεταλλευτούν αυτή την τεχνολογία. Και όταν τη χρησιμοποιείτε για λάθος στόχους προκειμένου να εφαρμόσετε λάθος πολιτικές, τότε απλώς δημιουργείτε σπατάλη πόρων. Οπότε η απάντηση είναι διπλή. Από τη μια μπορεί να αναπτυχθεί για να βελτιώσει τη δημοκρατία, η οποία πρέπει να περάσει στο επόμενο κεφάλαιο, στο κεφάλαιο του 21ου αιώνα, όπου απαιτείται περισσότερος συντονισμός και συνεργασία ώστε να αντιμετωπιστεί η πολυπλοκότητα. Ταυτόχρονα, όμως, ανησυχώ για όλες τις λάθος δυνάμεις που θα χρησιμοποιήσουν την τεχνητή νοημοσύνη για να παραπληροφορήσουν, χειραγωγήσουν τον πληθυσμό για να προωθήσουν τον φόβο, το μίσος και τους εξτρεμισμούς κάθε είδους. Οπότε έχουμε μια πολύ ισχυρή τεχνολογία στα χέρια μας και φέρουμε μεγάλη ευθύνη στο πώς τη χρησιμοποιούμε.

– Εχουμε δει την τεχνητή νοημοσύνη να αλληλεπιδρά σε πολλές πτυχές της καθημερινότητας, όπως στην ιατρική ή στην οδήγηση. Παρ’ όλα αυτά, με την εξέλιξή της τίθεται το ερώτημα, θα μπορούσε η τεχνητή νοημοσύνη να εισαχθεί στην πολιτική και στη λήψη των αποφάσεων;

– Νομίζω πως ναι. Και στην πραγματικότητα έχει ήδη εισαχθεί. Μπορώ να σας πω ότι υπάρχουν κάποιες πολύ προηγμένες περιοχές, για παράδειγμα στην Ευρώπη, όπου η μηχανική μάθηση χρησιμοποιείται για τη μοντελοποίηση και την προσομοίωση σεναρίων σε περιφερειακό επίπεδο. Πρόσφατα είχα το προνόμιο να γνωρίσω αυτό το είδος προηγμένης τεχνολογίας, όπου στην Εμίλια-Ρομάνια ήδη μοντελοποιούν την περιοχή και πολλές πτυχές της, από την πρόγνωση του καιρού έως τους πιθανούς κλιματικούς κινδύνους, ειδικά τις πλημμύρες, αλλά επίσης και κοινωνικά και οικονομικά χαρακτηριστικά της περιοχής, όπως της οικονομίας των εταιρειών, την κατανάλωση ηλεκτρικής ενέργειας ή ακόμη και τη συλλογή και ανακύκλωση των απορριμμάτων. Μπορείτε να φανταστείτε ότι πρόκειται για έναν τεράστιο όγκο δεδομένων και χρησιμοποιούν την ΑΙ για να δώσουν μια σαφή εικόνα στους υπεύθυνους χάραξης πολιτικής για το ποια είναι η τρέχουσα κατάσταση.

– Οπότε, ποια ηθικά ζητήματα θα μπορούσαν να προκύψουν από τη χρήση της τεχνητής νοημοσύνης στη διακυβέρνηση;

– Υπάρχουν πολλά ερωτήματα που πρέπει να εξετάσουμε και έχουν να κάνουν σε μεγάλο βαθμό με την κακή και υπερβολική χρήση αυτής της τεχνολογίας. Ενα από τα προβλήματα που προκύπτουν είναι ότι με την αυτοματοποίηση μειώνεται η ευθύνη. Κάποιος μπορεί να πιστεύει ότι το μόνο που χρειάζεται να κάνουμε είναι να ενεργοποιήσουμε τη μηχανή, να κάνουμε τις σωστές ερωτήσεις και οι σωστές απαντήσεις θα εμφανιστούν και μετά απλώς εφαρμόζουμε τις απαντήσεις. Οπότε δημιουργείται ένα μεγάλο ρίσκο και ένας ηθικός κίνδυνος από την άποψη πως εγκαταλείπουμε την έξυπνη, προσεκτική και πλαισιωμένη κατανόηση, του τι είναι το σωστό να κάνουμε. Η ηθική δεν είναι ένας αλγόριθμος. Είναι περισσότερο σαν μια συνταγή μαγειρικής που μερικές φορές χρειάζεται να αλλάξεις ελαφρώς τα συστατικά, ανάλογα με το ποιος είναι ο καλεσμένος. Ετσι υπάρχει ευελιξία και προσαρμογή. Ομως, στην ηθική οι αρχές είναι σαφείς, αλλά η μετουσίωσή τους σε πραγματικές πρακτικές και σωστές αποφάσεις απαιτεί ευελιξία και προσαρμογή, όχι απλό υπολογισμό. Αλλος κίνδυνος που αναφέραμε και προηγουμένως είναι η αφαίρεση της ευθύνης που έρχεται με την αυτοματοποίηση. Φανταστείτε κάποιον πολιτικό να λέει, «λοιπόν, δεν το έκανα εγώ αυτό ή δεν το πρότεινα εγώ. Απλώς έκανα την ερώτηση και ο υπολογιστής είπε εκείνο», και ξέρετε, η έλλειψη ευθύνης μετατρέπεται σε έλλειψη λογοδοσίας. Και η πολιτική είναι το κατεξοχήν παιχνίδι της λογοδοσίας. Εκλέγουμε ανθρώπους με τη θεμελιώδη παραδοχή ότι είναι υπόλογοι για ό,τι κάνουν και ό,τι αποφασίζουν. Επομένως, αν η λογοδοσία εξαφανιστεί, θα υπάρξει ηθική καταστροφή.

– Ανησυχείτε ότι η τεχνητή νοημοσύνη μπορεί να αποκτήσει τη δική της ηθική ή συνείδηση για το πώς πρέπει να κυβερνώνται τα κράτη;

– Δεν ανησυχώ. Θέλω να πω, είναι επιστημονική φαντασία. Νομίζω ότι υπάρχουν σοβαρά προβλήματα στα οποία πρέπει να επικεντρωθούμε, αλλά όχι αυτό. Αυτό είναι απλώς ένας αντιπερισπασμός, ανεξάρτητα από το αν ο αντιπερισπασμός οφείλεται σε επιστημονικό δογματισμό, κακή φιλοσοφία και άλλους αφελείς λόγους, ή επειδή υπάρχει κάποιο σχέδιο από πίσω για να αποσπάσει την προσοχή των ανθρώπων με «αποκαλυπτικά» και δυστοπικά σενάρια. Ο αντιπερισπασμός θα ήταν διασκεδαστικός αν δεν υπήρχε το γεγονός ότι τα πραγματικά και πιεστικά προβλήματα αγνοούνται.

– Ποιες κατευθυντήριες γραμμές ή πλαίσια θα πρέπει να υιοθετηθούν για να διασφαλιστεί η ισορροπία μεταξύ της ανθρώπινης νόησης και των ορίων της τεχνητής νοημοσύνης;

– Προς το παρόν έχουμε δύο γενικές προσεγγίσεις. Αν κοιτάξετε τις ΗΠΑ και την Ε.Ε., στη μία περίπτωση το αμερικανικό πλαίσιο συνδέεται πολύ με την εθνική ασφάλεια, την άμυνα και ουσιαστικά τον ανταγωνισμό και την οικονομική ηγεμονία. Ο θεμελιώδης κινητήριος μοχλός στο αμερικανικό πλαίσιο είναι ο ανταγωνισμός. Στην άλλη πλευρά του Ατλαντικού, το ευρωπαϊκό μοντέλο είναι προτιμότερο αλλά είναι πιο δύσκολο και πιο δαπανηρό. Αυτό το μοντέλο βασίζεται στην ανθρώπινη αξιοπρέπεια και τα ανθρώπινα δικαιώματα. Ετσι, θυσιάζει λίγο από την ανταγωνιστικότητα και δεν επιτρέπει κάθε είδους καινοτομίες οι οποίες δεν είναι συμβατές με τα ανθρώπινα δικαιώματα και την ανθρώπινη αξιοπρέπεια. Ως φιλόσοφος αντιλαμβάνομαι την αμερικανική προσέγγιση, αλλά κατά τη γνώμη μου ο ευρωπαϊκός τρόπος είναι ηθικά, κοινωνικά και πολιτικά προτιμότερος.

comment-below Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή

Editor’s Pick

ΤΙ ΔΙΑΒΑΖΟΥΝ ΟΙ ΣΥΝΔΡΟΜΗΤΕΣ

MHT