Τις προϋποθέσεις για την υπεύθυνη ανάπτυξη και διακυβέρνηση της Τεχνητής Νοημοσύνης σε επιχειρηματικό περιβάλλον ανέλυσε η Phaedra Boinodiris, Responsible AI Leader της IBM, στο πλαίσιο του EmTech Europe 2026, που διοργανώνει η MIT Technology Review σε συνεργασία με την Καθημερινή. Τη συζήτηση συντόνισε ο δημοσιογράφος Απόστολος Μαγγηριάδης.
Η κ. Boinodiris ασχολείται με την ηθική διαχείριση της ΤΝ ήδη από τα χρόνια της Προβλεπτικής ΤΝ, πολύ πριν η Γενετική ΤΝ αναδυθεί στη δημόσια συνείδηση. «Αυτή η ομιλία αφορά το να κάνουμε ΤΝ σωστά», τόνισε εξαρχής. Όπως ανέφερε, σύμφωνα με αναλυτές, το 75% έως 95% των επενδύσεων σε ΤΝ αποτυγχάνουν να αποδώσουν αξία για τρεις βασικούς λόγους: επειδή η αρχική επένδυση δεν συνδέθηκε με την επίλυση ενός συγκεκριμένου προβλήματος, επειδή δεν κατέστη δυνατό να κερδηθεί η εμπιστοσύνη των ανθρώπων και λόγω έλλειψης δεξιοτήτων σε όλο τον κύκλο σχεδιασμού, ανάπτυξης και διακυβέρνησης.

Επισήμανε τη σημασία της διάκρισης μεταξύ των τριών μορφών ΤΝ −Προβλεπτικής, Γενετικής και Agentic−, καθώς καθεμία εισάγει διαφορετικούς τύπους κινδύνων. Στο επίκεντρο της ανάλυσής της έθεσε τον ανθρώπινο παράγοντα: «Τα δεδομένα είναι ένα αποτύπωμα της ανθρώπινης εμπειρίας», εξήγησε, υπογραμμίζοντας ότι οι άνθρωποι φέρουν πάνω από 180 γνωστικές προκαταλήψεις, τις οποίες η ΤΝ αναπαράγει. «Η ΤΝ λειτουργεί σαν καθρέφτης που αντανακλά τις προκαταλήψεις μας. Πρέπει να έχουμε το θάρρος να κοιτάξουμε μέσα σε αυτόν και να αποφασίσουμε αν αυτό που βλέπουμε αντιστοιχεί στις αξίες μας».
Παρουσίασε μια ιεραρχία γνώσης, εξηγώντας ότι «δεδομένα συν πλαίσιο ισούται με πληροφορία, ενώ δεδομένα συν πλαίσιο και σχέσεις ισούται με γνώση», και υπογράμμισε πως τα μοντέλα ΤΝ που στερούνται πλαισίου και σχέσεων οδηγούνται αναπόφευκτα σε αναξιόπιστα αποτελέσματα.
Αναφέρθηκε στο φαινόμενο της prompt injection, εξηγώντας ότι πρόκειται για επιθέσεις κατά τις οποίες κακόβουλοι χρήστες αξιοποιούν κατάλληλα διατυπωμένες οδηγίες ώστε να οδηγήσουν ένα σύστημα ΤΝ σε συμπεριφορές που δεν είχαν προβλεφθεί από τους δημιουργούς του. Σε ό,τι αφορά την ανθρώπινη εποπτεία, έθεσε το ερώτημα του τρόπου εκπαίδευσης όσων επιβλέπουν αυτά τα συστήματα, δίνοντας ιδιαίτερη έμφαση στην αντιμετώπιση της τάσης τους να εμπιστεύονται αυτόματα τις αποφάσεις των μηχανών.

Παρουσίασε πέντε βασικούς πυλώνες εμπιστοσύνης που κάθε οργανισμός οφείλει να λαμβάνει υπόψη −τη δικαιοσύνη, την ερμηνευσιμότητα, την ανθεκτικότητα σε επιθέσεις, τη διαφάνεια και την προστασία δεδομένων− και τόνισε ότι η εφαρμογή τους πρέπει να προσαρμόζεται στο επίπεδο κινδύνου κάθε χρήσης. Επισήμανε, ακόμη, ότι η διακυβέρνηση οφείλει να ξεκινά από τον ανθρώπινο παράγοντα πριν από οποιαδήποτε αυτοματοποιημένη τεχνική λύση και ότι κάθε οργανισμός πρέπει να έχει ορίσει με σαφήνεια ποιος φέρει την ευθύνη για τα αποτελέσματα των συστημάτων ΤΝ που χρησιμοποιεί.
Κλείνοντας, υπογράμμισε ότι ο σχεδιασμός υπεύθυνης ΤΝ απαιτεί τη συμμετοχή ανθρώπων από διαφορετικά πεδία, πολύ πέρα από τους μηχανικούς και τους επιστήμονες δεδομένων. Απαντώντας σε ερώτηση για την εκπαίδευση, τόνισε την ανάγκη ανάπτυξης διεπιστημονικών προγραμμάτων σε όλες τις βαθμίδες −από το δημοτικό έως το πανεπιστήμιο− και συνέστησε τη δημιουργία συνεργασιών μεταξύ κυβέρνησης, ακαδημαϊκής κοινότητας, ιδιωτικού τομέα και μη κυβερνητικών οργανώσεων. «Είναι σημαντικό να τους εκπαιδεύσουμε όλους, ακόμη και τους ηλικιωμένους, ώστε να είναι κριτικοί καταναλωτές ΤΝ και να θέτουν ερωτήματα για την προέλευση των δεδομένων που τους παρουσιάζονται».

