Η εποχή που μπορούσαμε να εξακριβώσουμε με ευκολία την αυθεντικότητα ενός βίντεο στο ίντερνετ έχει παρέλθει. Μέχρι χθες, για να καταλάβουμε αν είχε χρησιμοποιηθεί τεχνητή νοημοσύνη, αρκούσε λίγη παρατηρητικότητα: έξι δάχτυλα, αλλοιωμένα πρόσωπα, αφύσικες κινήσεις, απότομες μεταβάσεις ήταν οι συνήθεις συναγερμοί. Καθώς όμως τα λογισμικά εξελίσσονται, οι αστοχίες μειώνονται επικίνδυνα. Ακόμα και οι ειδικοί δυσκολεύονται να εντοπίσουν τη διαφορά. «Η τεχνολογία έχει γίνει τόσο καλή», παραδέχεται ο Μπεν Κόλμαν, διευθύνων σύμβουλος της εταιρείας ανίχνευσης συνθετικών βίντεο Reality Defender, «που ούτε οι δικοί μας υπάλληλοι με διδακτορικά μπορούν πλέον να διακρίνουν το ψεύτικο με γυμνό μάτι. Τι ελπίδα έχουν οι γονείς ή τα παιδιά μου;»
Πριν από μερικές εβδομάδες έγινε παγκοσμίως viral στο TikTok ένα σύντομο βίντεο, το οποίο απεικόνιζε μια ομάδα κουνελιών να χοροπηδά πάνω σε ένα τραμπολίνο. Χιλιάδες άνθρωποι ξεγελάστηκαν, πιστεύοντας ότι η σκηνή ήταν αληθινή. Βέβαια, η παιχνιδιάρικη δραστηριότητα των συμπαθών ζώων δεν ήταν υλικό από κάμερα ασφαλείας, όπως φαινόταν, αλλά το πρώτο ΑΙ βίντεο που έφτιαξε ένας 22χρονος, πειραματιζόμενος με το εργαλείο Veo 3 της Google. Κάπως έτσι έγινε σαφές ότι εφεξής η παρατηρητικότητα των χρηστών δεν θα είναι αρκετή. Θα χρειαστούν άλλοι τρόποι για να αντιμετωπιστεί το πρόβλημα. Εταιρείες και μεγαλύτεροι οργανισμοί με ικανό προϋπολογισμό μπορούν να προστατευτούν χρησιμοποιώντας λογισμικά ανίχνευσης deepfakes, όπως το FakeCatcher, το Sensity, το GetReal, το Attestiv. Αναπόφευκτα, επειδή ούτε αυτά θα επαρκούν, σύντομα θα τεθεί με μεγαλύτερη ένταση το ζήτημα της ύπαρξης κάποιου είδους ρύθμισης.
Έως τότε, οι μεμονωμένοι χρήστες, ως οι πλέον απροστάτευτοι, θα πρέπει να θεωρούν ότι, μέχρις αποδείξεως του εναντίου, κάθε βίντεο που τους προβληματίζει θα μπορούσε να είναι ψεύτικο. Εφόσον κανένα δεν υπόκειται σε κάποιον σοβαρό έλεγχο, δυνητικά όλα μπορούν να είναι deepfakes. Δυστυχώς, μέχρι να αναλάβουν οι πλατφόρμες την ευθύνη που τους αναλογεί, η μόνη πραγματική προστασία των χρηστών θα είναι η ριζική καχυποψία. Αν δεν κατοχυρωθεί η υποχρέωση μιας σήμανσης τύπου «ΑΙ παραγωγή», τα deepfakes θα κλονίσουν όποια ψήγματα εμπιστοσύνης έχουν απομείνει στα επισφαλή θεμέλια του ψηφιακού πολιτισμού μας, και η διάκριση μεταξύ ψευδούς και αληθούς θα είναι όλο και μεγαλύτερη πρόκληση. Τα ζητήματα που θα συζητάμε στο άμεσο μέλλον θα είναι πολύ σοβαρότερα από μερικά κουνελάκια πάνω σε ένα τραμπολίνο.

