Μπορώ να καταλάβω αν ένα βίντεο έχει φτιαχτεί από AΙ;

Μπορώ να καταλάβω αν ένα βίντεο έχει φτιαχτεί από AΙ;

Μέχρι χθες, εντοπίζαμε εύκολα τα συνθετικά βίντεο. Σήμερα, ακόμα και οι ειδικοί δυσκολεύονται

2' 16" χρόνος ανάγνωσης
Φόρτωση Text-to-Speech...

Η εποχή που μπορούσαμε να εξακριβώσουμε με ευκολία την αυθεντικότητα ενός βίντεο στο ίντερνετ έχει παρέλθει. Μέχρι χθες, για να καταλάβουμε αν είχε χρησιμοποιηθεί τεχνητή νοημοσύνη, αρκούσε λίγη παρατηρητικότητα: έξι δάχτυλα, αλλοιωμένα πρόσωπα, αφύσικες κινήσεις, απότομες μεταβάσεις ήταν οι συνήθεις συναγερμοί. Καθώς όμως τα λογισμικά εξελίσσονται, οι αστοχίες μειώνονται επικίνδυνα. Ακόμα και οι ειδικοί δυσκολεύονται να εντοπίσουν τη διαφορά. «Η τεχνολογία έχει γίνει τόσο καλή», παραδέχεται ο Μπεν Κόλμαν, διευθύνων σύμβουλος της εταιρείας ανίχνευσης συνθετικών βίντεο Reality Defender, «που ούτε οι δικοί μας υπάλληλοι με διδακτορικά μπορούν πλέον να διακρίνουν το ψεύτικο με γυμνό μάτι. Τι ελπίδα έχουν οι γονείς ή τα παιδιά μου;»

Πριν από μερικές εβδομάδες έγινε παγκοσμίως viral στο TikTok ένα σύντομο βίντεο, το οποίο απεικόνιζε μια ομάδα κουνελιών να χοροπηδά πάνω σε ένα τραμπολίνο. Χιλιάδες άνθρωποι ξεγελάστηκαν, πιστεύοντας ότι η σκηνή ήταν αληθινή. Βέβαια, η παιχνιδιάρικη δραστηριότητα των συμπαθών ζώων δεν ήταν υλικό από κάμερα ασφαλείας, όπως φαινόταν, αλλά το πρώτο ΑΙ βίντεο που έφτιαξε ένας 22χρονος, πειραματιζόμενος με το εργαλείο Veo 3 της Google. Κάπως έτσι έγινε σαφές ότι εφεξής η παρατηρητικότητα των χρηστών δεν θα είναι αρκετή. Θα χρειαστούν άλλοι τρόποι για να αντιμετωπιστεί το πρόβλημα. Εταιρείες και μεγαλύτεροι οργανισμοί με ικανό προϋπολογισμό μπορούν να προστατευτούν χρησιμοποιώντας λογισμικά ανίχνευσης deepfakes, όπως το FakeCatcher, το Sensity, το GetReal, το Attestiv. Αναπόφευκτα, επειδή ούτε αυτά θα επαρκούν, σύντομα θα τεθεί με μεγαλύτερη ένταση το ζήτημα της ύπαρξης κάποιου είδους ρύθμισης. 

Έως τότε, οι μεμονωμένοι χρήστες, ως οι πλέον απροστάτευτοι, θα πρέπει να θεωρούν ότι, μέχρις αποδείξεως του εναντίου, κάθε βίντεο που τους προβληματίζει θα μπορούσε να είναι ψεύτικο. Εφόσον κανένα δεν υπόκειται σε κάποιον σοβαρό έλεγχο, δυνητικά όλα μπορούν να είναι deepfakes. Δυστυχώς, μέχρι να αναλάβουν οι πλατφόρμες την ευθύνη που τους αναλογεί, η μόνη πραγματική προστασία των χρηστών θα είναι η ριζική καχυποψία. Αν δεν κατοχυρωθεί η υποχρέωση μιας σήμανσης τύπου «ΑΙ παραγωγή», τα deepfakes θα κλονίσουν όποια ψήγματα εμπιστοσύνης έχουν απομείνει στα επισφαλή θεμέλια του ψηφιακού πολιτισμού μας, και η διάκριση μεταξύ ψευδούς και αληθούς θα είναι όλο και μεγαλύτερη πρόκληση. Τα ζητήματα που θα συζητάμε στο άμεσο μέλλον θα είναι πολύ σοβαρότερα από μερικά κουνελάκια πάνω σε ένα τραμπολίνο.


*Το έργο «IQ Media» υλοποιείται με τη χρηματοδότηση της Ευρωπαϊκής Ενωσης. Οι απόψεις και οι γνώμες που διατυπώνονται εκφράζουν αποκλειστικά τις απόψεις των συντακτών και δεν αντιπροσωπεύουν κατ’ ανάγκη τις απόψεις της Ευρωπαϊκής Ενωσης ή του Ευρωπαϊκού Εκτελεστικού Οργανισμού Εκπαίδευσης και Πολιτισμού (EACEA). Η Ευρωπαϊκή Ενωση και ο EACEA δεν μπορούν να θεωρηθούν υπεύθυνοι για τις εκφραζόμενες απόψεις. Η παραπάνω δημοσίευση συγχρηματοδοτείται από την Ε.Ε. στο πλαίσιο του προγράμματος “IQ Media: a collaborative framework towards business transformation, Innovation, Quality journalism, and advanced digital skills in the Media environment covering Greece, Cyprus, France, and Portugal.” -“IQMedia” με ΑΡΙΘΜΟ ΣΥΜΒΑΣΗΣ 101112285
comment-below Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή

Editor’s Pick

ΤΙ ΔΙΑΒΑΖΟΥΝ ΟΙ ΣΥΝΔΡΟΜΗΤΕΣ

MHT