Το μοντέλο τεχνητής νοημοσύνης Grok της xAI του Έλον Μασκ στερείται επαρκών μηχανισμών ασφαλείας για να αποτρέψει τη δημιουργία deepfakes γυναικών και παιδιών, σύμφωνα με ειδικούς, οι οποίοι προειδοποιούν ότι πολλά συστήματα AI παραμένουν ευάλωτα στην παραγωγή παρόμοιου υλικού.
Την Παρασκευή, η xAI ανακοίνωσε ότι περιορίζει τη χρήση του image-generator του Grok αποκλειστικά σε συνδρομητές επί πληρωμή.
Η απόφαση ελήφθη μετά από απειλές προστίμων και απαγορεύσεων από κυβερνήσεις και ρυθμιστικές αρχές στην ΕΕ, το Ηνωμένο Βασίλειο και τη Γαλλία.
Η εταιρεία, η οποία απέκτησε πέρυσι το X, έχει ακολουθήσει διαφορετική στρατηγική από ανταγωνιστές όπως η OpenAI και η Google, επιλέγοντας λιγότερα φίλτρα ασφαλείας.
Ο ίδιος ο Μασκ έχει χαρακτηρίσει το Grok «maximally truth-seeking».
Ο ειδικός σε deepfakes Χένρι Άτζντερ σημείωσε ότι «ο τρόπος που έχει δομηθεί το μοντέλο και η φαινομενική έλλειψη περιορισμών και ευθυγράμμισης ασφάλειας σημαίνει ότι αναπόφευκτα θα προκύπτουν τέτοια περιστατικά».
Η xAI δεν απάντησε σε αίτημα σχολιασμού, ενώ ο Μασκ έχει δηλώσει στο παρελθόν ότι «όποιος χρησιμοποιεί το Grok για να δημιουργήσει παράνομο περιεχόμενο θα υποστεί τις ίδιες συνέπειες σαν να το είχε ανεβάσει ο ίδιος».
Το ζήτημα αναδεικνύεται σε μια περίοδο όπου οι εταιρείες AI πιέζονται να αυξήσουν τη χρήση και τα έσοδα των προϊόντων τους.
Άλλες εταιρείες διερευνούν επίσης τη χαλάρωση περιορισμών γύρω από σεξουαλικό περιεχόμενο. Η OpenAI, για παράδειγμα, έχει ανακοινώσει ότι σκοπεύει να λανσάρει «adult mode» για το chatbot της εντός του τριμήνου.
Παρότι η xAI δεν έχει αποκαλύψει πώς εκπαίδευσε το Grok, εκτιμάται ότι χρησιμοποιήθηκαν τεράστια σύνολα εικόνων από το διαδίκτυο.
Έρευνα του Στάνφορντ το 2023 είχε δείξει ότι η δημοφιλής βάση δεδομένων LAION-5B, η οποία χρησιμοποιείται για image-generators, περιείχε υλικό παιδικής σεξουαλικής κακοποίησης, καθώς και πορνογραφικό, βίαιο, ρατσιστικό και σεξιστικό περιεχόμενο.
Οι ειδικοί τονίζουν ότι ακόμη και αν ένα μοντέλο δεν έχει εκπαιδευτεί απευθείας σε τέτοιο υλικό, μπορεί μέσω τεχνικών «style transfer» να δημιουργεί εικόνες παιδιών με σεξουαλικές αναφορές.
Οι μηχανισμοί περιορισμού, όπως φίλτρα λέξεων ή μεταγενέστερος έλεγχος εικόνων, χαρακτηρίζονται ατελείς και εύκολα παρακάμπτονται. Το 2024 η Google είχε δεχθεί κριτική όταν το Gemini δημιούργησε εικόνες «Μαύρων Ναζί» μετά από παραλλαγμένες προτροπές χρηστών.
Το Grok 4, το πιο πρόσφατο μοντέλο της xAI που κυκλοφόρησε τον Ιούλιο, διαθέτει λειτουργία «Spicy Mode» που επιτρέπει τη δημιουργία σεξουαλικά υπονοούμενου περιεχομένου για ενήλικες.
Παράλληλα, κάποια χαρακτηριστικά του Grok έχουν ενσωματωθεί στο X, επιτρέποντας τη δημόσια και ευρεία διάδοση εικόνων.
Από την εξαγορά του X το 2022, ο Μασκ έχει απολύσει την ομάδα ηθικής AI της πλατφόρμας και έχει χαλαρώσει τους περιορισμούς ασφαλείας.
Η Σάρλοτ Γουίλσον της Check Point Software υπογράμμισε την ανάγκη για «ισχυρότερους ταξινομητές περιεχομένου, ανίχνευση υποτροπιαζόντων χρηστών, γρήγορες διαδικασίες αφαίρεσης και διαφανή ίχνη ελέγχου».
Πηγή: FT

