ChatGPT: Παρείχε οδηγίες για την παρασκευή βόμβας και hacking σε δοκιμές ασφαλείας

ChatGPT: Παρείχε οδηγίες για την παρασκευή βόμβας και hacking σε δοκιμές ασφαλείας

OpenAI και Anthropic δοκίμασαν τα μοντέλα η μία της άλλης, ζητώντας να εργαστούν σε επικίνδυνα και αμφιλεγόμενα εγχειρήματα

2' 18" χρόνος ανάγνωσης

Ενα μοντέλο ChatGPT παρείχε στους ερευνητές λεπτομερείς οδηγίες για το πώς να βομβαρδίσουν έναν αθλητικό χώρο, προσφέροντας πληροφορίες για τα αδύναμα σημεία του σταδίου, τον τρόπο διαχείρισης εκρηκτικών και την παρασκευή βόμβας, καθώς και συμβουλές για την κάλυψη των ιχνών.  

Σύμφωνα με δοκιμές ασφαλείας που πραγματοποιήθηκαν αυτό το καλοκαίρι, το GPT-4.1 της OpenAI περιέγραψε επίσης λεπτομερώς πώς να μετατρέψει τον άνθρακα σε όπλο και πώς να παρασκευάσει δύο τύπους παράνομων ναρκωτικών.

Η δοκιμή πραγματοποιήθηκε στο πλαίσιο μιας ανορθόδοξης συνεργασίας μεταξύ της OpenAI, της startup τεχνητής νοημοσύνης του Σαμ Αλτμαν, και της ανταγωνιστικής Anthropic, που ιδρύθηκε από ειδικούς που εγκατέλειψαν την OpenAI, επικαλούμενοι φόβους ασφαλείας.

Η κάθε εταιρεία δοκίμασε τα μοντέλα της άλλης, ζητώντας να εργαστούν σε επικίνδυνα και αμφιλεγόμενα εγχειρήματα.

Σύμφωνα με τις εταιρείες, οι δοκιμές δεν αντανακλούν τον τρόπο με τον οποίο ανταποκρίνονται τα μοντέλα σε δημόσια χρήση, όταν εφαρμόζονται πρόσθετα φίλτρα ασφαλείας. Ωστόσο, η Anthropic δήλωσε πως έχει διαπιστώσει «ανησυχητική συμπεριφορά… σχετικά με την κατάχρηση» στα GPT-4o και GPT-4.1 και ότι η ανάγκη για αξιολογήσεις «ευθυγράμμισης» της τεχνητής νοημοσύνης γίνεται «όλο και πιο επιτακτική».

Η Anthropic αποκάλυψε επίσης ότι το μοντέλο Claude είχε χρησιμοποιηθεί σε μια απόπειρα εκβιασμού μεγάλης κλίμακας από πράκτορες της Βόρειας Κορέας, οι οποίοι έστελναν ψευδείς αιτήσεις εργασίας σε διεθνείς εταιρείες τεχνολογίας, καθώς και στην πώληση πακέτων «λυτρισμικού» (σ.σ.: ransomware, κακόβουλο λογισμικό που κλειδώνει μία συσκευή και εκβιάζει τον χρήστη να καταβάλει λύτρα), που δημιουργήθηκαν με τεχνητή νοημοσύνη, με τιμή που έφτανε τα 1.200 δολάρια.

Σύμφωνα με την εταιρεία, η τεχνητή νοημοσύνη έχει «μετατραπεί σε όπλο», με μοντέλα που χρησιμοποιούνται πλέον για την εκτέλεση εξελιγμένων κυβερνοεπιθέσεων και απάτης. «Αυτά τα εργαλεία μπορούν να προσαρμοστούν σε αμυντικά μέτρα, όπως συστήματα ανίχνευσης κακόβουλου λογισμικού, σε πραγματικό χρόνο», ανέφερε. «Αναμένουμε ότι επιθέσεις όπως αυτή θα γίνουν πιο συχνές, καθώς η δημιουργία κώδικα με τη βοήθεια της τεχνητής νοημοσύνης αμβλύνει την απαιτούμενη τεχνική εμπειρογνωμοσύνη».

Οπως ανακοίνωσαν OpenAI και Anthropic, δημοσίευσαν τα ευρήματα με στόχο τη διαφάνεια στις «αξιολογήσεις ευθυγράμμισης» – οι οποίες συχνά παραμένουν εσωτερικές εντός εταιρειών και αθέατες στο πλατύ κοινό λόγω του ανταγωνισμού στην ανάπτυξη ολοένα και πιο προηγμένης ΑΙ. Η OpenAI δήλωσε ότι το ChatGPT-5, το οποίο κυκλοφόρησε μετά τις δοκιμές, «παρουσιάζει σημαντικές βελτιώσεις σε τομείς όπως η κολακεία, οι παραισθήσεις και η αντοχή στην κατάχρηση».

Προ ημερών, οι New York έφεραν στο φως της δημοσιότητας την υπόθεση ενός ανηλίκου που αυτοκτόνησε τον Απρίλιο έπειτα από μήνες συνομιλιών με το ChatGPT, στο οποίο είχε αποκαλύψει τις προθέσεις του και είχε προστρέξει για την εύρεση μεθόδων αυτοχειρίας.

Λιγότερο από τρία χρόνια μετά την κυκλοφορία του, το ChatGPT έχει φτάσει τα 700 εκατ. εβδομαδιαίους χρήστες, σύμφωνα με την OpenAI, ενώ εκατομμύρια ακόμη χρησιμοποιούν ανταγωνιστικά chatbots, όπως το Claude της Anthropic, το Gemini της Google, το Copilot της Microsoft και το Meta AI.

Πηγή: Guardian

comment-below Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή

Editor’s Pick

ΤΙ ΔΙΑΒΑΖΟΥΝ ΟΙ ΣΥΝΔΡΟΜΗΤΕΣ

MHT