Αναπτύσσουν την τεχνητή νοημοσύνη, αλλά τη φοβούνται

Αναπτύσσουν την τεχνητή νοημοσύνη, αλλά τη φοβούνται

Προληπτικά μέτρα λαμβάνουν εταιρείες ΑΙ, προσλαμβάνοντας ειδικούς σε όπλα

2' 44" χρόνος ανάγνωσης

Η ραγδαία εξέλιξη της τεχνητής νοημοσύνης (AI) φέρνει τις εταιρείες τεχνολογίας αντιμέτωπες με ηθικά διλήμματα και προκλήσεις, που παραπέμπουν σε σενάρια επιστημονικής φαντασίας. Μετά την πολυσυζητημένη διαμάχη της με το Πεντάγωνο για το μέλλον του πολέμου και τη χρήση των μοντέλων της σε αυτόνομα όπλα, η Anthropic προχωράει σε μια κίνηση που προκαλεί αίσθηση στην παγκόσμια κοινή γνώμη: αναζητεί εξειδικευμένο προσωπικό με εμπειρία στα χημικά όπλα και τα εκρηκτικά υψηλής απόδοσης.

Η απόφαση αυτή δεν αποτελεί μέρος κάποιου αμυντικού προγράμματος, αλλά μια προσπάθεια της εταιρείας να θέσει «ψηφιακά αναχώματα» στην ίδια της την τεχνολογία, φοβούμενη ότι το λογισμικό της θα μπορούσε να χρησιμοποιηθεί για την κατασκευή όπλων μαζικής καταστροφής.

Σύμφωνα με την αγγελία που δημοσίευσε στο LinkedIn, η Anthropic αναζητεί «διευθυντή πολιτικής για χημικά όπλα και εκρηκτικά» με έδρα τη Νέα Υόρκη. Ο ιδανικός υποψήφιος πρέπει να διαθέτει τουλάχιστον πενταετή προϋπηρεσία στην άμυνα κατά χημικών απειλών και βαθιά γνώση των συσκευών διασποράς ραδιενεργών υλικών, που είναι γνωστές ως «βρώμικες βόμβες».

Τεχνολογικοί κολοσσοί έρχονται αντιμέτωποι με ηθικά διλήμματα και προκλήσεις, που παραπέμπουν σε σενάρια επιστημονικής φαντασίας.

Στόχος της εταιρείας είναι να διασφαλίσει ότι ο ψηφιακός της βοηθός, Claude, δεν θα δώσει ποτέ πληροφορίες που θα διευκόλυναν μια καταστροφική για την ανθρωπότητα χρήση. Η κίνηση αυτή αναδεικνύει το παράδοξο της σύγχρονης βιομηχανίας AI, όπου οι ίδιοι οι κατασκευαστές προειδοποιούν για υπαρξιακές απειλές, χωρίς όμως να επιβραδύνουν τον ρυθμό ανάπτυξης των μοντέλων τους.

Η Anthropic δεν είναι η μόνη που βαδίζει σ’ αυτό το τεντωμένο σκοινί. Η OpenAI, δημιουργός του ChatGPT, έχει επίσης ανοίξει θέσεις για ερευνητές βιολογικών και χημικών κινδύνων, προσφέροντας μισθούς που αγγίζουν τα 455.000 δολάρια. Η στρατηγική αυτή, ωστόσο, εγείρει σοβαρά ερωτήματα μεταξύ των ειδικών. Η δρ Στέφανι Χέαρ, ερευνήτρια τεχνολογίας, προειδοποιεί ότι η εκπαίδευση των συστημάτων AI πάνω σε τόσο ευαίσθητα δεδομένα –έστω και για λόγους ασφαλείας– μπορεί να αποδειχθεί δίκοπο μαχαίρι.

Η απουσία διεθνών συνθηκών ή ρυθμιστικών πλαισίων για τον χειρισμό τέτοιων πληροφοριών από την τεχνητή νοημοσύνη δημιουργεί ένα κενό ασφαλείας που καλύπτεται αυτή τη στιγμή «απαρατήρητα» από τον ιδιωτικό τομέα. Η κατάσταση περιπλέκεται περαιτέρω από το τεταμένο γεωπολιτικό σκηνικό και τις συρράξεις στις οποίες εμπλέκονται οι ΗΠΑ, υπό την ηγεσία του Ντόναλντ Τραμπ. Παρά τις προσπάθειες της Anthropic να κρατήσει αποστάσεις από τη στρατιωτική χρήση της τεχνολογίας της, η εταιρεία βρέθηκε πρόσφατα σε δικαστική διαμάχη με το υπουργείο Αμυνας των ΗΠΑ, το οποίο τη χαρακτήρισε επικίνδυνη για την αλυσίδα εφοδιασμού, μετά την άρνησή της να επιτρέψει τη χρήση των συστημάτων της σε πλήρως αυτόνομα όπλα ή στη μαζική παρακολούθηση πολιτών. Παρά τις δηλώσεις του συνιδρυτή της Anthropic, Ντάριο Αμοντέι, ότι η τεχνολογία δεν είναι ακόμη έτοιμη για τέτοιες εφαρμογές, ο βοηθός ΑΙ της, που ονομάζεται Claude, δεν έχει ακόμη καταργηθεί σταδιακά και παραμένει ενσωματωμένος σε συστήματα που παρέχονται από την Palantir και αναπτύσσονται από τις ΗΠΑ στον πόλεμο εναντίον του Ιράν.

Η βιομηχανία της τεχνητής νοημοσύνης φαίνεται ότι μπαίνει πλέον σε μια ιδιότυπη «μαύρη λίστα», αντίστοιχη με εκείνη της κινεζικής Huawei, καθώς η εθνική ασφάλεια συγκρούεται με την ηθική αυτονομία των τεχνολογικών κολοσσών.

Ο Λευκός Οίκος έχει ξεκαθαρίσει ότι ο αμερικανικός στρατός δεν θα διοικείται από ιδιωτικές εταιρείες, το μεγάλο ερώτημα που τίθεται, όμως, είναι αν τα «ψηφιακά κιγκλιδώματα» θα αποδειχθούν αρκετά ισχυρά για να συγκρατήσουν μια δύναμη που δυσκολεύονται πλέον να τιθασεύσουν ακόμη και οι ίδιοι οι δημιουργοί της.

comment-below Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή

Editor’s Pick

ΤΙ ΔΙΑΒΑΖΟΥΝ ΟΙ ΣΥΝΔΡΟΜΗΤΕΣ

MHT