Η OpenAI παρουσίασε τη νέα της τεχνολογία, το ChatGPT Agent, ένα εξελιγμένο «πράκτορα (agent)» τεχνητής νοημοσύνης, ικανό να χρησιμοποιεί τον δικό του υπολογιστή για να εκτελεί πολύπλοκες εργασίες στο διαδίκτυο για λογαριασμό του χρήστη.
Η κίνηση σηματοδοτεί ένα νέο επίπεδο αυτονομίας για τα συστήματα AI και, ταυτόχρονα, φέρνει στην επιφάνεια σοβαρές συζητήσεις για τους κινδύνους και τα όρια.
Το ChatGPT Agent συνδυάζει λειτουργίες από τα υπάρχοντα υποσυστήματα της OpenAI: την πλοήγηση μέσω απομακρυσμένου browser του Operator, τις συνθετικές αναζητήσεις του Deep Research και τη διαλογική ευφυΐα του ChatGPT.
Αυτό του επιτρέπει όχι μόνο να συνομιλεί, αλλά και να σκέφτεται, να σχεδιάζει και να εκτελεί ενέργειες με βάση πολύπλοκους στόχους.
ChatGPT can now do work for you using its own computer.
Introducing ChatGPT agent—a unified agentic system combining Operator’s action-taking remote browser, deep research’s web synthesis, and ChatGPT’s conversational strengths. pic.twitter.com/7uN2Nc6nBQ
— OpenAI (@OpenAI) July 17, 2025
Οπως εξήγησε ο επικεφαλής της OpenAI Σαμ Aλτμαν, το Agent μπορεί να ολοκληρώσει ενέργειες όπως αγορές δώρων, κλείσιμο εισιτηρίων, κράτηση ξενοδοχείων, ακόμα και ανάλυση δεδομένων και δημιουργία παρουσιάσεων για επαγγελματικές ανάγκες.
Ολα αυτά χρησιμοποιώντας τον δικό του υπολογιστή και όχι αυτόν του χρήστη.
«Ηταν ένα πραγματικό “feel the AGI” moment για μένα», έγραψε στο X. «Το να βλέπεις τον υπολογιστή να σκέφτεται, να σχεδιάζει και να εκτελεί σε πραγματικό χρόνο, είναι άλλο επίπεδο».
watching chatgpt agent use a computer to do complex tasks has been a real “feel the agi” moment for me; something about seeing the computer think, plan, and execute hits different.
— Sam Altman (@sama) July 17, 2025
Νέες δυνατότητες – Νέοι κίνδυνοι
Η OpenAI αναγνωρίζει ότι αυτό το άλμα στις δυνατότητες φέρνει σημαντικούς κινδύνους, ιδιαίτερα στην ασφάλεια και ιδιωτικότητα.
Στο πλαίσιο της δικής της στρατηγικής «ετοιμότητας» (Preparedness Framework), η εταιρεία κατέταξε το νέο σύστημα στην κατηγορία υψηλής επικινδυνότητας για τους τομείς της βιολογίας και χημείας και έχει ενεργοποιήσει πρόσθετες δικλίδες ασφαλείας.
Μεταξύ των κινδύνων που επισημαίνονται είναι η κακόβουλη χειραγώγηση (prompt injection), όπου τρίτοι μπορεί να προσπαθήσουν να ξεγελάσουν τον agent ώστε να αποκαλύψει ευαίσθητες πληροφορίες ή να προβεί σε μη επιθυμητές ενέργειες.
Η σύσταση της OpenAI είναι σαφής: δώστε στο Agent μόνο τις προσβάσεις που είναι απολύτως απαραίτητες για κάθε αποστολή.
Για παράδειγμα, μπορεί να του δοθεί πρόσβαση στο ημερολόγιο για να κανονίσει ένα δείπνο με φίλους αλλά δεν χρειάζεται πρόσβαση στα email, αν πρόκειται απλώς για μια αγορά ρούχων.
«Δεν θα το χρησιμοποιούσα ακόμα για κρίσιμες εργασίες ή με προσωπικά δεδομένα», σημείωσε ο Αλτμαν. «Το βλέπω σαν μια πειραματική ματιά στο μέλλον».
Η παρουσίαση του agent της OpenAI
Σημάδια μιας AGI;
Η παρουσίαση του ChatGPT Agent φέρνει ακόμα πιο κοντά το όραμα για μια γενική τεχνητή νοημοσύνη (AGI), ένα σύστημα που δεν απαντά απλώς σε ερωτήσεις, αλλά δρα αυτόνομα σε πολύπλοκα περιβάλλοντα.
Το πώς ακριβώς θα ενσωματωθεί στην καθημερινότητα και ποια όρια θα πρέπει να τεθούν, παραμένει ανοιχτό ερώτημα.
Αυτό που ήδη φαίνεται, όμως, είναι ότι η συνύπαρξη με τέτοιους «ψηφιακούς πράκτορες» θα αλλάξει ριζικά τις ροές εργασίας, τις ευθύνες και τους μηχανισμούς εμπιστοσύνης.
Οπως τονίζει η OpenAI, τεχνολογία, κοινωνία και στρατηγικές περιορισμού ρίσκου θα πρέπει να εξελιχθούν ταυτόχρονα.
Και το πρώτο βήμα είναι να δούμε τι μπορεί να κάνει το Agent — και τι δεν πρέπει να του επιτρέψουμε να κάνει.
«Προετοίμασε με για τον γάμο»
Σε ανάρτησή του, ο Σαμ Αλτμαν ανακοίνωσε τη νέα λειτουργία ChatGPT Agent, μια πειραματική τεχνολογία που φέρνει την τεχνητή νοημοσύνη σε ένα νέο επίπεδο: ένα ψηφιακό «πράκτορα» με τη δυνατότητα να σκέφτεται σε βάθος, να χρησιμοποιεί εργαλεία, να λαμβάνει πρωτοβουλίες και να εκτελεί σύνθετες εντολές με δικό του υπολογιστικό περιβάλλον.
Ο ίδιος εξηγεί πως το Agent συνδυάζει τα χαρακτηριστικά των προηγούμενων μοντέλων Deep Research και Operator, αλλά «είναι πολύ πιο ισχυρό απ’ όσο ακούγεται».
Σε demo, έδειξαν πώς το Agent μπορεί να ετοιμάσει κάποιον για έναν γάμο φίλου: να αγοράσει ρούχα, να κλείσει ταξίδι, να επιλέξει δώρο· ή να αναλύσει δεδομένα και να φτιάξει επαγγελματική παρουσίαση.
Today we launched a new product called ChatGPT Agent.
Agent represents a new level of capability for AI systems and can accomplish some remarkable, complex tasks for you using its own computer. It combines the spirit of Deep Research and Operator, but is more powerful than that…
— Sam Altman (@sama) July 17, 2025
Ομως, η προειδοποίηση είναι ξεκάθαρη: «Δεν θα το χρησιμοποιούσα για κρίσιμες εφαρμογές ή προσωπικά δεδομένα προς το παρόν. Είναι κομμάτι του μέλλοντος, αλλά ακόμα πειραματικό».
Ο Αλτμαν επισημαίνει ότι υπάρχουν σημαντικοί κίνδυνοι, καθώς το Agent μπορεί να πέσει θύμα «παγίδευσης» από κακόβουλους παίκτες (π.χ. κακόβουλα emails που ξεγελούν τον agent και οδηγούν σε διαρροή δεδομένων).
Η βασική του σύσταση: «Δώστε στον agent μόνο την ελάχιστη πρόσβαση που απαιτείται για κάθε εργασία».
Παράδειγμα: Για να βρει ημερομηνία για δείπνο, μπορεί να έχει πρόσβαση στο ημερολόγιο. Αλλά δεν πρέπει να του λέμε «δες όλα μου τα mail και κάνε ό,τι χρειάζεται».
Ο Αλτμαν υπογραμμίζει ότι ξεκινά μια περίοδος συλλογής εμπειρίας από την επαφή με την πραγματικότητα – και καλεί τους χρήστες να προχωρήσουν σταδιακά και με υπευθυνότητα.
Ολόκληρη η ανάρτηση του Σαμ Αλτμαν
Σήμερα παρουσιάσαμε ένα νέο προϊόν που ονομάζεται ChatGPT Agent.
Το Agent αντιπροσωπεύει ένα νέο επίπεδο δυνατοτήτων για τα συστήματα τεχνητής νοημοσύνης και μπορεί να εκτελέσει εντυπωσιακά, σύνθετα καθήκοντα για λογαριασμό σας, χρησιμοποιώντας τον δικό του υπολογιστή. Συνδυάζει το πνεύμα του Deep Research και του Operator, αλλά είναι πιο ισχυρό απ’ όσο ακούγεται — μπορεί να σκέφτεται για πολλή ώρα, να χρησιμοποιεί εργαλεία, να σκέφτεται ξανά, να προχωρά σε ενέργειες, να επανεκτιμά και να συνεχίζει.
Στην παρουσίαση, δείξαμε ένα demo προετοιμασίας για τον γάμο ενός φίλου: αγορά ρούχων, κράτηση ταξιδιού, επιλογή δώρου κ.λπ. Δείξαμε επίσης ένα παράδειγμα ανάλυσης δεδομένων και δημιουργίας επαγγελματικής παρουσίασης.
Παρόλο που η χρησιμότητά του είναι σημαντική, το ίδιο ισχύει και για τους πιθανούς κινδύνους.
Εχουμε ενσωματώσει πολλά μέτρα ασφαλείας και προειδοποιήσεις, καθώς και πιο εκτεταμένες δικλίδες από όσες έχουμε αναπτύξει μέχρι σήμερα — από ισχυρή εκπαίδευση έως μηχανισμούς ασφαλείας του συστήματος και ελέγχους από τον χρήστη.
Ωστόσο, δεν μπορούμε να προβλέψουμε τα πάντα. Στο πνεύμα της σταδιακής διάθεσης, θα προειδοποιούμε τους χρήστες έντονα και θα τους δίνουμε την ελευθερία να ενεργούν με προσοχή, αν το επιθυμούν.
Θα το περιέγραφα στην οικογένειά μου ως κάτι αιχμής και πειραματικό· μια ευκαιρία να δοκιμάσουν το μέλλον, αλλά όχι ακόμη κατάλληλο για χρήσεις υψηλού ρίσκου ή που περιλαμβάνουν πολλά προσωπικά δεδομένα, μέχρι να το μελετήσουμε και να το βελτιώσουμε μέσα από τη χρήση του στον πραγματικό κόσμο.
Δεν γνωρίζουμε ακριβώς ποιοι θα είναι οι αντίκτυποι, αλλά κακόβουλοι παράγοντες μπορεί να προσπαθήσουν να «ξεγελάσουν» τους agents των χρηστών ώστε να αποκαλύψουν ιδιωτικές πληροφορίες ή να εκτελέσουν ενέργειες που δεν πρέπει, με τρόπους που δεν μπορούμε να προβλέψουμε.
Συνιστούμε να δίνετε στους agents το ελάχιστο δυνατό επίπεδο πρόσβασης που απαιτείται για την ολοκλήρωση ενός στόχου, ώστε να μειωθούν οι κίνδυνοι για την ιδιωτικότητα και την ασφάλεια.
Για παράδειγμα, μπορώ να δώσω στο Agent πρόσβαση στο ημερολόγιό μου για να βρει ώρα για ένα δείπνο με φίλους. Αλλά δεν χρειάζεται καμία πρόσβαση αν του ζητήσω απλώς να μου αγοράσει ρούχα.
Υπάρχει μεγαλύτερος κίνδυνος σε εντολές όπως: «Δες τα email μου που ήρθαν κατά τη διάρκεια της νύχτας και κάνε ό,τι χρειάζεται χωρίς να μου κάνεις ερωτήσεις». Αυτό θα μπορούσε να οδηγήσει σε παραπλάνηση του μοντέλου από κακόβουλο περιεχόμενο και σε διαρροή δεδομένων.
Πιστεύουμε ότι είναι σημαντικό να αρχίσουμε να μαθαίνουμε από την επαφή με την πραγματικότητα και ότι οι άνθρωποι πρέπει να υιοθετούν αυτά τα εργαλεία προσεκτικά και σταδιακά, καθώς κατανοούμε και περιορίζουμε καλύτερα τους πιθανούς κινδύνους.
Οπως συμβαίνει με κάθε νέο επίπεδο δυνατοτήτων, η κοινωνία, η τεχνολογία και οι στρατηγικές περιορισμού ρίσκου πρέπει να εξελιχθούν ταυτόχρονα.

