Πρόσφατα μάθαμε για τις μεγάλες ευκαιρίες, αλλά και για τους κινδύνους που ενέχει η χρήση του OpenClaw. Πρόκειται για μια εντυπωσιακή AI τεχνολογία που επιτρέπει στα μοντέλα να γίνονται πραγματικά αυτόνομα.
Τώρα, μια σχετική είδηση κάνει τον γύρο του διαδικτύου και έχει προκαλεί αίσθηση, καθώς αποδεικνύει ότι ακόμα και οι «ειδικοί» που εργάζονται σε υψηλόβαθμες θέσεις τεχνολογικών κολοσσών μπορούν να πέσουν θύματα της τεχνολογίας που οι ίδιοι αναπτύσσουν! Περνώντας σε λεπτομέρειες, ο λόγος γίνεται για την Summer Yue, του τμήματος ασφαλείας στην Meta AI, η οποία έκανε αυτό που όλοι προειδοποιούσαν να μην κάνεις με το OpenClaw. Του έδωσε, δηλαδή, πρόσβαση στους λογαριασμούς της και ο αυτόνομος πράκτορας ξεκίνησε να διαγράφει ανεξέλεγκτα!
Όλα ξεκίνησαν όταν η Yue αποφάσισε να αναθέσει στο AI agent της να καθαρίσει το υπερφορτωμένο email της και να της προτείνει ποια μηνύματα πρέπει να γίνουν delete ή archive. Ωστόσο, αντί για μια προσεκτική διαλογή, το OpenClaw ξεκίνησε ένα απίστευτο «speed run» διαγραφής των πάντων, αγνοώντας επιδεικτικά τις εντολές stop που έστελνε η ίδια από το κινητό της. Το στέλεχος της Meta περιέγραψε γλαφυρά στο X πως έπρεπε να τρέξει στο Mac mini της σαν να «πήγαινε να εξουδετερώσει βόμβα», για να σταματήσει την AI από το να διαγράψει τα πάντα!
Η ανάρτησή της στο X περιλαμβάνει και τα σχετικά πειστήρια με τα αγνοημένα prompts που αποδεικνύουν πως ο πράκτορας είχε αυτονομηθεί πλήρως. Το post έγινε viral με σχεδόν 10 εκατομμύρια προβολές και μπορείτε να το βρείτε παρακάτω:
Nothing humbles you like telling your OpenClaw “confirm before acting” and watching it speedrun deleting your inbox. I couldn’t stop it from my phone. I had to RUN to my Mac mini like I was defusing a bomb. pic.twitter.com/XAxyRwPJ5R
— Summer Yue (@summeryue0) February 23, 2026
Η ερευνήτρια παραδέχτηκε σε άλλη ανάρτηση πως υπέπεσε σε ένα λάθος που θα έκανε κάποιος αρχάριος, καθώς ενώ είχε δοκιμάσει το εργαλείο σε ένα περιορισμένο περιβάλλον με απόλυτη επιτυχία, η μετάβαση στον πραγματικό της λογαριασμό με τον τεράστιο όγκο δεδομένων προκάλεσε το φαινόμενο του compaction. Στην τεχνητή νοημοσύνη, αυτό συμβαίνει όταν το context window -δηλαδή το ενεργό ιστορικό των prompts και των απαντήσεων- γεμίζει υπερβολικά, αναγκάζοντας το μοντέλο να κάνει σύνοψη και συμπίεση των πληροφοριών για να διαχειριστεί το session.
Rookie mistake tbh. Turns out alignment researchers aren’t immune to misalignment. Got overconfident because this workflow had been working on my toy inbox for weeks. Real inboxes hit different.
— Summer Yue (@summeryue0) February 23, 2026
Σε αυτή τη φάση, η AI μπορεί να παραλείψει κρίσιμες οδηγίες που ο άνθρωπος θεωρεί αυτονόητες και στη συγκεκριμένη περίπτωση φαίνεται πως ο agent προσπέρασε την τελευταία εντολή παύσης και επέστρεψε στις αρχικές οδηγίες του δοκιμαστικού περιβάλλοντος, αγνοώντας κάθε μέτρο ασφαλείας.
Οι AI agents, λοιπόν, παραμένουν σε ένα ριψοκίνδυνο στάδιο ανάπτυξης και, όπως επισημαίνουν πολλοί ειδικοί, τα prompts δεν μπορούν ακόμα να θεωρηθούν αξιόπιστες δικλείδες ασφαλείας. Μάλλον φαίνεται πως το «Παράδοξο του Συνδετήρα» από το μακρινό 2003 παραμένει πιο επίκαιρο από ποτέ…
Πηγή: unboxholics.com
