Τεχνολογία

Η υπεύθυνη ασφάλειας AI της Meta έβαλε «ανεξέλεγκτη» AI στο PC της και της διέγραψε αρχεία

Πρόσφατα μάθαμε για τις μεγάλες ευκαιρίες, αλλά και για τους κινδύνους που ενέχει η χρήση του OpenClaw. Πρόκειται για μια εντυπωσιακή AI τεχνολογία που επιτρέπει στα μοντέλα να γίνονται πραγματικά αυτόνομα.

Τώρα, μια σχετική είδηση κάνει τον γύρο του διαδικτύου και έχει προκαλεί αίσθηση, καθώς αποδεικνύει ότι ακόμα και οι «ειδικοί» που εργάζονται σε υψηλόβαθμες θέσεις τεχνολογικών κολοσσών μπορούν να πέσουν θύματα της τεχνολογίας που οι ίδιοι αναπτύσσουν! Περνώντας σε λεπτομέρειες, ο λόγος γίνεται για την Summer Yue, του τμήματος ασφαλείας στην Meta AI, η οποία έκανε αυτό που όλοι προειδοποιούσαν να μην κάνεις με το OpenClaw. Του έδωσε, δηλαδή, πρόσβαση στους λογαριασμούς της και ο αυτόνομος πράκτορας ξεκίνησε να διαγράφει ανεξέλεγκτα!

Όλα ξεκίνησαν όταν η Yue αποφάσισε να αναθέσει στο AI agent της να καθαρίσει το υπερφορτωμένο email της και να της προτείνει ποια μηνύματα πρέπει να γίνουν delete ή archive. Ωστόσο, αντί για μια προσεκτική διαλογή, το OpenClaw ξεκίνησε ένα απίστευτο «speed run» διαγραφής των πάντων, αγνοώντας επιδεικτικά τις εντολές stop που έστελνε η ίδια από το κινητό της. Το στέλεχος της Meta περιέγραψε γλαφυρά στο X πως έπρεπε να τρέξει στο Mac mini της σαν να «πήγαινε να εξουδετερώσει βόμβα», για να σταματήσει την AI από το να διαγράψει τα πάντα!

Η ανάρτησή της στο X περιλαμβάνει και τα σχετικά πειστήρια με τα αγνοημένα prompts που αποδεικνύουν πως ο πράκτορας είχε αυτονομηθεί πλήρως. Το post έγινε viral με σχεδόν 10 εκατομμύρια προβολές και μπορείτε να το βρείτε παρακάτω:

Η ερευνήτρια παραδέχτηκε σε άλλη ανάρτηση πως υπέπεσε σε ένα λάθος που θα έκανε κάποιος αρχάριος, καθώς ενώ είχε δοκιμάσει το εργαλείο σε ένα περιορισμένο περιβάλλον με απόλυτη επιτυχία, η μετάβαση στον πραγματικό της λογαριασμό με τον τεράστιο όγκο δεδομένων προκάλεσε το φαινόμενο του compaction. Στην τεχνητή νοημοσύνη, αυτό συμβαίνει όταν το context window -δηλαδή το ενεργό ιστορικό των prompts και των απαντήσεων- γεμίζει υπερβολικά, αναγκάζοντας το μοντέλο να κάνει σύνοψη και συμπίεση των πληροφοριών για να διαχειριστεί το session.

Σε αυτή τη φάση, η AI μπορεί να παραλείψει κρίσιμες οδηγίες που ο άνθρωπος θεωρεί αυτονόητες και στη συγκεκριμένη περίπτωση φαίνεται πως ο agent προσπέρασε την τελευταία εντολή παύσης και επέστρεψε στις αρχικές οδηγίες του δοκιμαστικού περιβάλλοντος, αγνοώντας κάθε μέτρο ασφαλείας.

Οι AI agents, λοιπόν, παραμένουν σε ένα ριψοκίνδυνο στάδιο ανάπτυξης και, όπως επισημαίνουν πολλοί ειδικοί, τα prompts δεν μπορούν ακόμα να θεωρηθούν αξιόπιστες δικλείδες ασφαλείας. Μάλλον φαίνεται πως το «Παράδοξο του Συνδετήρα» από το μακρινό 2003 παραμένει πιο επίκαιρο από ποτέ…

Πηγή: unboxholics.com

Related posts

Το Instagram πειραματίζεται με ένα χαρακτηριστικό αλά Discord

TEO

Αυτή είναι η κωδική ονομασία του Android 17

TEO

Και η Microsoft θύμα μεγάλης κυβερνοεπίθεσης από το Lapsus$ hacking group

TEO

Αυτός ο ιστότοπος χρησιμοποιεί cookies για να βελτιώσει την εμπειρία σας. Θα υποθέσουμε ότι είστε εντάξει με αυτό, αλλά μπορείτε να εξαιρεθείτε εάν το επιθυμείτε. Αποδέχομαι Διαβάστε περισσότερα

Πολιτική Απορρήτου & Cookies