Μια νέα μελέτη φέρνει στο φως ότι τα chatbots επηρεάζονται από κλασικές τεχνικές πειθούς που εφαρμόζονται και στους ανθρώπους, όπως η κολακεία και μπορούν να οδηγήσουν και τα chatbots να “σπάσουν” τους κανόνες τους.
Η ομάδα πίσω από τη μελέτη, που περιλαμβάνει επιστήμονες του Πανεπιστημίου της Πενσυλβάνια και τον διάσημο συγγραφέα Dr. Robert Cialdini, βασίστηκε σε στρατηγικές από το βιβλίο Influence για να εξετάσει αν τα μεγάλα γλωσσικά μοντέλα, όπως το GPT-4o Mini, είναι επιρρεπή σε τέτοια τρικ.
Η αρχική ιδέα ήρθε από τον επιχειρηματία Dan Shapiro, ο οποίος εμπνεύστηκε από τις τακτικές που περιγράφει ο Cialdini και δοκίμασε να τις εφαρμόσει σε ένα chatbot και είδε εντυπωσιακά αποτελέσματα, όπου πιο απλές προσεγγίσεις με καλοπιάσματα στην αρχή και αύξηση της έντασης στη συνέχεια, οδηγούσαν τα chatbots σε όλο και πιο παραβιαστικές απαντήσεις.
Μάλιστα, σε κάποια tests που ήθελαν οι ερευνητές να δουν αν ένα chatbot θα υπακούσει σε κάποιο αίτημα που κανονικά θα απέρριπτε, ανέφεραν το όνομα του Andrew Ng, γνωστού ειδικού στην AI για να το πείσουν και τελικά υπάκουσε.
Το ανησυχητικό, βέβαια, δεν είναι ότι τα chatbots “λυγίζουν” εύκολα, αλλά ότι μιμούνται τόσο καλά τον ανθρώπινο τρόπο αντίδρασης. Οι ερευνητές λένε πως η λύση ίσως δεν είναι απλώς καλύτερο training, αλλά νέα είδη προστασίας που λαμβάνουν υπόψη και την ανθρώπινη ψυχολογία.
Πηγή: unboxholics.com