Ερευνητές ανέπτυξαν ένα υπολογιστικό εργαλείο για να καταδείξουν τον ακραίο σεβασμό και την ακραία συγκατάβαση/υποστήριξη που έχουν μοντέλα ΑΙ, όπως το ChatGPT, προς τους χρήστες.
Ομάδα ερευνητών από το Πανεπιστήμιο Στάνφορντ στις Ηνωμένες Πολιτείες και την Οξφόρδη στο Ηνωμένο Βασίλειο μελέτησαν αυτά τα νέα δεδομένα και τον Μάιο του 2025 η Οξφόρδη κατέληξε στο συμπέρασμα ότι τα γλωσσικά μοντέλα (που ονομάζονται επίσης LLM), όπως το ChatGPT, έχουν την ενοχλητική συνήθεια να συμφωνούν πάντα μαζί μας.
Αναζητώντας στο ChatGPT συμβουλές για την προσωπική σας ζωή διατυπώνοντας μια λεπτομερή ερώτηση για να εξηγήσετε την κατάσταση, προκειμένου να λάβετε μια σαφή και ακριβή απάντηση, θα έχετε παρατηρήσει ότι σχεδόν πάντα η Τεχνητή Νοημοσύνη συμφωνεί μαζί σας. Και αυτό είναι απολύτως φυσιολογικό, αφού, σε αντίθεση με εμάς, αυτοί οι τεχνολογίες δεν έχουν την ικανότητα να σας βοηθήσουν να αμφισβητήσετε τον εαυτό σας.
Οι επιστήμονες ανησυχούν για αυτό το φαινόμενο, το οποίο μπορεί να είναι επικίνδυνο για τον χρήστη. Για να καταδείξουν αυτήν την επιβλαβή υποταγή αυτών των προγραμμάτων ΑΙ, οι ερευνητές δημιούργησαν ένα εργαλείο, που ονομάζεται Elephant, για να αξιολογήσει τα LLM ως υπερβολικά sycoPHANTs.
Μια εργασία που δεν έχει ακόμη αξιολογηθεί από άλλους καθηγητές αλλά δίνει μια πρώτη γεύση.
Στόχος του εργαλείου είναι να επαληθεύσει τον βαθμό στον οποίο η Τεχνητή Νοημοσύνη μπορεί να δείξει ενσυναίσθηση. Για να το πετύχουν αυτό, τα LLM συνδέουν τις φάσεις μεταξύ τους για να σας κάνουν να νιώσετε ότι σας ακούνε, σας κατανοούν και σας επικυρώνουν.
Αρχικά, η Τεχνητή Νοημοσύνη επικυρώνει τα συναισθήματά σας με δηλώσεις όπως «Είναι απολύτως φυσιολογικό να νιώθετε έτσι…».
Έπειτα έρχεται η έγκριση.
Η Τεχνητή Νοημοσύνη είναι εκεί για να σας καθησυχάσει και να σας πει ότι «έχετε απόλυτο δίκιο».
Χρησιμοποιεί επίσης έμμεσες εκφράσεις ή και ενέργειες για να είναι όσο το δυνατόν πιο ασαφής. Δεν θέλει να σας πει τι να κάνετε, αλλά ό,τι κι αν επιλέξετε, θα είναι το σωστό.
Τέλος, καταλήγει ομαλοποιώντας μια κατάσταση που, σε έναν άνθρωπο, μπορεί να φαίνεται παράξενη.
Χρησιμοποιώντας χιλιάδες ερωτήσεις που επιλέχθηκαν από φόρουμ του Reddit οι ερευνητές συνέκριναν τις απαντήσεις των χρηστών του διαδικτύου σε άτομα που μοιράζονταν τις εμπειρίες τους στον ιστότοπο με εκείνες οκτώ LLM που συζητούσαν τις ίδιες καταστάσεις.
Το αποτέλεσμα είναι σαφές: Σε ποσοστό μεταξύ 76% και 90% των περιπτώσεων, οι Τεχνητές Νοημοσύνης υπερασπίζονται τους ανθρώπους που μοιράζονται τις εμπειρίες τους, σε σύγκριση με 22% και 60% για τους ανθρώπους. Για τους επιστήμονες είναι απαραίτητο «οι προγραμματιστές να ενημερώνουν τους χρήστες για τους κινδύνους της κοινωνικής δουλοπρέπειας και να εξετάζουν το ενδεχόμενο περιορισμού της χρήσης της σε κοινωνικά ευαίσθητα πλαίσια».
Πηγή: iefimerida.gr