Μια νέα μελέτη έρχεται να κρούσει τον κώδωνα του κινδύνου για το μέλλον του διαδικτύου, τονίζοντας ότι η τεχνητή νοημοσύνη (AI), αν αφεθεί ανεξέλεγκτη, θα μπορούσε ενδεχομένως να οδηγήσει σε μια καθοδική πορεία και να κάνει το internet γεμάτο ασυναρτησίες.
Η μελέτη επικεντρώνεται στις επιπτώσεις χρήσης των Large Language Models (LLMs), πάνω στα οποία βασίζονται τα διάφορα AI chatbots, όπως το ChatGPT, και ειδικότερα εστιάζει στο σενάριο να εκπαιδεύονται με περιεχόμενο που παράγεται από άλλες AIs.
Όπως αναφέρει το βρετανικό μέσο Independent, η ανησυχία είναι ότι καθώς η τεχνητή νοημοσύνη αρχίζει να παράγει όλο και μεγαλύτερο μέρος του συνόλου του διαδικτυακού περιεχομένου, συγχρόνως αυξάνεται και η πιθανότητα υποβάθμισης της ποιότητας αυτού του περιεχομένου. Αυτό θα μπορούσε να οδηγήσει σε έναν αρνητικό βρόχο, όπου τα μελλοντικά AI μοντέλα θα εκπαιδεύονται με όλο και κατώτερο περιεχόμενο, οδηγώντας στη συνέχεια σε περαιτέρω μείωση της ποιότητας των αποτελεσμάτων τους.
Φυσικά, αν έχετε ασχοληθεί με το ChatGPT, το Bing ή κάποιο άλλο AI chatbot, ενδέχεται να έχετε παρατηρήσει ότι όντως ένα από τα σημαντικότερα θέματά τους είναι οι… παραισθήσεις! Αυτό σημαίνει μεταξύ άλλων ότι πολλές φορές μπορεί να αναφέρονται σε πληροφορίες που δεν υφίστανται, όπως για παράδειγμα σε ανύπαρκτα επιστημονικά papers που σκαρφίζεται η AI εκείνη τη στιγμή. Συγκεκριμένα, το θέμα είναι τόσο έντονο, που ρεπορτάζ αποκάλυψε ότι οι ίδιοι οι μηχανικοί της Google χαρακτήριζαν το Bard ως «παθολογικό ψεύτη», ενώ όταν η Microsoft είχε κάνει αρχικά διαθέσιμη την AI του Bing, αναγκάστηκε να περιορίσει τις συζητήσεις σε έναν πολύ μικρό αριθμό απαντήσεων, γιατί το μοντέλο σταματούσε στη συνέχεια να απαντά όπως θα περίμενε κανείς.
Στη μελέτη, στην οποία συμμετείχαν μεταξύ άλλων ερευνητές από το Πανεπιστήμιο της Οξφόρδης, πειραματίστηκαν με την εκπαίδευση νέων AI με τη χρήση προηγούμενων AI. Τα αποτελέσματα ανέδειξαν μια σημαντική ανησυχία: “Ανακαλύπτουμε ότι η εκπαίδευση από δεδομένα που παράγονται από άλλα μοντέλα προκαλεί κατάρρευση του μοντέλου, μια εκφυλιστική διαδικασία κατά την οποία, με την πάροδο του χρόνου, τα μοντέλα ξεχνούν την πραγματική υποκείμενη κατανομή των δεδομένων”. Η διαδικασία αυτή οδήγησε σε σημαντική υποβάθμιση της ποιότητας του περιεχομένου μετά από λίγες μόνο γενιές ΑΙ.
Πρακτικά, μια AI μπορεί να παράξει περιεχόμενο που δεν ανταποκρίνεται στην πραγματικότητα, παραδείγματος χάρη μια αναφορά σε ένα ιστορικό γεγονός που δεν έγινε ποτέ. Αν αυτές οι λεγόμενες «παραισθήσεις» χρησιμοποιηθούν στην εκπαίδευση ενός άλλου μοντέλου, τότε εξ αρχής αυτό το νέο μοντέλο θα παράγει λανθασμένες πληροφορίες. Αν το νέο μοντέλο έχει ξανά «παραισθήσεις» και εκπαιδεύει άλλο μοντέλο, αντιλαμβάνεστε πως γρήγορα η έννοια της αλήθειας χάνεται.
Δεδομένων αυτών των ευρημάτων, οι ερευνητές προτείνουν την εφαρμογή ενός συστήματος που θα επισημαίνει σαφώς ποιο περιεχόμενο στο διαδίκτυο έχει παραχθεί από AI. Αυτό θα επέτρεπε στα μελλοντικά AI μοντέλα να διακρίνουν μεταξύ του περιεχομένου που παράγεται από την ΑΙ και του περιεχομένου που παράγεται από τον άνθρωπο, και να επιμείνουν στο δεύτερο για την εκπαίδευσή τους. Αν και η προσέγγιση αυτή φαίνεται λογική, οι ερευνητές τονίζουν την επείγουσα ανάγκη για δράση, δεδομένου του γρήγορου ρυθμού παραγωγής AI περιεχομένου και της τεράστιας κλίμακας του διαδικτύου.
Περισσότερες πληροφορίες σχετικά με το ανησυχητικό ζήτημα μπορείτε να βρείτε στο δημοσίευμα του Independent πατώντας εδώ.
Πηγή: unboxholics.com