Οι ίδιες οι πλατφόρμες -YouTube, Meta, TikTok- διαβεβαιώνουν ότι δεν υπάρχει «λίστα απαγορευμένων λέξεων», ότι όλα κρίνονται με βάση το πλαίσιο και την πρόθεση. Όμως η πραγματικότητα είναι πιο θολή.
Στο Διαδίκτυο κυκλοφορεί σχεδόν ως βεβαιότητα ότι υπάρχει μια μυστική λίστα με απαγορευμένες λέξεις: Όροι που αν τους γράψεις, ο αλγόριθμος «σε θάβει», σε αποκόβει από το κοινό σου ή και σε τιμωρεί.
Κάπως έτσι γεννήθηκε ένα ολόκληρο ιδίωμα, το περίφημο algospeak: Οι χρήστες λένε «unalived» αντί για «killed», «pew pews» αντί για όπλα, «seggs» αντί για sex. Είναι μια γλώσσα μισή σοβαρή, μισή γελοία, που τυλίγει δύσκολα ή ευαίσθητα θέματα σε παιδικές λέξεις, μόνο και μόνο για να αποφύγει έναν αόρατο κίνδυνο.
Οι ίδιες οι πλατφόρμες -YouTube, Meta, TikTok- διαβεβαιώνουν ότι δεν υπάρχει «λίστα απαγορευμένων λέξεων», ότι όλα κρίνονται με βάση το πλαίσιο και την πρόθεση. Όμως η πραγματικότητα είναι πιο θολή: Ανάμεσα στις επίσημες πολιτικές και στην εμπειρία των δημιουργών περιεχομένου απλώνεται μια γκρίζα ζώνη, όπου η αυτολογοκρισία ανθίζει.
Οι εταιρείες υπόσχονται κανόνες διαφάνειας
Η αφετηρία είναι απλή: κανείς δεν ξέρει πραγματικά γιατί ένα βίντεο «πάει άπατο». Μπορεί να ήταν απλώς κακό, άστοχο ή αδιάφορο. Μπορεί όμως και να χτυπήθηκε από κάποιον αλγόριθμο που το θεώρησε ακατάλληλο για διαφημιστές, πολύ πολιτικό, πολύ βίαιο, πολύ «τοξικό». Οι εταιρείες υπόσχονται κανόνες διαφάνειας, αναφορές για την εποπτεία περιεχομένου, προειδοποιήσεις προς τους χρήστες όταν πέφτουν παραβιάσεις. Όμως το τι πραγματικά βλέπει ο τελικός χρήστης στη ροή του αποφασίζεται από περίπλοκα, αδιαφανή συστήματα που συνδυάζουν απίστευτους όγκους δεδομένων και συνεχώς μεταβαλλόμενα κριτήρια. Εκεί, μέσα στο «μαύρο κουτί», γεννιούνται οι υποψίες – και μαζί τους, οι «απαγορευμένες» λέξεις.
Αποφεύγει συνειδητά να πει τη λέξη «YouTube»
Ο Άλεξ Περλμαν, δημιουργός περιεχομένου με εκατομμύρια ακόλουθους σε TikTok, Instagram και YouTube, είναι από εκείνους που ζουν καθημερινά με αυτή την αβεβαιότητα. Από τη μια, κάνει χιουμοριστικά βίντεο· από την άλλη, δεν διστάζει να μπει σε βαθιά πολιτικά νερά. Στις δικές του αναλύσεις βλέπει καθαρά μοτίβα που δεν εξηγούνται εύκολα με τις επίσημες τοποθετήσεις των πλατφορμών.
Όπως λέει ο ίδιος, στο TikTok αποφεύγει συνειδητά να πει τη λέξη «YouTube» ή φράσεις όπως «πηγαίνετε στο κανάλι μου στο YouTube», γιατί -σύμφωνα με τα analytics που παρακολουθεί- κάθε φορά που το έκανε, η απήχηση του βίντεο κατέρρεε. Η λογική είναι απλή: αν το TikTok ζει από την προσοχή και τον χρόνο που περνά ο χρήστης στην εφαρμογή, γιατί να ευνοήσει ένα βίντεο που καλεί το κοινό να φύγει και να πάει στον ανταγωνιστή;
Ακόμη πιο ανησυχητική ήταν, για τον Περλμαν, η εμπειρία με τα βίντεο για τον Τζέφρι Έπσταϊν. Σε μια περίοδο που το θέμα βρισκόταν παντού στις ειδήσεις, πολλές από τις αναρτήσεις του στο TikTok αφαιρέθηκαν μέσα σε μία μέρα, χωρίς σαφή εξήγηση. Στο Instagram και το YouTube παρέμειναν ανέγγιχτες.
Οι προσφυγές του απορρίφθηκαν και στον λογαριασμό του έμειναν «strikes» που απειλούσαν τη δυνατότητά του να βγάζει χρήματα από την πλατφόρμα. Δεν του υποδείχθηκε ούτε μία συγκεκριμένη φράση, ούτε ένα ξεκάθαρο σημείο παραβίασης.
Μπροστά σε αυτό το κενό, κατέφυγε στο algospeak: άρχισε να αναφέρεται στον Έπσταϊν ως «ο Άνθρωπος του Νησιού» [εννοώντας το νησί όπου βρισκόταν η «βίλα των οργίων» του Έπσταϊν], ελπίζοντας ότι έτσι θα παρακάμψει τα φίλτρα. Όμως η κωδικοποιημένη γλώσσα έχει και αυτή τίμημα: ένα κομμάτι του κοινού μένει απ’ έξω, δεν καταλαβαίνει για ποιον μιλάς, χάνεται το βάρος της καταγγελίας.

Παρασκηνιακές παρεμβάσεις και αλγοριθμική φαντασία
Οι πλατφόρμες επιμένουν ότι τέτοια συμπεράσματα είναι παρεξηγήσεις. Εξηγούν πως οι αλγόριθμοι σχεδιάζονται για να προβλέπουν τι θα ενδιαφέρει τον κάθε χρήστη προσωπικά, με βάση τις προηγούμενες αλληλεπιδράσεις του, και πως τα μόνο «φρένα» που παρεμβαίνουν είναι οι κανόνες κοινοτήτων για ρητορική μίσους, βία, παραπληροφόρηση, πορνογραφία.
Τυπικά, αυτό ισχύει. Όμως τα τελευταία χρόνια έχουν αποκαλυφθεί επανειλημμένα παρασκηνιακές παρεμβάσεις: από τις οδηγίες της TikTok προς τους moderators να «θαμπώνουν» περιεχόμενο από «άσχημους» ή ΛΟΑΤΚΙ+ χρήστες, μέχρι το «μυστικό» κουμπί heating που προωθούσε επιλεκτικά συγκεκριμένα βίντεο, ή τις κατηγορίες για συστηματική υποβάθμιση φιλοπαλαιστινιακού περιεχομένου σε Facebook και Instagram. Ακόμη κι αν οι εταιρείες μιλούν για «λάθη» ή παρωχημένες πρακτικές, το μήνυμα που μένει είναι ότι η υπόσχεση περί ουδέτερης, «δημοκρατικής» ροής περιεχομένου δεν ανταποκρίνεται πλήρως στην πράξη.
Μέσα σε αυτό το καθεστώς αβεβαιότητας, οι χρήστες καταφεύγουν σε αυτό που οι ερευνητές ονομάζουν «αλγοριθμική φαντασία» (algorithmic imaginary): Ένα σύνολο πεποιθήσεων, μισών αληθειών και μύθων για το πώς υποτίθεται ότι λειτουργούν οι αλγόριθμοι. Ακόμη κι αν αυτές οι πεποιθήσεις είναι λανθασμένες, επηρεάζουν τη συμπεριφορά και τελικά, έμμεσα, επηρεάζουν και τον αλγόριθμο, που «μαθαίνει» από τα μοτίβα της χρήσης.
Χαρακτηριστικό παράδειγμα ήταν το φανταστικό «μουσικό φεστιβάλ» στο Λος Άντζελες: Χιλιάδες χρήστες, πιστεύοντας ότι οι πλατφόρμες κρύβουν τις διαδηλώσεις κατά των επιχειρήσεων της ICE [Υπηρεσία Μετανάστευσης και Τελωνειακής Επιβολής των Ηνωμένων Πολιτειών], άρχισαν να τις αποκαλούν «φεστιβάλ», να μιλούν για «συναυλίες» και «σκηνές» αντί για πορείες και συνθήματα. Ούτε εκεί υπήρξαν σαφείς αποδείξεις ότι η λογοκρισία ήταν πραγματική· όμως με το που καθιερώθηκε ο κώδικας, οι ίδιοι οι χρήστες άρχισαν να τον αναπαράγουν, να τον ερμηνεύουν ως επιβεβαίωση μιας απειλής που ίσως δεν υπήρξε ποτέ.

To παράδοξο που γεννιέται
Κάπως έτσι φτάνουμε στο παράδοξο: από τη μία, οι εταιρείες αρνούνται ότι έχουν λίστα απαγορευμένων λέξεων· από την άλλη, οι ίδιοι οι δημιουργοί περιεχομένου -όπως ο Πέρλμαν- μιλούν για σαφή μοτίβα «τιμωρίας» όταν θίγουν ορισμένα θέματα ή χρησιμοποιούν ορισμένες διατυπώσεις.
Οι μελέτες δείχνουν ότι οι πλατφόρμες παρεμβαίνουν διαρκώς για να φιλτράρουν, να περιορίσουν, να «παγώσουν» περιεχόμενο που θεωρούν επικίνδυνο για το brand τους ή για τη σχέση τους με ρυθμιστικές αρχές και διαφημιστές. Παράλληλα, η επιθυμία των χρηστών να επιβιώσουν σε αυτό το οικοσύστημα γεννά μια κουλτούρα δημιουργικής αποφυγής: Άλλες λέξεις για τη βία, άλλοι κώδικες για τη σεξουαλικότητα, υπαινιγμοί και μισόλογα για την πολιτική.
Το αποτέλεσμα είναι ένας ιδιότυπος ψηφιακός πουριτανισμός. Θέματα όπως ο θάνατος, η αυτοκτονία, η σεξουαλική κακοποίηση, η ένοπλη βία, αλλά και ευρύτερες πολιτικές συγκρούσεις, «σπρώχνονται» έξω από το κέντρο της δημόσιας σφαίρας ή εμφανίζονται μόνο σε αποστειρωμένη, κωδικοποιημένη μορφή.
Όταν η πλειονότητα του κοινού ενημερώνεται πλέον από τις ροές των Social Media, αυτό σημαίνει πρακτικά ότι κάποια θέματα γίνονται λιγότερο ορατά, λιγότερο συζητήσιμα, λιγότερο νοητά. Δεν υπάρχει ίσως ένα PDF με τον τίτλο «Απαγορευμένες λέξεις», αλλά υπάρχει μια πραγματική, καθημερινή επιλογή: «Αν πω αυτό όπως είναι, θα με θάψει ο αλγόριθμος;» Και όλο και πιο συχνά, η απάντηση είναι η αυτολογοκρισία.
Ο Άλεξ Πέρλμαν και οι υπόλοιποι δημιουργοί δεν είναι αλάνθαστοι αναλυτές συστημάτων. Και πολλοί ερευνητές θυμίζουν ότι, αν όντως οι πλατφόρμες ήθελαν να εξαφανίσουν συγκεκριμένες λέξεις, θα είχαν απλώς μπλοκάρει και τις παραλλαγές του algospeak. Ωστόσο, η ουσία δεν βρίσκεται μόνο στο τι κάνουν τεχνικά οι εταιρείες, αλλά στο πώς μας έχουν μάθει να σκεφτόμαστε.
Όσο οι κανόνες παραμένουν θολοί, όσο οι μηχανισμοί εποπτείας δεν είναι πραγματικά κατανοητοί, τόσο θα πολλαπλασιάζονται οι «απαγορευμένες λέξεις», όχι επειδή βρίσκονται σε κάποια μυστική λίστα, αλλά επειδή τις έχουμε ήδη σβήσει από μόνοι μας.
Πηγή: iefimerida.gr
