
W 2022 roku wyszedł sondaż grupy TELUS International poświęcony tematowi algospeak. Wyszło w nim, że ponad połowa Amerykanów jest świadoma, widuje ten rodzaj komunikacji w różnych miejscach internetu – na platformach społecznościowych, forach, stronach marek i tak dalej. 30 proc. badanych przyznało, że sami algospeaku używają. Wśród pokolenia Z te proporcje wyniosły odpowiednio 72 i 41 proc. To jest badanie sprzed czterech lat. Dziś te wyniki byłyby zapewne wyższe.
Z procą na armatę
Algospeak to mówienie czy pisanie w taki sposób, żeby przechytrzyć algorytmy platform internetowych. Sprawić, żeby algorytm nie wyłapał w naszym tekście czy wideo kontrowersyjnych treści – i wskutek tego nie ograniczył im zasięgów. Algospeaku używają i edukatorzy seksualni, i osoby opisujące zbrodnie funkcjonariuszy ICE, i aktywistki nagłaśniające ludobójstwo w Palestynie. W tym odcinku „Co to ma znaczyć” porozmawiamy o bliskich krewnych algospeaku – od jego starszego internetowego brata, jakim był leetspeak, do mowy ezopowej. I o jednej fundamentalnej różnicy, która algospeak od nich odróżnia.
Algorytmy funkcjonują w bardzo tajemniczy sposób. Ich sposób działania często się zmienia, a za to bardzo rzadko jest transparentnie ujawniany użytkownikom. Dzisiejsze platformy zwykle nie zablokują nam publikacji posta, w którym użyliśmy kontrowersyjnych słów – albo eufemizmów, które algorytm już rozpoznaje – ale za to może go pokazywać mniejszej liczbie osób. Zakopać go pod innymi treściami. W związku z tym trudno mieć pewność, czy nasza strategia zadziałała, czy trzeba wymyślić inną.
Keks z bakłażanem
No to jak można próbować „chować” przed algorytmem kontrowersyjne słowa i treści? Sposobów jest wiele. Można rozdzielać litery w słowach spacjami albo kropkami, można przestawiać kolejność liter, zamieniać je na cyfry albo gwiazdki, można w ogóle używać innych, podobnych, ale neutralnych słów. Przykład? W treściach seksuologicznych „seks” bywa zastępowany słowem „keks”. Ale znajdziemy też zapis „seggs” albo „zegz”. Słowa oznaczające genitalia są często zastępowane emoji – brzoskwinką czy bakłażanem. Ale konkretne strategie na cenzurowanie pojedynczych słów to nie wszystko. Algorytmy można też próbować oszukiwać na poziomie całych komunikatów – postów czy filmów – w taki sposób, żeby sprawiały wrażenie lekkich, niepolitycznych, wręcz lajfstajlowych.
I ostatni, być może najważniejszy wątek: to, jak algospeak przenika do prawdziwego świata. W 2025 roku do okólnika pewnego poważnego miejsca pamięci w Niemczech jako antysemicki symbol trafiło emoji arbuza, które w algospeaku funkcjonuje jako kod na Palestynę. Z drugiej strony – setki ludzi oburzyły się na muzeum w Seattle za to, że rzekomo nie uszanowało powagi śmierci, bo użyło internetowego eufemizmu na opisanie śmierci Kurta Cobaina. Niejasne, skrzętnie skrywane zasady działania algorytmów kształtują nie tylko język internetu – ale też ten, którego używamy na co dzień.
„Co to ma znaczyć” to tworzony przez Martę Nowak solowy cykl materiałów w ramach podcastu „Co to będzie”. Możecie go obejrzeć i posłuchać na YouTube, Spotify i Apple Podcasts. Na tych samych kanałach czeka na Was także „Co mi to da” – solowego cyklu Miłosza Wiatrowskiego-Bujacza.









