Antisocial social media. Co robią z nami algorytmy?

Czy media społecznościowe niszczą nasze relacje? A może są cyfrowym odbiciem naszych indywidualnych preferencji? Jedno jest pewne – algorytmy polecające treści znają nas lepiej niż my siebie samych.

Od kilku lat obserwujemy wzrost liczby badań oraz publikacji, które demaskują szkodliwy wpływ mediów społecznościowych na nasze życie. Jednym z nich jest netfliksowy serial „The Social Dilemma”, który doprowadził do wybuchu negatywnych emocji względem mediów społecznościowych. Autorzy dokumentu pokazali skutki uzależnienia od cyfrowej rzeczywistości i oparli swój wywód na tragicznych statystykach, według których od 2011 roku wśród osób młodych wzrosły depresja i lęk o 62 proc., a samobójstwa o 75 proc. W przypadku dziewcząt w wieku przedszkolnym analogiczne liczby wynoszą 189 i 151 proc. Statystyki te dotyczą Stanów Zjednoczonych, ale podobne dane pojawiły się również w innych krajach.


Max Fisher, autor wydanej niedawno w Polsce książki „W trybach chaosu. Jak media społecznościowe przeprogramowały nasze umysły i nasz świat” zestawia platformy społecznościowe z producentami papierosów z lat 60. XX wieku, którzy przez lata lobbowali za ukrywaniem negatywnych badań na temat produktów tytoniowych. Według Fishera zmiana stosunku do mediów społecznościowych jest nieunikniona, a w ekstremalnej wersji zbyt częste z nich korzystanie stanie się tak samo źle postrzegane, jak uzależnienie od tytoniu lub alkoholu. Już teraz obserwujemy pierwsze pozytywne zmiany po etapie zachłyśnięcia się urokiem cyfrowych platform. Wyniki badań Edison Research i Triton Digital z 2019 r. pokazują, że ogólne korzystanie z social mediów wśród Amerykanów w wieku od 12 do 34 lat na kilku platformach ustabilizowało się lub spada. Z tego samego badania wynika, że coraz więcej osób poniżej 30. roku życia korzysta z Facebooka wyłącznie w celach utrzymywania kontaktów towarzyskich ze znajomymi.

Stara wojna, nowe bitwy

Od samego początku istnienia tradycyjnych mediów ich właściciele starali się zapewnić sobie jak największy wpływ w codzienne życie obywateli: zaczynając od wyborów konsumenckich, kończąc na przekonaniach politycznych swoich odbiorców. Dziś platformy społecznościowe mają  niewyobrażalne możliwości dzięki śledzeniu każdego naszego ruchu w cyberprzestrzeni. YouTube monitoruje zachowania dwóch miliardów użytkowników, gromadząc z pewnością największy zbiór danych na temat preferencji widzów, jaki kiedykolwiek zgromadzono. Celem każdej platformy cyfrowej jest utrzymanie naszej uwagi maksymalne długo, bez względu na koszty społeczne i psychiczne. Co ciekawe, liczne badania systemu polecania opartego na algorytmach wykazały, że tego typu mechanizmy znacząco przyczyniają się do rozwijania u widzów skrajnych poglądów, bowiem tego typu treści premiowane są przez algorytmy z racji wysokiego zaangażowania emocjonalnego użytkowników. Jeden z raportów z 2021 r. wykazał, że ponad 70 proc. ekstremistycznych treści znalezionych na YouTubie zostało zarekomendowanych użytkownikom przez algorytm.

Sam Mark Zuckerberg opisał  korelację między rosnącym poziomem zaangażowania a częstotliwością serwowania przez algorytm treści skrajnych. Założyciel Facebooka opublikował w 2018 roku artykuł, w którym przyznał, że: „największym problemem sieci społecznościowych jest to, że ludzie pozostawieni bez kontroli najbardziej angażują się w sensacyjne i prowokacyjne treści. Nasze badania sugerują, że bez względu na to, gdzie wyznaczymy granice tego, co jest dozwolone, w miarę zbliżania się do tej linii, ludzie będą bardziej angażować się w skrajne treści”. 

Wewnętrzne badania Facebooka potwierdziły to, co przez lata starali się wykazać eksperci zaniepokojeni rosnącą polaryzacją tej usługi. W internecie trudno o świadomy wybór, gdyż występuje tam zjawisko pomiędzy impulsem, naturalną pokusą i bodźcem sugerowanym przez serwisy społecznościowe.

Warto zwrócić uwagę, że problem opisywany przez Zuckerberga nie dotyczy wyłącznie platform cyfrowych, ale rozciąga się również na tradycyjne media. Charlie LeDuff, amerykański dziennikarz i twórca reportaży w stylu gonzo, zwrócił uwagę na niepokojącą symbiozę między mediami a politykami reprezentującymi wyjątkowo skrajne przekonania. W swojej książce „Shitshow! Ameryka się sypie, a oglądalność szybuje” pisał:

„Zaledwie dziesięć tygodni po ogłoszeniu swojej kandydatury Trump prowadził nie tylko w sondażach, ale i w mediach. Establishment był w szoku i gardził nim za lekceważenie zasad, ale Trump okazał się prawdziwą kopalnią złota dla pogrążonej w katatonii, masowo tracącej widzów branży. Dwadzieścia cztery miliony ludzi włączyło telewizory, żeby popatrzeć, jak Pomarańczowy Don obraża kogo tylko może podczas poprzedniej debaty. Stacja, która transmitowała ten wyścig, pocisnęła mocniej motyw teleturnieju i zwiększyła przychody z reklam o czterdzieści procent. Czysty zysk!”.

Co robią z nami algorytmy?

Peter Thiel, założyciel firm PayPal i Palantir, w 2009 roku przejawiał antyspołeczne poglądy, stwierdzając, że społeczeństwo nie można pozostawić bez nadzoru w sieci. Jak pisze Fisher, Peter Thiel i jego koledzy z Doliny Krzemowej postrzegali społeczeństwo jako „zestaw problemów inżynieryjnych, które czekają na rozwiązanie”, jak można się domyślić, doskonałym narzędziem nadzorowania i rozwiązywania problemów okazały się nieszczęsne algorytmy.

Giganci z Doliny Krzemowej pokochali systemy rekomendacji, które dzięki specjalnym algorytmom używają naszych danych do wyświetlania skrojonych pod nasze gusta treści. Facebook, Twitter i Instagram odeszły od chronologicznych kanałów,  wyświetlając wiadomości w kolejności, w jakiej zostały opublikowane. Zamiast tego pojawiły się bardziej algorytmicznie sekwencjonowane treści, które platformy uznały za najbardziej interesujące dla użytkownika. Takie zmiany sprawiły, że serwisy społecznościowe stały się nieprzewidywalne i mniej przejrzyste.

Zmiana rozpoczęła nieustanną i desperacką wojnę o uwagę. Jak wyjaśnia Fisher „elementem, na którym bazują wszystkie media społecznościowe, jest uwaga”. Metody stosowane przez platformy cyfrowe stały się perswazyjne jak nic dotąd innego. Algorytm rekomendacji, udoskonalany na podstawie wyników badań nad dopaminą i uzależnieniami oraz osiągnięciami psychologii behawioralnej, stał się najpotężniejszym narzędziem do przykuwania naszej uwagi, zmieniania naszych przekonań, a także wpływania na podejmowanie ważnych życiowych decyzji.

Homo internetus

Negatywny wpływ wywierany przez platformy cyfrowe widać najlepiej wśród najmłodszych, którzy nie znają świata bez internetu. Jak wykazują badania, cyfrowi tubylcy dość szybko się nudzą, są niecierpliwi, a za wykonaną pracę oczekują natychmiastowej nagrody. Są również lepiej przystosowani do symultanicznego wykonywania wielu czynności jednocześnie – korzystanie z sieci umożliwia przykładowo rozmowę z przyjacielem podczas poszukiwania informacji na dany temat, słuchania muzyki, czy też wykonywania przelewu bankowego. Jest to przyczyna opisanego przez Lindę Stone „trwałego stanu częściowego rozkojarzenia uwagi”, czyli „interesowania się wszystkim bez koncentrowania się na czymkolwiek”, co wiąże się bezpośrednio z popularnym zespołem FOMO (Fear of Missing Out) – „wszechogarniającym lękiem, że inne osoby w danym momencie przeżywają bardzo satysfakcjonujące doświadczenia, w których ja aktualnie nie uczestniczę”.

Jak sobie radzić?

Max Fisher proponuje wyłączenie platform cyfrowych, a przynajmniej algorytmów rekomendacji, które je napędzają. Dzięki temu powstałby mniej angażujący internet, który swoją architekturą nie przypominałby jednorękiego bandyty ustawionego w kasynie. Obecnie social media żerują na naszych słabościach, najniższych instynktach i słabszych dniach, w których zwabieni pokusą taniej rozrywki, karmimy algorytmy naszymi wyborami i stajemy się bezwolnymi konsumentami treści niskiej jakości.

Wobec braku przejrzystości i odgórnie narzuconych przez rządy państw wymagań wobec mediów społecznościowych, wielu internatów zaczęło przygotowywać poradniki z prostymi sposobami na zarządzanie algorytmami. Chodzi o nauczenie systemu rekomendacji przez kliknięcie„łapki w dół” przy filmach na YouTubie lub przez szybkie pomijanie niechcianych treści na TikToku. Jednak takie indywidualne praktyki nie zawsze przynoszą skutek; dużo lepszym rozwiązaniem jest propozycja prawna Parlamentu Europejskiego, która zakłada, że platformy cyfrowe, aby dalej działać na terenie Unii, będą zmuszone tłumaczyć użytkownikom działanie systemów polecania treści lub umożliwiać internautom zrezygnowanie z funkcji śledzenia swoich preferencji.

Źródła:

Opublikowano przez

Mateusz Schuler

Autor


Dziennikarz, filozof, Ślůnzok. Autor artykułów poświęconych filozofii techniki oraz etyce środowiskowej. Zainteresowany historią kapitalizmu oraz alternatywnymi ruchami politycznymi. W przeszłości prowadzący audycję radiową z muzyką elektroniczną w tle. Mieszka w Katowicach.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.