Media społecznościowe z rezerwą traktują kwestię kontrolowania użytkowników, ponieważ nie chcą zniechęcać do siebie milionów ludzi, dzięki którym funkcjonują. W związku z tym ograniczanie niewłaściwych komentarzy czy działalności szkodliwych grup do tej pory nie było priorytetem w social mediach
Od dłuższego czasu pod adresem platform, takich jak Facebook czy YouTube, wysuwa się zarzuty związane z nieskutecznym zwalczaniem mowy nienawiści oraz szerzeniem dezinformacji. Apele o ograniczenie hejtu w komentarzach pod filmami nie przyniosły wyraźnych efektów. Ściek oszczerstw o zabarwieniu homofobicznym, rasistowskim czy szowinistycznym był ogólnie dostępny i pomimo starań moderatorów wylewał się w dyskusjach pod wieloma wideoklipami.
YouTube nie chciał podejmować żadnych kroków, dopóki słowa w jadowitych komentarzach nie zaczęły szkodzić jego budżetowi. Gdy zagrożone zostały kontrakty o wartości milionów dolarów, władze platformy szybko podjęły zdecydowane kroki. Tłem dla zmian w serwisie była afera dotycząca udostępniania na YouTubie materiałów „ocierających się o pedofilię”. Tego typu filmy nie zawsze musiały być niezgodne z regulaminem serwisu, czasem był to zapis sytuacji np. kąpiących się dzieci. Jednak to komentarze pod dodanym wideo wulgaryzowały materiały. Sprawę nagłośnił jeden z twórców obecnych na platformie. To wystarczyło, by światowe koncerny – takie jak Nestle, Disney, Epic czy Purina – zdecydowały o wycofaniu emisji reklam w serwisie.
Olbrzymie straty finansowe i wizerunkowe zmusiły YouTube do wprowadzenia nowych algorytmów i wielu ograniczeń. Przedstawiciele platformy oświadczyli na Twitterze, że w związku z wykryciem pedofilskich treści na platformie zdecydowali się wprowadzić „agresywne i dużo szersze działania”.
Decyzja YouTube’a podzieliła użytkowników
Pomysł jest prosty, skuteczny i wymaga zaangażowania samych twórców – youtuberów. Od tej pory algorytmy sprawdzą nie tylko treść filmów, lecz także komentarze pod nimi. Jeśli znajdą się w nich słowa obraźliwe lub niedozwolone treści, YouTube zablokuje twórcom możliwość zarabiania na filmie. W uproszczeniu: bez sprawnej moderacji komentarzy zawierających mowę nienawiści autorzy dodanego wideo nie otrzymają gratyfikacji za swoją popularność.
YouTube sprecyzował, które komentarze „odbiorą” pieniądze youtuberom. Chodzi m.in. o zwroty wzywające do przemocy, a także zawierające sugestie o podłożu seksualnym. Zabronione będzie też „niewłaściwe wykorzystanie postaci znanych z treści przeznaczonych dla dzieci”, np. publikowanie wizerunków znanych z bajek w kontekście pornograficznym.
Te zmiany nie spotkały się z ciepłym przyjęciem twórców, dla których publikowanie filmów w serwisie jest głównym źródłem dochodu. „Rozumiem, że teraz my, twórcy, ponosimy odpowiedzialność zbiorową za idiotyzm narodu?” – pisze jeden z youtuberów w komentarzu pod informacją o zmianach w serwisie. „Dodajemy treści zgodne z regulaminem, ale mamy odpowiadać za czyjąś frustrację?! Przecież to zupełnie bez sensu!” – dodaje.
Podobną opinię wyraziła Amerykanka Jessica Ballinger (jej historię przytoczyła Polska Agencja Prasowa). Ballinger publikuje na swoim kanale filmy z udziałem kilkuletniego syna, który uprawia gimnastykę. Po dodaniu ostatniego nagrania otrzymała informację od serwisu, że nie otrzyma wynagrodzenia za popularność filmu, gdyż dodane przez nią treści są „nieprzyjazne reklamodawcom”, mimo że nie naruszają regulaminu YouTube’a. Problemem okazały się właśnie komentarze o erotycznym podtekście. Choć matka deklarowała, że moderuje odpowiedzi na wideo z ćwiczącym synem, YouTube ocenił, że jej działania nie są wystarczające.