Facebook, platforma, która zrewolucjonizowała sposób, w jaki się komunikujemy i dzielimy życiem, przeszła na przestrzeni lat ogromną metamorfozę. Z prostego narzędzia do utrzymywania kontaktu ze znajomymi ze studiów, stał się globalnym molochem medialnym, rynkiem, platformą polityczną i źródłem (nie zawsze wiarygodnych) informacji. Pytanie brzmi: czy te wszystkie zmiany naprawdę wyszły użytkownikom na dobre?
Kontrowersyjny system moderacji treści
Jednym z najbardziej kontrowersyjnych aspektów współczesnego Facebooka jest jego system moderacji treści. Z jednej strony potrafi być on niewiarygodnie restrykcyjny, uderzając w treści, które wydają się zupełnie nieszkodliwe. Blokowanie historycznych zdjęć, dzieł sztuki zawierających nagość czy nawet satyrycznych memów stało się frustrującą codziennością dla wielu użytkowników i twórców. Algorytmy i moderatorzy często działają zero-jedynkowo, nie biorąc pod uwagę kontekstu, co prowadzi do absurdalnych sytuacji i poczucia cenzury tam, gdzie nie powinno jej być.
Problemy z dezinformacją
Z drugiej strony, ta sama moderacja bywa zadziwiająco pobłażliwa wobec treści jawnie szkodliwych. Mowa nienawiści, dezinformacja, teorie spiskowe czy wszechobecny spam – te zjawiska potrafią kwitnąć na platformie, mimo zgłoszeń i teoretycznie obowiązujących standardów społeczności. Firma otwarcie przyznała, że Aktualności często przypominają śmietnik zalany spamem i treściami niskiej jakości.
Nowe działania Meta
Dlatego Meta ogłosiła nową ofensywę przeciwko kontom, które próbują oszukać algorytmy, by zdobyć większe zasięgi, sztucznie nabić liczbę obserwujących czy nieuczciwie zarabiać na platformie. Celem jest poprawa jakości tego, co widzimy na co dzień, i stworzenie lepszych warunków dla twórców, którzy faktycznie mają coś wartościowego do przekazania.
Na celowniku spam i fałszywe konta
Na celowniku znalazły się konkretne praktyki. Jeśli konto publikuje posty z kilometrowymi, odciągającymi uwagę opisami, spamuje hasztagami albo wrzuca zdjęcia z podpisami kompletnie bez sensu, musi liczyć się z konsekwencjami. Takie treści mają być widoczne tylko dla osób już obserwujących dane konto, a jego właściciel może zapomnieć o monetyzacji. Podobnie traktowane będą całe siatki kont stworzone tylko po to, by powielać i rozpowszechniać te same spamerskie materiały – im również grozi „obcięcie” zasięgów i zablokowanie zarabiania.
Walcząc z fałszywymi profilami
Meta zapowiada też ostrzejszą walkę z kupowaniem lajków czy komentarzy oraz z „plagą” fałszywych profili podszywających się pod znane osoby, szczególnie popularnych twórców. Komentarze uznane za „sztuczne” mają być mniej widoczne. Firma „chwali się” usunięciem milionów fałszywych stron i profili, ale przyznaje, że to ciągła walka. Pomóc ma m.in. ulepszony Asystent moderacji, który potrafi teraz automatycznie wykrywać i ukrywać komentarze z potencjalnie fałszywych kont.
Innowacyjne podejście do komentarzy
Ciekawym kierunkiem wydaje się eksperymentowanie z oddaniem części kontroli nad komentarzami w ręce samych użytkowników. Meta testuje mechanizm, który pozwoliłby ludziom oznaczać odpowiedzi jako nieprzydatne, nie na temat lub po prostu słabe. To próba wykorzystania mądrości tłumu do filtrowania dyskusji, zamiast polegania wyłącznie na algorytmach i moderatorach.
Wsparcie dla twórców treści
Równolegle do walki ze spamem, Meta zapewnia o swoim wsparciu dla osób tworzących „oryginalne, wartościowe treści”. Firma rozwija narzędzia, takie jak Menedżer praw, które mają pomagać w ochronie własności intelektualnej. Cała ta strategia ma na celu – przynajmniej w deklaracjach – nagradzanie autentyczności i zaangażowania, a jednocześnie uczynienie Facebooka miejscem bardziej przyjaznym i wartościowym dla przeciętnego użytkownika.