Ten artykuł czytasz w ramach bezpłatnego limitu

Jaś Kapela (1984) - poeta, pisarz, felietonista i członek zespołu "Krytyki Politycznej", ostatnio wydał powieść "Dobry troll". Na Facebooku dostał właśnie siódmego bana na 30 dni.

21 maja „The Guardian” ujawnił zestaw ponad stu plansz z wytycznymi dla moderatorów oceniających zgodność „kontentu” z zasadami społeczności. Jeden z pracowników Facebooka powiedział dziennikarzom, że moderator ma ok. 10 sekund na podjęcie decyzji, czy usunąć daną treść, czy nie.

Po zapoznaniu się z tymi instrukcjami nadal nie rozumiem, dlaczego Facebook usunął mój felieton „Dekalog katolickiego żonobijcy” o Rafale Piaseckim, byłym radnym PiS i katoliku, który znęcał się nad swoją żoną. Napisałem w satyrycznej formie, że powinniśmy poważniej traktować przypadki znęcania się nad kobietami. Nie pochwalałem przemocy – pokazywałem naruszenia praw człowieka.

Nie rozumiem tym bardziej, że dopuszczalne treści to: „Gdy łapiesz sukę za szyję, upewnij się, że z całą siłą naciśniesz na środek jej gardła”, „Jeśli nie przestaniesz zrzędzić, będę musiał wyciąć ci język”. Zdaniem internetowego potentata nie są to wiarygodne groźby, więc moderatorzy takich zdań nie muszą usuwać.

Po mojej stronie stanęła też – chyba – szefowa „Global Policy Management” Facebooka Monika Bickert, która tłumaczyła, że społeczność użytkowników portalu jest bardzo zróżnicowana, więc ludzie mają bardzo różne wyobrażenie na temat tego, co jest OK. Trudno się z nią nie zgodzić – dla niektórych użytkowników obozy koncentracyjne dla gejów w Czeczenii są OK, dla innych OK jest to, że z „muzolami się nie gada”, bo „do muzoli się strzela”, a „kobieta nie powinna wychodzić z domu bez męskiego towarzysza”. Czy dla innych OK nie może być „Dekalog katolickiego żonobijcy”?

Kolejnego bana na 30 dni dostałem za wrzucenie mema ze zdjęciem Bartka Głażewskiego z Młodzieży Wszechpolskiej, który pod Teatrem Powszechnym oblał mnie sokiem pomidorowym (sic!). Pod zdjęciem napisałem „Raz delfinem, raz sokiem, lewacką hołotę” – bo Bartek jest nie tylko nacjonalistą, ale również hipsterem i na Facebooku ma zdjęcie profilowe z delfinem.

inkryminowany post Jana Kapelainkryminowany post Jana Kapela 

Ciężki los moderatora

W instrukcjach dla moderatorów Facebook napisał, że ludzie często wzywają do przemocy lub grożą przemocą nie dlatego, że chcą kogoś skrzywdzić, ale żeby wyrazić swoją wzgardę lub niezadowolenie.

Nie wspomniał, że skutkiem jest przyzwyczajenie i obojętność podobne do tej wobec antysemickich napisów na murach oraz że obcując z takimi treściami, nabiera się przekonania, że są one normalne, a część ludzi naprawdę zaczyna w nie wierzyć. Badania pokazują, że osoby częściej korzystające z mediów bardziej boją się zamachów i uchodźców.

Przykry jest los moderatorów i moderatorek Facebooka, którzy każdego dnia muszą patrzeć na abortowane płody (dopuszczalne, o ile nie zawierają nagości), akty pedofilskie (niedopuszczalne) czy pornografię (dopuszczalną, o ile są to ilustracje, a nie zdjęcia) oraz nieprzebrane morze obrzydliwego i nienawistnego „kontentu”. Nic dziwnego, że – tak twierdzi „The Guardian” – wielu z nich zdradza objawy stresu pourazowego.

Szósta, najwyżej wyceniania na giełdzie korporacja na świecie może sobie oczywiście pozwolić na więcej niż dewastowanie psychiki moderatorów – z chińskim reżimem komunistycznym Facebook współpracuje znakomicie.

Facebook wie o tobie więcej, niż myślisz

Facebook zatrudnia trzy razy mniej ludzi niż ZUS. Dwa miliardy użytkowników obsługiwało dotąd 4,5 tys. moderatorów. Ta proporcja (jeden moderator na blisko pół miliona użytkowników) wiele mówi o Facebooku jako firmie, która twierdzi, że ponieważ chce dać ludziom możliwie dużą wolność wypowiedzi, to „zatrzymać islamską dzicz” nie jest przez nią traktowane jako naruszenie zasad.

Co prawda Mark Zuckerberg ostatnio ogłosił, że jego koncern zatrudni kolejne trzy tysiące moderatorów, ale stało się to po tym, jak przez ponad dobę można było na żywo na Facebooku oglądać relację ojca, który mordował swoją 11-miesięczną córkę.

Nadal jednak te kilka tysięcy osób nie jest w stanie rzetelnie przejrzeć wszystkiego, co udostępniają miliony użytkowników. Jest i będzie ich tak mało dlatego, że Facebook nie działa w interesie swoich użytkowników, lecz klientów – a tymi są reklamodawcy.

Gdyby Facebook jasno określił, jakie są 'nasze wspólne wartości', mogłoby się to nie spodobać nie tylko pojedynczym ludziom, ale całym krajom. A gdyby rzeczywiście usuwał wszystkie nienawistne komentarze, straciłby część z dwóch miliardów swoich użytkowników

Jedno i drugie szkodzi biznesowi. Facebookowi zależy przede wszystkim na tym, żeby spędzano na nim jak najwięcej czasu, więc usuwanie zbyt dużej liczby treści i kont zmniejszyłoby ruch, a za nim – wpływy z reklam.

Facebook prawdopodobnie wie o ludziach więcej niż jakakolwiek inna firma na świecie. Inwigilacja stała się modelem biznesowym internetu, bo okazało się, że sprzedawanie wiedzy o swoich użytkownikach jest lepszym pomysłem na biznes niż zachęcenie ich do płacenia za treści – dzięki temu PKB rośnie, zyski Facebooka rosną, a ludzie nienawidzą się coraz bardziej w swoich coraz bardziej otwartych społeczeństwach.

Rynek przeciwko demokracji

W lutym Zuckerberg opublikował manifest, w którym zapowiada walkę o lepszy internet i lepszy świat. Pisze w nim na przykład, że marzy mu się, aby demokratyczne wybory odbywały się za pomocą Facebooka.

Problemem manifestu jest to, że Facebook udaje, że nie jest firmą zarabiającą pieniądze przez selekcję treści wyświetlanych użytkownikowi. Chorzy z nienawiści też lubią klikać i kupować, na przykład koszulki mówiące o tym, jakich kolorów lub ludzi nie lubią – Zuckerberg, posypując głowę popiołem („Błędne było ocenianie, co jest mową nienawiści w debatach politycznych; w obie strony – usuwaliśmy konta i treści, które powinny były zostać, pozostawiając treści nienawistne, które powinny być usunięte”) zapowiada, że Facebook będzie dbał o swój portfel w imię wolności i poszanowania lokalnych społeczności przez usuwanie jak najmniejszej ilości treści, a koncentrować się będzie głównie na mechanizmach selekcji ich wyświetlania („Mogę nie mieć nic przeciwko komunikatom zawierającym treści polityczne, ale nie chcę oglądać niczego sugestywnego seksualnie, podczas gdy ty dopuszczasz nagość, ale nie chcesz obraźliwych wypowiedzi. Chodzi o to, by każdy mógł sam, poprzez opcje społecznościowe, ustalić zakres treści dla siebie. Gdzie stawiasz granicę dla nagości? Przemocy? Treści seksualnych? Wulgaryzmów? Tam, gdzie ją umieścisz, będą to twoje osobiste ustawienia”).

Jak to pogodzić z innym fragmentem listu – „Jeśli stracimy wspólny ogląd rzeczywistości, wówczas – nawet jeśli wyeliminowalibyśmy dezinformację – ludzie po prostu tak będą dobierali i podkreślali różne fakty, by pasowały do ich spolaryzowanych opinii” – Zuckerberg już nie mówi.

Dotychczas wykorzystując algorytmy wyświetlania treści przez Facebooka, wybory na prezydenta Stanów Zjednoczonych wygrał Donald Trump. Jak to pogodzić z planami Zukerberga, który chce dbać o „rozprzestrzenianie się dobrobytu i wolności, promowanie pokoju i porozumienia, podnoszenie ludzi z ubóstwa, przyspieszenie postępu w nauce”? Tego też nie wiemy. Podobnie jak tego, jak Facebook zamierza wspierać dziennikarstwo, nie płacąc dziennikarzom za udostępniane na portalu treści.

Nawet jeżeli Mark Zuckerberg spełni daną obietnicę i do końca życia odda 99 proc. majątku na cele dobroczynne, a w międzyczasie będzie lobbował na rzecz powszechnego dochodu gwarantowanego, to odpowiedź na jego pytanie – „czy tworzymy taki świat, jakiego wszyscy chcemy?” – brzmi: nie w tym modelu biznesowym.

Czytaj ten tekst i setki innych dzięki prenumeracie

Wybierz prenumeratę, by czytać to, co Cię ciekawi

Wyborcza.pl to zawsze sprawdzone informacje, szczere wywiady, zaskakujące reportaże i porady ekspertów w sprawach, którymi żyjemy na co dzień. Do tego magazyny o książkach, historii i teksty z mediów europejskich. Zrezygnować możesz w każdej chwili.