Dyrektorka FB o moderacji: Nie dopuszczamy krytyki polityki imigracyjnej ani argumentów ograniczających tę politykę

Dodano   0
  LoadingDodaj do ulubionych!

/ fot. screen youtube

Monika Bickert, szefowa globalnego zarządzania polityką Facebooka udzieliła francuskiej stacji telewizyjnej RTL wywiadu, w którym wyjaśnia nową politykę moderacji swojego portalu.

Fałszywe wiadomości, propaganda terrorystyczna, usunięte konta… Facebook odsłonił we wtorek, 15 maja po raz pierwszy, dane dotyczące moderacji treści. Cel wyświetlany: przezroczystość. Firma chce uporządkować przeszłość i zgorszyć Cambridge Analytica w związku ze sprzeniewierzeniem danych dziesiątek milionów użytkowników sieci społecznościowej.

W tym raporcie Facebook informuje, że 3,4 miliona brutalnych obrazów zostało usuniętych lub ostrzeżonych w pierwszym kwartale 2018 roku, prawie trzykrotnie w poprzednim kwartale. Firma ogłasza również usunięcie 21 milionów zdjęć nagości lub aktywności seksualnej w pierwszym kwartale, jeszcze pod koniec 2017 roku.

Sieć społeczna ujawnia również dane dotyczące propagandy terrorystycznej. Pod koniec kwietnia usunięto 1,9 miliona treści w pierwszym kwartale, o 73% więcej niż w czwartym kwartale 2017 r. Dzięki ulepszeniom technologicznym 99,5% usuniętych treści zostało wcześniej zgłoszonych.

Jak walczyć z propagandą terrorystyczną?

Monika Bickert, dyrektor ds. polityki treści na Facebooku, czyni walkę z propagandą dżihadystów priorytetem. Firma twierdzi, że ma możliwość usuwania filmów propagandowych, nawet zanim zostaną zgłoszone przez użytkowników.

W RTL.fr wyjaśnia, że:

​​”korzystanie z najnowszych technologii pozwala nam identyfikować treści terrorystyczne. 99,5% treści związanych z propagandą terrorystyczną, które tłumimy, wykrywa się, zanim zostaną zgłoszone przez internautów”.

Mówiąc konkretnie, sieć społecznościowa identyfikuje obrazy, filmy i problematyczne treści. Następnie rodzaj identyfikatora jest powiązany z każdym rodzajem treści. Gdy użytkownik chce opublikować wiadomość zawierającą te identyfikatory, witryna zostanie ostrzeżona i może ją bezpośrednio usunąć.

W swoim statucie Facebook przypomina, że ​​wszelkie treści związane z działalnością terrorystyczną są zabronione w sieci społecznościowej, a także “wszelkie treści wspierające lub chwalące grupy, przywódców lub osoby zaangażowane w te działania”.

Jak moderować komentarze?

Firma założona przez Marka Zuckerberga opracowała trzy poziomy raportowania.

Poziom 1 odnosi się do “ataków na osobę lub grupę ludzi”. Przemoc, dehumanizujące przemówienia, porównania ze zwierzętami, mowa nienawiści należą do tej kategorii.

Poziom 2 uwzględnia “twierdzenia o niższości fizycznej, wyglądzie, umysłowym i moralnym”, ale także “wyrazy pogardy, takie jak “nienawidzę”, “nie lubię”.

Poziom 3 dotyczy “wezwań do wykluczenia lub odizolowania osoby lub grupy osób. nie pozwalamy na krytykę polityki imigracyjnej ani argumentów ograniczających tę politykę”.

Aby określić, co jest tolerowane na Facebooku, Monika Bickert podkreśla, że ​​”nie jest tak, że ponieważ coś jest obraźliwe lub jest niezgodne z naszymi zasadami i musimy usunąć wiadomość lub powiązane konto. Uważamy, że bardziej odpowiednie jest umożliwienie ludziom bezpośredniego kontrolowania tego, co zobaczą na swojej stronie na Facebooku. Możesz zablokować określone konta, posty lub wiadomości, jeśli czujesz się urażony.”

Jak uniknąć rozpowszechniania fałszywych wiadomości?

Szefowa globalnego zarządzania polityką Facebooka zapowiada też walkę z tzw. fejk niusami, chociaż nie wyjaśnia w jaki sposób będzie się oceniać czy są one faktycznie takimi. Sieć społecznościowa potwierdza swoje pragnienie “ograniczenia rozpowszechniania fałszywych informacji”, ponieważ jest to “odpowiedzialność, którą traktujemy poważnie, dodaje dyrektor polityki treści na Facebooku.

źródło: dzienniknarodowy.pl / rtl.fr

Dodano w Bez kategorii

POLECAMY