Facebook wprowadza szereg zmian związanych z cenzurą postów w sieciach społecznościowych. Pomogą usunąć podejrzane materiały
Najnowsze wiadomości na Facebooku twierdzą, że sieć społecznościowa zapłaci swoim moderatorom łącznie 52 miliony dolarów odszkodowania. Firma podjęła decyzję o zapewnieniu tej sumy pieniędzy swoim pracownikom, którym powierzono trudne zadanie usuwania brutalnych i szkodliwych treści. Materiał został przesłany za pośrednictwem zdjęć i filmów opublikowanych jako posty przez użytkowników. Sprawa trafiła do kalifornijskiego wymiaru sprawiedliwości w Stanach Zjednoczonych.
Napięcie między Facebookiem a jego moderatorami ma precedens w 2018 r. W przypadku pracowników Accentury przeciwko Facebookowi. Accenture powiedział, że sieć społecznościowa nie chroniła swoich pracowników, którzy byli systematycznie poddawani szokującym materiałom z przemocą, wszeteczeństwem, ścięciem, terrorem, okrucieństwem wobec zwierząt, strzelaniem i tym podobnymi. Ze względu na potrzebę leczenia niektórych pracowników osiągnięto ugodę w wysokości 1000 USD na każdego uczestnika procesu. Ci, którzy mogli udowodnić traumatyczne wyniki medyczne w wyniku swoich zobowiązań do pracy, mieli prawo do bezpłatnego leczenia i mogli pozwać do 50 000 USD.
Firma zawsze wyrażała wdzięczność ludziom za znalezienie i wyeliminowanie niebezpiecznych materiałów. Firma wielokrotnie powtarzała, że zobowiązała się do zapewnienia im dodatkowego wsparcia.
Pracownicy na całym świecie dzielą te same skargi, co ich amerykańscy odpowiednicy. Chris Gray, który pracował dla firmy w Irlandii, opowiada o sprawie na podstawie własnego doświadczenia. Gray był zmuszony zobaczyć obrzydliwe obrazy egzekucji, masowych samobójstw, rasistowskich publikacji i innych tortur popierających państwo islamskie. Problemy pojawiające się w wyniku tego systematycznego spojrzenia na takie materiały nieuchronnie prowadzą do stresu pourazowego. Mówi, że trauma może pozostać niezidentyfikowana przez długi czas, ale z czasem może wykryć drażliwość, wrażliwość emocjonalną i niestabilne zachowanie.
Ze swojej strony Facebook coraz częściej opracowuje innowacyjne praktyki identyfikowania nieprzyjemnych treści. Za pomocą wyszkolonych programów sztucznej inteligencji możesz znaleźć teksty i obrazy graficzne, które nie są zgodne z zasadami Facebooka. Na początku 2020 r. Firma zwiększyła eliminację przemocy i propagandy nienawiści. Kilka grup w sieci społecznościowej zostało zbanowanych z powodu wezwań do zamieszek.
Dla porównania w samym pierwszym kwartale 2020 r. Usunięto około 4,7 miliona stanowisk w porównaniu do 1,6 miliona w tym samym okresie w 2019 r. Mark Zuckerberg, CEO, uważa, że podejście z etykietami ostrzegawczymi dla Wrażliwe materiały odniosły również duży sukces. Przeniesienie pozwoliło użytkownikom zdecydować, które treści oglądać, a które nie.
Wcześniej w tym miesiącu ogłoszono wiadomości na Facebooku dotyczące utworzenia rady nadzorczej i niektóre składające się na nią nazwiska. W skład zespołu wchodzą naukowcy, dziennikarze, pisarze, a nawet laureat Nagrody Nobla. Celem jest przyjęcie definicji dotyczących treści przesyłanych do witryny i może powodować problemy. Prezes Facebooka powiedział, że liczne skargi dotyczące szkodliwych treści skłoniły ich do podjęcia decyzji. Po utworzeniu rady będzie działać niezależnie od spółki i będzie mieć najwyższą władzę arbitrażową w odniesieniu do wątpliwych treści.
Amerykańska firma informuje użytkowników, że większa przejrzystość ma na celu wyeliminowanie podejrzeń o ingerencję polityczną na Facebooku. Zgodnie z tym najważniejsza sieć społecznościowa na świecie będzie walczyć o uniknięcie ingerencji wyborczej i masowej dezinformacji. Facebook zapewnił również, że wybór pierwszych dwudziestu członków wziął pod uwagę ich doświadczenie zawodowe i szkolenie. Rada nadzorcza obejmuje byłych polityków, sędziów i wydawców z całego świata, w tym z Wielkiej Brytanii, Węgier, Izraela, Pakistanu, Kolumbii i Afryki. Zespół mówi w ponad 29 językach, co pokazuje poszukiwanie wielu planów.
Zarząd nie planuje zajmować się sprawami, w których decyzja została już podjęta, a firma usunęła treść według własnego uznania. Dopóki nie powstanie cały zespół, prace będą prowadzone przez pierwszych dwudziestu członków, którzy będą mogli przeglądać sprawy i identyfikować podniesione punkty widzenia. Pozostali członkowie tego panelu zostaną ogłoszeni w przyszłym roku.