Rekompensata Za Znak Zodiaku
Podstawa C Celebryci

Dowiedz Się Kompatybilności Za Pomocą Znaku Zodiaku

Zapytaliśmy 19 osób weryfikujących fakty, co sądzą o swoim partnerstwie z Facebookiem. Oto, co nam powiedzieli.

Sprawdzanie Faktów

W tym 29 marca 2018 r. zdjęcie pliku logo Facebooka pojawia się na ekranach w Nasdaq MarketSite na nowojorskim Times Square. (Zdjęcie AP/Richard Drew, Plik)

15 grudnia 2016 roku Facebook podjął nieoczekiwaną decyzję.

Zaledwie miesiąc po tym, jak dyrektor generalny Mark Zuckerberg wyśmiewał sugestię, że fałszywe wiadomości są powszechne na jego platformie, firma ogłosiła, że ​​potrzebuje pomocy w podważeniu. Zwrócił się więc do niezależnych organizacji weryfikujących fakty.

Założenie było obiecujące: niezależne osoby sprawdzające fakty miałyby dostęp do pulpitu nawigacyjnego na Facebooku, gdzie mogliby zobaczyć, które posty użytkownicy oznaczyli jako potencjalnie fałszywe. Sprawdzaliby je pod kątem faktów, a gdyby któryś okazał się fałszywy, jego przyszły zasięg w News Feedzie byłby zmniejszony, zostanie wymieniony fakt sprawdzenia pod powiązanymi artykułami i użytkownicy, którzy je udostępnili, zostaną o tym poinformowani.

Szybki publiczny obrót Facebooka prawdopodobnie również nastąpił po podobnie przyspieszonym procesie wewnętrznym – co spowodowało:skalisty początekza partnerstwo weryfikujące fakty.

„Nie było wystarczającego planowania, które weszło do projektu, gdy ogłoszono go w grudniu 2016 r.” – powiedział Eugene Kiely, dyrektor Factcheck.org – jeden z pierwszych partnerów Facebooka – w e-mailu. „Sposób powiadamiania weryfikatorów faktów o podejrzanych treściach był prymitywny i niezbyt skuteczny. Do połowy 2017 roku nie dostaliśmy nawet żadnego dofinansowania na projekt”.

„Jednak z biegiem czasu nastąpiła ogromna poprawa i trwają prace nad kolejnymi zmianami, więc w tym momencie jest to bardzo wartościowe i skuteczne partnerstwo”.

POWIĄZANY ARTYKUŁ: Jak Facebook radzi sobie z dezinformacją, w jednej grafice

Od momentu uruchomienia tego projektu Facebook uczynił z niego kamień węgielny swojej walki z dezinformacją. Zarówno Zuckerberg, jak i COO Sheryl Sandberg wspomnieli o tym w zeznaniach Kongresu. Rozszerzyła się do 35 partnerów w 24 krajach. A weryfikujący fakty twierdzą, że pomogło im to znaleźć roszczenia do sprawdzenia, zniektóre szacunki stwierdzenie, że obecnie na platformie jest mniej dezinformacji niż dwa lata temu.

Ale wciąż jest wiele do nauczenia się o tym, jak w praktyce sprawdził się projekt sprawdzania faktów Facebooka. (Ujawnienie: bycie sygnatariuszemkodeks zasad Międzynarodowej Sieci Kontroli Faktówjest warunkiem koniecznym przystąpienia do projektu. Dyrektor IFCN Alexios Mantzarlis również pomógł w uruchomieniu projektu.)

Podczas gdy firma udostępniła więcej szczegółów na temat partnerstwa szczegółowe dane na temat jego wyników jeszcze się nie zmaterializowały ( pomimo naszych lepszych nadziei ). Aby lepiej zrozumieć wyniki walki Facebooka z dezinformacją, przeprowadziliśmy ankietę wśród 19 jej dotychczasowych partnerów weryfikujących fakty, przeanalizowaliśmy niektóre z najważniejszych historii Facebooka tego roku i skontaktowaliśmy się z ponad 35 naukowcami zainteresowanymi Nauka Społeczna , partnerstwo, które zapewni naukowcom dostęp do danych Facebooka dotyczących inicjatywy sprawdzania faktów.

Odkryliśmy, że chociaż weryfikatorzy faktów ogólnie zgadzają się, że projekt był pozytywny, nadal pozostaje wiele do zrobienia. (To odbija się echem oświadczenie wydany przez pięciu partnerów weryfikujących fakty w czwartek.)

Co myślą weryfikatorzy faktów

Organizacje sprawdzające fakty, które mają dostęp do panelu Facebook fake-spottingsą zróżnicowaną grupą. Obejmują one od międzynarodowych serwisów informacyjnych, takich jak Agence France-Presse, po pozarządowe organizacje sprawdzające fakty, takie jak Chequeado w Argentynie.

Mimo to 19 z obecnych partnerów Facebooka zajmujących się sprawdzaniem faktów odpowiedziało na naszą anonimową ankietę, co stanowi nieco ponad połowę całkowitej liczby. Nie zakładamy, że są reprezentatywni dla całej grupy, ale ich odpowiedzi dostarczają wcześniej niedocenianego spojrzenia na to, jak weryfikatorzy faktów postrzegają swoją pracę w sieci społecznościowej.

Odpowiedzi wskazują, że weryfikatorzy faktów oznaczyli dziesiątki tysięcy linków do fałszywych lub wprowadzających w błąd treści, są dyskretnie zadowoleni z relacji jako całości – ale nie myśl, że zmieniła to reguły gry. I panuje wśród nich powszechna zgoda, że ​​Facebook powinien robić więcej, jeśli chodzi o udostępnianie informacji opinii publicznej.

Liczba linków oznaczonych jako fałszywe przez każdy weryfikator faktów jest bardzo zróżnicowana, od mniej niż 50 do ponad 2000. Częściowo jest to odzwierciedleniem zróżnicowanego czasu trwania tych partnerstw, przy czym niektóre osoby weryfikujące fakty pracowały z narzędziem od 2016 r., a inne w ciągu ostatnich kilku miesięcy.

Jeśli dane liczbowe utrzymują się we wszystkich weryfikatorach faktów, a nie tylko w ankietowanych, szacujemy, że w ramach partnerstwa zostało oznaczonych od 30 000 do 40 000 linków do fałszywych treści – prawdopodobnie o wiele więcej. Chociaż liczba ta jest niewielkim składnikiem wszystkich treści udostępnianych na Facebooku, dostarczyłaby wielu danych do pomiaru, w jaki sposób weryfikacja faktów wpływa na rozpowszechnianie odpowiednich fałszów na platformie.

Na pytanie, dlaczego przystąpili do partnerstwa, większość osób sprawdzających fakty podawała różne powody. Dla wielu była to okazja do dotarcia do odbiorców tam, gdzie się znajdowali, i ograniczenia zasięgu dezinformacji w sposób zgodny z ich misją. Atrakcyjna jest również zachęta finansowa.

Oceniając na podstawie własnych celów, osoby sprawdzające fakty wydają się umiarkowanie zadowolone z partnerstwa, oceniając je średnio na 3,5 na 5. Gdyby to była recenzja Yelp, restauracja nie byłaby obowiązkowa, ale też nie byłaby miejscem, w którym można by ryzykować zatrucie pokarmowe.

Wydają się być podobnie zadowoleni (3,5 na 5) z płatności, które otrzymują od Facebooka za swoją pracę — podczas gdy dokładne kwoty nie są ogólnie dostępne i różnią się w zależności od wykonanej pracy, Factcheck.org ujawnił, że otrzymali palindromiczny 188 881 dolarów z Facebooka w roku podatkowym 2018 .

Osoby weryfikujące fakty są mniej przekonane, że partnerstwo pomogło ich organizacjom znaleźć twierdzenia, które w przeciwnym razie nie pojawiłyby się tak szybko (3 na 5). I nie są pewni, czy pomogło im to zmniejszyć zasięg oszustw wirusowych (2,9 na 5), ​​co jest centralnym punktem komunikacji sieci społecznościowej na temat tego, co powinno osiągnąć partnerstwo.

Najważniejszym pytaniem dla partnerów pozostaje to, że uważają, że firma nie informuje opinii publicznej wystarczająco o tym, jak działa partnerstwo. Średnio zgodność ze stwierdzeniem „Facebook dostarcza wystarczającej ilości informacji o tym partnerstwie ze społeczeństwem” wynosiła nędzne 2,2 na 5.

Jedna z osób sprawdzających fakty zauważyła, że ​​Facebook „powinien wykonać lepszą robotę, informując nas i opinię publiczną, w jaki sposób wykorzystali naszą pracę do ukarania złych aktorów na platformie”.

Inni mają nadzieję, że Facebook rozszerzy współpracę o WhatsApp, aplikację do szyfrowania wiadomości, którą nabyła w 2014 roku.Brazylia, Indie orazNigeria.

„Zwalczanie dezinformacji to stale ewoluujący problem i przyjmuje wielokierunkowe podejście z całej branży” – powiedziała Meredith Carden, szefowa partnerstwa ds. integralności wiadomości na Facebooku, w e-mailu do Poynter. „Jesteśmy zaangażowani w walkę z tym za pomocą wielu taktyk, a praca wykonywana przez zewnętrzne podmioty weryfikujące fakty jest cennym i ważnym elementem tego wysiłku — uwielbiamy współpracować z nimi w naszym wspólnym celu”.

Data, data, data

Przez większość czasu trwania ich partnerstwa z Facebookiem jedyne liczby, na które weryfikujący fakty mogli wskazać, jeśli chodzi o ich wpływ, to „80 procent” i „trzy dni”.

Pierwszym z nich jest średni spadek zasięgu posta po oznaczeniu go jako fałszywy przez weryfikację faktów(Facebook potwierdził w e-mailu do Poyntera, że ​​liczba jest nadal dokładna). Drugi to czas trwania tego procesu. Obie zostały uzyskane przez BuzzFeed News w październiku 2017 r. z wycieku e-maila.

Te ograniczone informacje od dawna nękają zarówno relacje między Facebookiem a jego partnerami weryfikującymi fakty, jak i jego publiczny odbiór.

Tym razem w zeszłym roku, sprawdzanie faktówpowiedział Poynterbyli zaniepokojeni brakiem przejrzystości ze strony Facebooka o tym, jak ich praca wpłynęła na rozpowszechnianie dezinformacji na platformie. Na czerwcowym Globalnym Szczycie Weryfikującym Fakty kierownik produktu Tessa Lyons obiecał, że firma poradzi sobie lepiej.

A ostatnio weryfikatorzy faktów zaczęli otrzymywać spersonalizowane raporty z Facebooka, które bezpośrednio określają ilościowo ich pracę.

W jednym z takich raportów, które Poynter uzyskał od jednego z partnerów firmy zajmujących się sprawdzaniem faktów, Facebook wymienia kilka bardziej szczegółowych danych, w tym: ilu użytkowników otrzymało powiadomienia o udostępnieniu fałszywych treści, odsetek użytkowników, którzy nie udostępnili czegoś ani razu został oznaczony jako fałszywy i ile stron z powiadomieniami otrzymało za zamieszczenie wprowadzającej w błąd treści.

Dane odnoszą się do pracy, którą każdy weryfikator faktów przesyła za pośrednictwem pulpitu Facebooka i oferuje trzymiesięczny wgląd w to, jak ta praca wpłynęła na rozpowszechnianie odpowiednich dezinformacji. (Poynter nie mógł opublikować treści raportu ani kto dostarczył go w protokole).

Jednak nie wszyscy weryfikujący fakty zaczęli otrzymywać te raporty. I nie udostępniono opinii publicznej żadnych ogólnych danych określających, jak skuteczny był projekt sprawdzania faktów Facebooka w ograniczaniu rozprzestrzeniania się dezinformacji.

Naturalnej wielkości wycięcia z dyrektorem generalnym Facebooka, Markem Zuckerbergiem, ubranym w koszulki „Fix Fakebook” są wyświetlane przez grupę Avaaz, na południowo-wschodnim trawniku Kapitolu na Kapitolu w Waszyngtonie, wtorek, 10 kwietnia 2018 r., przed pojawieniem się Zuckerberga przed wspólnym przesłuchaniem Senackich Komisji Sądownictwa i Handlu. (Zdjęcie AP/Carolyn Kaster)

Badanie z Uniwersytetu Stanforda we wrześniu stwierdził, że interakcje użytkowników z treściami oznaczonymi jako fałszywe wiadomości gwałtownie spadły od grudnia 2016 r. ( inne najnowsze badania miał podobne wyniki). Według podstawowych analiz zPoynteroraz Wiadomości BuzzFeed , chociaż pojedyncze weryfikacje faktów wydają się ograniczać przyszły zasięg fałszywych postów, suma nie jest tak zachęcająca.

Facebook powiedział Poynterowi w e-mailu, że w nowym roku chce udostępnić więcej statystyk na zewnątrz.Szybkie spojrzenie na dane z BuzzSumo, narzędzia do pomiaru mediów społecznościowych, ujawniło mieszane wyniki za 2018 r.

Aby zobaczyć, które historie były najbardziej angażujące na Facebooku w 2018 r., wyszukaliśmy słowa kluczowe dla niektórych najważniejszych wydarzeń politycznych — w tym „Parkland” i „karawana” w USA, „atentado Bolsonador” (aby ujawnić informacje o brazylijskim prezydencie elekcie który został dźgnięty podczas kampanii) i „żółtych kamizelek” („żółte kamizelki”) we Francji. Odkryliśmy, że chociaż większość postów w pierwszej dziesiątce pochodzi z głównych serwisów informacyjnych, dezinformacja, wątpliwa satyra i treści hiperpartyjne wciąż się przebijały.

Na przykład, dziewiąty najbardziej angażujący artykuł o karawanie migrantów w 2018 r. pochodzi z The Daily Wire i twierdzi, że jedna trzecia migrantów była chora na HIV, gruźlicę i ospę wietrzną. ( Snopy oraz Fakt polityczny oboje ocenili to głównie jako fałszywe).

Szukając historii związanych ze strzelaniną w liceum w Parkland na Florydzie, Poynter odkrył, że jedno fałszywe twierdzenie o ocalałej Emmie Gonzalez, która przebiła się do pierwszej dziesiątki, gromadząc prawie 500 000 zleceń od momentu publikacji — pomimo PolitiFact ocenił to jako fałszywe .

Ostatnio z 10 najlepszych artykułów na temat protesty „żółtych kamizelek” we Francji co najmniej dwa były wątpliwe. Adrien Sénécat, dziennikarz z Le Monde's Les Décodeurs, powiedział Poynterowi w e-mailu, że jedna z historii była „myląca” satyra i jeden artykuł został ponownie opublikowany z hiperpartyzantowej strony, która paraje się teoriami spiskowymi.

W Brazylii 10 najpopularniejszych artykułów o zadźganiu nożem prezydenta elekta Jaira Bolsonaro nie zawierało rażących oszustw, a jedna weryfikacja faktów z Boatos.org sporządził listę.

ARTYKUŁ POWIĄZANY: Osoby sprawdzające fakty zdemaskowały tę witrynę z fałszywymi wiadomościami 80 razy. Nadal publikuje na Facebooku.

Są to przybliżone obserwacje, zebrane z szybkiego wyszukiwania BuzzSumo — ale wskazują, że dezinformacje o ogromnym zasięgu mogą nadal prześlizgnąć się przez projekt sprawdzania faktów Facebooka. Perspektywa bardziej systematycznej analizy partnerstwa Facebooka w zakresie weryfikacji faktów jest na horyzoncie, ale musi poczekać na czasochłonny proces badań naukowych.

I tu pojawia się Social Science One. Projekt, który: ogłoszony jej partnerstwo z Facebookiem w kwietniu obiecuje opublikować więcej informacji o tym, jak sprawdzanie faktów i dezinformacje funkcjonują na platformie. Facebook dostarczy dane; naukowcy przeprowadzą badania.

Nastąpiło to po miesiącach próśb ze strony społeczności weryfikującej fakty i akademickiej, chcących zrozumieć, czy i jak wpływa na to zgłaszanie fałszywych wiadomości na Facebooku.

Wnioski o wnioski Social Science One zostały zamknięte w listopadzie. Poynter skontaktował się z ponad 35 naukowcami zainteresowanymi dezinformacją, a ci, którzy odpowiedzieli, że zgłosili się do Social Science One, powiedzieli, że nie chcą rozmawiać o swoich propozycjach, dopóki nie zostaną ogłoszeni zwycięzcy.

Nate Persily, profesor Stanford Law School, który pomaga w prowadzeniu projektu, powiedział, że partnerstwo najprawdopodobniej ogłosi zwycięzców tegorocznego zaproszenia do składania wniosków w styczniu.

„Otrzymujemy propozycje z całego świata” – powiedział Poynter. „To jest zarówno piękno, jak i wyzwanie naszego przedsięwzięcia tutaj, które polega na tym, że dane z Facebooka, jeśli zostaną przeanalizowane, mogą odpowiedzieć na niektóre z wielkich pytań ludzkiego społeczeństwa”.

Persily powiedział, że projekt Social Science One jest odpowiedzią na problem Facebooka Cambridge Analytica, w którym prywatne dane milionów użytkowników były wykorzystywane bez ich zgody do celów politycznych. Zwycięscy badacze będą przeglądać dane z Facebooka w bezpiecznym panelu online, a następnie publikować swoje wyniki — bez żadnych umów NDA lub presji finansowej, odkąd Social Science One jest finansowany przez różne niezależne fundacje.

„Chociaż z natury trudno jest pracować z firmą, która jest obecnie pod bardziej wnikliwą kontrolą niż jakakolwiek inna firma na świecie”, powiedział Persily, „Nie widziałem, aby stawiali na naszej drodze przeszkody motywowane troską o wizerunek. ”

Droga naprzód

Kiedy jeden z partnerów Facebooka zajmujących się sprawdzaniem faktów, The Weekly Standard, oznaczył artykuł ThinkProgress jako fałszywy we wrześniu,rozpętało się piekło. Spór koncentrował się wokół pozornie semantycznego pytania: jak dosłownie ludzie powinni traktować nagłówek ThinkProgress, w którym nominowany do Sądu Najwyższego Brett Kavanaugh „powiedział, że zabije Roe przeciwko Wade ?

Ale porażka zwróciła uwagę na kilka ważnych pytań dotyczących roli projektu weryfikacji faktów Facebooka: Po co to naprawdę? Czy chodzi o posprzątanie narkotycznych oszustw wirusowych o rekinach pływających po drogach międzystanowych? A może celować we wszystkie niedokładne informacje?

Akademicka analiza dziesiątek tysięcy linków, które zostały już oznaczone, powinna przynajmniej dać odpowiedź, w jaki sposób produkt był do tej pory wykorzystywany przez weryfikatorów — jakie treści zostały obniżone i w jakim stopniu. Osoby weryfikujące fakty widzą kolejny powód, by pozostać zaangażowanym; Dzięki Facebookowi mogą wykonać więcej pracy.

ARTYKUŁ POWIĄZANY: Hiperpartyzacyjne grupy na Facebooku to kolejne duże wyzwanie dla sprawdzających fakty

„Największą korzyścią jest posiadanie zasobów pozwalających na więcej sprawdzania faktów” – powiedział Kiely z Factcheck.org. „W marcu zatrudniliśmy drugą osobę do projektu na Facebooku i w tym momencie produkujemy wiele dobrych historii, które obalają dezinformację na ważne tematy”.

Problem polega na ulepszeniu narzędzia do usuwania postów, które nie mają nic wspólnego z twierdzeniami o nowościach, oraz do terminowego powiadamiania osób sprawdzających fakty podczas najświeższych wiadomości. Kiely powiedział, że chciałby, aby Facebook mógł usprawnić swój proces powiadamiania, aby dezinformacja o takich rzeczach jak wybory 2020 i masowe strzelaniny nie pozostawały niekontrolowane przez długi czas.

„Nadal dodajemy nowe zabezpieczenia do naszego holistycznego podejścia, takie jak rozszerzenie sprawdzania faktów na zdjęcia i filmy, nowe techniki, takie jak wykrywanie podobieństwa, które zwiększają wpływ sprawdzania faktów i ulepszenia naszych modeli uczenia maszynowego, które mogą pomóc nam wykryć więcej rodzaje fałszywych treści i złych aktorów bardziej efektywnie” – powiedział Carden. „Mimo to wiemy, że jest to wysoce wrogi problem i będzie wymagał długoterminowej inwestycji, w którą jesteśmy zaangażowani”.

1 maja 2018 r. zdjęcie pliku, dyrektor generalny Facebooka, Mark Zuckerberg, wygłasza przemówienie programowe na F8, konferencji deweloperów Facebooka w San Jose w Kalifornii (AP Photo/Marcio Jose Sanchez, File)

Następnie pojawiają się obawy co do ogólnej zdolności projektu do skalowania do samej ilości dezinformacji na Facebooku.

„Chciałbym, aby narzędzie w dalszym ciągu było bardziej wydajne w filtrowaniu odpowiedniego rodzaju wątpliwych elementów w celu sprawdzenia faktów” – powiedział Derek Thomson, szef obserwatorów France 24, który był jednym z pierwszych weryfikujących fakty na Facebooku poza Stanami Zjednoczonymi. wzmacniacz. „Niepokoi mnie skala tego. Myślę, że zawsze będziemy mieli trudności z radzeniem sobie z ogromną ilością fałszywych i wątpliwych informacji w Internecie, a skończymy na tym, że zobaczymy armie sprawdzających fakty, wykonujących tę pracę.

Jak dotąd najlepszą szansą na uzyskanie dokładnego obrazu tego, jak sprawdzanie faktów i dezinformacja działa na Facebooku, wydaje się być Social Science One. I chociaż projekt powoli przesiewa propozycje w formie papierowej (Persily powiedział, że było to jak „prędkość rakiety” w akademickim harmonogramie), to, co zdobędą zwycięskie propozycje badawcze w przyszłym miesiącu, może zmienić przyszłość partnerstwa firmy technologicznej w zakresie sprawdzania faktów.

„Chcemy mieć pewność, że mamy zaufanie opinii publicznej i społeczności naukowej, zapewniając, że robimy to we właściwy sposób” – powiedział Persily. „Jeśli zrobimy to dobrze, otworzy to wszelkiego rodzaju potencjalne badania. Dlatego musimy się upewnić, że robimy to dobrze, a nie szybko”.

W międzyczasie Thomson powiedział, że nie może się doczekać otrzymywania spersonalizowanych raportów dotyczących danych, które zaczęli otrzymywać inni partnerzy Facebooka zajmujący się sprawdzaniem faktów. Ale dopóki firma nie zacznie publikować danych dotyczących całego projektu, niemożliwe jest ostateczne zmierzenie sukcesu partnerstwa.

„Coś, o czym mówię z Facebookiem za każdym razem, gdy z nimi rozmawiamy, to to, że chcielibyśmy mieć lepsze poczucie wpływu, jaki narzędzie ma na użytkowników Facebooka” – powiedział. „Wiem, że bardzo trudno jest podać twarde liczby dla liczby osób, które widzą powiązane historie dotyczące oflagowanego przedmiotu, ale chciałbym mieć pojęcie o postępie wpływu”.

Zapytany o to, gdzie jego zdaniem współpraca Facebooka w zakresie sprawdzania faktów nastąpi za rok, Kiely odpowiedział, że dla niego wszystkie oczy są zwrócone na wybory w USA w 2020 roku.

„Ten projekt nie istniałby, gdyby nie powódź dezinformacji, która krążyła na Facebooku podczas kampanii w 2016 roku” – powiedział. „Byłoby głupotą nie zastosować lekcji z ostatnich dwóch lat do cyklu kampanii 2020”.