Dowiedz Się Kompatybilności Za Pomocą Znaku Zodiaku
Wandalizm z Wikipedii może udaremnić oszustwa w Google, YouTube i Facebooku
Sprawdzanie Faktów

Przez krótką chwilę Kalifornijska Partia Republikańska popierała nazizm. Przynajmniej tak powiedział Google.
To dlatego, że 31 maja ktoś zdewastował stronę Wikipedii dla partii, aby umieścić „nazizm” obok ideologii takich jak „konserwatyzm”, „liberalizm rynkowy” i „konserwatyzm fiskalny”. Błąd został usunięty z wyników wyszukiwania przez Google wyjaśniam Vice News że wyszukiwarka nie wyłapała wandalizmu z wpisu w Wikipedii.
Jeśli wyszukujesz w Google „California Republicans”, Google wymienia „nazizm” jako jedną z ideologii. pic.twitter.com/JblamxkyF7
— Eric Wilson (@ericwilson) 31 maja 2018 r.
Google ma dawno naciągnięty encyklopedia online służąca do dołączania podstawowych informacji do wyników wyszukiwania. Według dziennik edycji dla strony California GOP, ktoś dodał „nazizm” do sekcji ideologii partii około godziny 7:40 UTC 31 maja. Zmiana została usunięta w ciągu minuty, ale wygląda na to, że algorytm Google zeskrobał stronę w samą porę, aby sfałszować.
„Czasami ludzie niszczą publiczne źródła informacji, takie jak Wikipedia, które mogą wpływać na informacje pojawiające się w wyszukiwarce” – powiedział Poynter w e-mailu rzecznik Google. „Mamy systemy, które wyłapują wandalizm, zanim wpłynie on na wyniki wyszukiwania, ale czasami pojawiają się błędy i tak właśnie się stało”.
Fundacja Wikimedia, organizacja non-profit, która prowadzi Wikipedię, również wydała oświadczenie na Twitterze.
Panel wiedzy Google jest wynikiem ujawnionego wandalizmu przez @Wikipedia artykuł dzisiaj. Oto więcej informacji o tym, co się wydarzyło i w jaki sposób przeciwdziała się wandalizmowi na Wikipedii. pic.twitter.com/fcoaK2DsXq
— Wikimedia (@Wikimedia) 1 czerwca 2018 r.
Według Google ponad 99,9 procent zmian w Wikipedii, które pojawiają się w Panelach wiedzy, które wyświetlają podstawowe informacje o wyszukiwanych słowach kluczowych u góry wyników, nie stanowią aktów wandalizmu. Użytkownik, który jest autorem oryginalnej edycji strony California GOP nie korzystałeś z profilu użytkownika , co utrudnia ich wyśledzenie.
Jest to wspólna taktyka wśród ludzi, którzy niszczą strony Wikipedii, jest to praktyka organizacji non-profit obszernie udokumentowane . Ale biorąc pod uwagę ilość zmian wprowadzanych na Wikipedii — około 10 na sekundę , z 600 nowymi stronami dziennie — i faktem, że Facebook i YouTube korzystają teraz z nich, aby zapewnić więcej kontekstu postom, potencjalne nadużycia i ich skutki są wysokie.
„Oczywiście jest to dość słaby sposób na zwalczanie fałszywych wiadomości, ponieważ Wikipedia nie jest wiarygodnym źródłem informacji — jak przyznaje nawet Wikipedia” — powiedział. Magnus Pharao Hansen , badacz z tytułem doktora habilitowanego na Uniwersytecie w Kopenhadze, w przesłaniu do Poyntera. „Wikipedia jest bardzo podatna na oszustwa i zawiera wszelkiego rodzaju dezinformacje, więc nie jest to bardzo poważny sposób walki z problemem sfabrykowanych wiadomości”.
Hansen redaguje strony Wikipedii od około 10 lat i powiedział, że wandalizm jest powszechny na platformie. Liczba redaktorów zmalała w ostatnich latach, podczas gdy partyzanci online coraz częściej celował w platformę — problem, który doszedł do głowy podczas kontrowersji Gamergate w 2014 roku. To w zasadzie gra liczbowa.
To daleko od gdzie Wikipedia była w 2005 roku , kiedy badania wykazały, że jest tak dokładny jak Britannica. Utrudnia to redaktorom-ochotnikom walkę z wandalizmem na dużą skalę na Wikipedii, co nie wróży dobrze dla wykorzystania jej do zwalczania dezinformacji na innych platformach.
„Z pewnością w Wikipedii jest wiele błędnych informacji i wiele z nich zostanie” – powiedział Hansen. „Często ktoś pisze artykuł i mogą minąć lata, zanim ktoś przyjdzie i go zredaguje. Ludzie nie sprawdzają faktów, chyba że coś wygląda na naprawdę nie na miejscu”.
Jeden sfabrykowany artykuł w Wikipedii mieszkał na stronie przez dekadę, zanim został usunięty w 2015 roku.
Jednocześnie platforma okazała się odporna na oszustwa, które regularnie stają się wirusowe Facebook oraz Świergot . Szacunki Wikimedia że około 2,5 procent codziennych edycji to akty wandalizmu, a Samantha Lien, menedżer ds. komunikacji w Wikimedia, wskazała na algorytm, który automatycznie oznacza wątpliwe zmiany jako kluczowy sukces w działaniach na rzecz uczciwości.
„Artykuły zwykle zapewniają wyważoną reprezentację faktów, a witryna okazała się odporna na fałszywe wiadomości i dezinformacje do tego momentu” – powiedziała Poynterowi w e-mailu. „W ciągu ostatnich kilku lat współpracowaliśmy również z redaktorami-wolontariuszami, aby zbudować i ulepszyć narzędzia do moderowania, aby szybko identyfikować i zwalczać wandalizm w Wikipedii”.
Poza ograniczeniami Wikipedii, własne systemy platform technologicznych są często przedmiotem błędów i kontrowersji — zwłaszcza paneli wiedzy.
Również 31 maja poszukiwania republikańskiego senatora popierającego Donalda Trumpa w Północnej Karolinie pojawił się obraz jej z „bigotem” napisanym na dole. W styczniu The Daily Caller odkrył, że Google niesłusznie dołącza weryfikację faktów do swojej treści, a nie do innych punktów sprzedaży. To spowodowało, że firma technologiczna zawiesiła tę funkcję, dopóki nie rozwiąże błędów.
Google powiedział Poynterowi, że nie zmienia ręcznie wyników wyszukiwania, aby pokazać preferencje jednej ze stron względem drugiej. Ale jego algorytmy są regularnie oszukiwane przez mistyfikacje , fałszywe reklamy oraz trolle chcące zmienić wyniki wyszukiwania. A te problemy mogą rozciągać się na inne platformy łączące się z Wikipedią.
„Kiedy więcej platform medialnych bezkrytycznie wykorzystuje treści z Wikipedii, podnosi to stawkę – zarówno dla tych, którzy wprowadzaliby w błąd lub oszukiwali, jak i dla tych, którzy rozpowszechnialiby wiedzę” – powiedział Hansen. „Myślę, że szczególnie w przypadku linków do Wikipedii z filmów na YouTube o teoriach spiskowych, może to spowodować przyciągnięcie niewłaściwego tłumu”.
W marcu, YouTube ogłoszony że będzie zawierał bezpośrednie linki do stron Wikipedii w opisach filmów, aby zapewnić więcej kontekstu i obalić wirusowe teorie spiskowe, które często stają się wirusowe po wydarzeniach z ostatniej chwili. Te „wskazówki informacyjne” — które zostały wprowadzone na platformie bez wiedzy Wikipedii — będzie zawierać krótką linijkę o źródle i link do swojej strony w Wikipedii.
Ta funkcja nie została jeszcze wdrożona, ale YouTube wprowadził podobną w lutym, która zapewnia więcej kontekstu organizacjom informacyjnym, które otrzymują pieniądze od rządu USA.

(Zrzut ekranu z YouTube)
Biorąc pod uwagę zwiększoną widoczność stron Wikipedii, można sobie wyobrazić, że wandale mogą gromadzić się na platformie, aby trollować wiele platform za pomocą jednej edycji.
„Hakowanie Wikipedii zawsze było problemem, ale był to problem, który w rzeczywistości wpłynął tylko na czytelników Wikipedii. Teraz jest to jeszcze bardziej niebezpieczne, ponieważ platformy coraz częściej automatycznie czerpią z Wikipedii” – powiedziała Claire Wardle, dyrektor wykonawczy First Draft, w e-mailu do Poyntera. „Dla agentów dezinformacji, którzy chcą maksymalnego wzmocnienia, każda technika, która zapewnia, że platformy lub redakcje będą się powtarzać, a tym samym uzasadniają fałsz, zapewnia nieproporcjonalny„ zwrot z inwestycji ”.”
Mimo że Wikipedia służy jako źródło dla większej liczby platform, nie odnotowała wzrostu wandalizmu, powiedział Lien. Ale widząc, jak dodatki zaskoczyły organizację, nie wiadomo, jak dokładnie wpłyną na integralność stron Wikipedii.
„Tendencja firm technologicznych wykorzystujących Wikipedię do rozwiązywania problemów z dezinformacją na własnych platformach jest dla nas nowym obszarem i nie wiemy, jakie będą pełne konsekwencje” – powiedziała. „W krótkim okresie ściśle monitorujemy, jak wpływa to na Wikipedię i naszą globalną społeczność wolontariuszy. Do tej pory nie widzieliśmy niczego, co wskazywałoby na problem wandalizmu na szerszą skalę”.
Ale nawet jeśli nastąpiłby wzrost wandalizmu na Wikipedii z zamiarem zmiany wyników na platformach, Lien powiedział, że organizacja nie miałaby możliwości dowiedzenia się.
„Nie mamy dostępnych danych, które wskazywałyby na trendy wandalizmu z wyraźnym zamiarem manipulowania innymi platformami” – powiedziała.
Jakie jest więc prawdopodobieństwo, że więcej dezinformacji trafi na inne platformy? Joseph Reagle, profesor nadzwyczajny ds. komunikacji na Northeastern University i ekspert Wikipedii, powiedział Poynterowi, że chociaż nie ma sposobu, aby wiedzieć, bez odpowiednich systemów monitorowania na miejscu, struktura, która została skonfigurowana, może sprawić, że dezinformacja będzie bardziej widoczna — nawet jeśli nie jest stworzona do gry platformy takie jak Google i Facebook.
„Tak, jest to prawdopodobne i myślę, że stanie się to jeszcze bardziej prawdopodobne, ponieważ te firmy nastawione na zysk wciąż będą skakać na modę” – powiedział. „W przypadku Google nie sądzę, aby intencją tej edycji było skażenie dalszych użytkowników Wikipedii, ale nadal był to efekt. Fakt, że Wikipedia jest używana przez tego rodzaju agregatory niższego szczebla, sprawi również, że Wikipedia stanie się bardziej celem, co jest powodem do niepokoju”.
Mimo to, chociaż się kurczy, Wikipedia wciąż ma zaangażowaną społeczność redaktorów, którzy mają lata doświadczenia obsługa artykułów o najświeższych wiadomościach. Nathan Matias, pracownik naukowy ze stażem podoktoranckim na Uniwersytecie Princeton, powiedział Poynterowi w e-mailu, że dezinformacja prawdopodobnie nie będzie często wymykać się przez szczeliny z powodu tej społeczności.
Ale na obrzeżach witryny ta szansa znacznie wzrasta.
„W przypadku najświeższych wiadomości, w których wszelkiego rodzaju aktywiści opracowali sposoby wpływania na algorytmy platformy szybciej niż prędkość dziennikarstwa, spodziewam się, że Wikipedia będzie bardziej odporna na wpływy” – powiedział. „Ryzyko dla Wikipedii i platform będzie większe na granicy wiedzy i uwagi, ponieważ trudniej jest dostrzec niewielki strumień osób uzyskujących dostęp do niskoprofilowych materiałów ekstremistycznych”.
Pomimo wyzwań niektórzy eksperci postrzegają platformy technologiczne łączące strony Wikipedii jako krok naprzód w zwalczaniu dezinformacji w Internecie.
Eni Mustafaraj, adiunkt informatyki w Wellesley College, powiedział Poynterowi w e-mailu, że dodanie Wikipedii do dużych platform technologicznych jest pozytywnym posunięciem. Ale ma zastrzeżenia.
„Muszą to robić konsekwentnie, a nie tylko w celu zwalczania dezinformacji, oszustw czy teorii spiskowych” – powiedziała. „Aby walczyć z dezinformacją, nie powinniśmy powierzać Facebooka i Google’owi władzy, ponieważ to one przede wszystkim zaostrzyły problem”.
Jednocześnie pobieranie informacji z Wikipedii z platformy może z natury dezorientować czytelników. Hansen powiedział, że oglądanie linków do witryny z platform mediów społecznościowych, nawet jeśli są one dobrze oznaczone, nie wywoła tego samego rodzaju sceptycyzmu, który jest nieodłączny wśród użytkowników Wikipedii.
„Czytelnik nie wie, że to pochodzi z Wikipedii. Ten rodzaj wprowadza warstwę, w której nie można być pewnym źródła informacji” – powiedział. „Ludzie są sceptyczni, gdy są na Wikipedii – możesz zobaczyć, kiedy nie ma źródła… kiedy jesteś na innej platformie, nie jesteś wyczulony na tego typu rzeczy”.
Następnie pojawia się kwestia przepustowości. Ponieważ redakcja wciąż spada, Wikipedia może rozważyć zatrudnienie pełnoetatowych pracowników, których zadaniem jest monitorowanie wandalizmu i zapobieganie rozprzestrzenianiu się na inne platformy. Hansen powiedział, że uważa, że organizacja non-profit powinna stworzyć wewnętrzną jednostkę weryfikującą fakty lub poprosić redaktorów ekspertów i naukowców, aby zastanowili się nad niektórymi bardziej szczegółowymi stronami.
„Myślę, że to jedyny sposób na walkę z dezinformacją w Wikipedii” – powiedział.
Lien zasugerował przynajmniej, że platformy technologiczne, które wykorzystują Wikipedię do przeciwdziałania dezinformacji, w jakiś sposób zwracają się do organizacji non-profit – argumentowała dyrektor wykonawcza Wikimedia, Katherine Maher. niedawny artykuł dla Wired . (Facebook i YouTube nie są wliczone wśród najlepszych dobroczyńców Wikimedia).
„Zachęcamy firmy, które korzystają z treści Wikipedii, aby odwdzięczały się w tym samym duchu zrównoważonego rozwoju” – powiedziała. „Robiąc to, dołączyliby do milionów osób, które przyłączają się, aby utrzymać silną i prosperującą Wikipedię”.
I Matias się zgodził.
„Jeśli firmy spodziewają się polegać na ogromnych ilościach nieodpłatnej i często obciążającej psychologicznie pracy Wikipedii i Fundacji Wikimedia, aby rozwiązać niektóre z ich najtrudniejszych problemów, muszą znaleźć sposoby na wsparcie tej pracy, jednocześnie chroniąc intelektualną niezależność Wikipedii” – powiedział.