Kompensasjon For Stjernetegn
Betydende C -Kjendiser

Finn Ut Kompatibilitet Med Stjernetegn

Wikipedia-hærverk kan hindre hoax-busting på Google, YouTube og Facebook

Faktasjekking

I et kort øyeblikk støttet California Republican Party nazismen. Det var i hvert fall det Google sa.

Det er fordi noen vandaliserte Wikipedia-siden for partiet 31. mai for å liste «nazisme» sammen med ideologier som «konservatisme», «markedsliberalisme» og «fiskalkonservatisme». Feilen ble fjernet fra søkeresultatene med Google avklarende til Vice News at søkemotoren ikke hadde klart å fange hærverket i Wikipedia-oppføringen.

Google har lenge trukket på nettleksikonet for å legge til grunnleggende informasjon til søkeresultater. I følge redigeringsloggen for California GOP-siden, noen la til 'nazisme' til partiets ideologiseksjon rundt 7:40 UTC den 31. mai. Redigeringen ble fjernet i løpet av et minutt, men det ser ut til at Googles algoritme skrapet siden akkurat i tide for det falske.

'Noen ganger vandaliserer folk offentlige informasjonskilder, som Wikipedia, noe som kan påvirke informasjonen som vises i søk,' sa en talsperson for Google til Poynter i en e-post. 'Vi har systemer på plass som fanger opp hærverk før det påvirker søkeresultatene, men av og til kommer feil gjennom, og det er det som skjedde her.'

Wikimedia Foundation, en ideell organisasjon som driver Wikipedia, ga også en uttalelse på Twitter.

Ifølge Google er mer enn 99,9 prosent av Wikipedia-redigeringene som vises i kunnskapspaneler, som viser grunnleggende informasjon om søkbare søkeord øverst i resultatene, ikke hærverk. Brukeren som forfattet den opprinnelige redigeringen til California GOPs side brukte ikke en brukerprofil , noe som gjør dem vanskelige å spore opp.

Det er en vanlig taktikk blant folk som vandaliserer Wikipedia-sider, en praksis den ideelle organisasjonen har dokumentert omfattende . Men gitt volumet av redigeringer som er gjort på Wikipedia — ca 10 per sekund , med 600 nye sider per dag – og det faktum at Facebook og YouTube nå trekker fra dem for å gi mer kontekst til innlegg, er potensialet for og effekten av misbruk høy.

'Selvfølgelig er det en ganske svak måte å bekjempe falske nyheter fordi Wikipedia ikke er en pålitelig kilde til informasjon - som til og med Wikipedia erkjenner,' sa Magnus Pharao Hansen , en postdoktor ved Københavns Universitet, i en melding til Poynter. 'Wikipedia er veldig sårbart for svindel og inneholder all slags feilinformasjon, så det er ikke en veldig seriøs måte å bekjempe problemet med oppdiktede nyheter.'

Hansen har redigert Wikipedia-sider i omtrent 10 år og sa at hærverk er vanlig på plattformen. Antall redaktører har avtatt de siste årene, mens nettpartisaner har i økende grad rettet mot plattformen — et problem det kom til hodet under Gamergate-kontroversen i 2014. Det er egentlig et tallspill.

Det er langt unna hvor Wikipedia var i 2005 , da en studie fant at den var omtrent like nøyaktig som Britannica. Og det gjør det vanskeligere for frivillige redaktører å bekjempe vandalisme i stor skala på Wikipedia, noe som ikke lover godt for å bruke det til å bekjempe feilinformasjon på andre plattformer.

'Det er absolutt mye feil informasjon på Wikipedia, og mye av det kommer til å forbli,' sa Hansen. «Ofte skriver noen en artikkel, og det kan ta år før noen kommer og redigerer den. Folk gjør ikke faktasjekker med mindre noe ser ut som det virkelig er malplassert.»

En oppdiktet Wikipedia-artikkel bodde på nettstedet i et tiår før de ble slettet i 2015.

Samtidig har plattformen vist seg motstandsdyktig mot den typen hoax som jevnlig går viralt Facebook og Twitter . Wikimedia anslår at omtrent 2,5 prosent av daglige redigeringer er hærverk, og Samantha Lien, en kommunikasjonssjef for Wikimedia, pekte på en algoritme som automatisk flagger tvilsomme redigeringer som en nøkkelsuksess for integritetsarbeidet.

'Artikler har en tendens til å gi en balansert fremstilling av fakta, og siden har vist seg motstandsdyktig mot falske nyheter og feilinformasjon frem til dette punktet,' sa hun til Poynter i en e-post. 'Vi har også jobbet med frivillige redaktører de siste par årene for å bygge og forbedre modereringsverktøy for raskt å identifisere og adressere hærverk på Wikipedia.'

Utover Wikipedias egne begrensninger, er tekniske plattformers egne systemer ofte gjenstand for feil og kontroverser - spesielt kunnskapspaneler.

Også 31. mai, et søk etter en Donald Trump-støttende republikansk senator i North Carolina dukket opp et bilde av henne med 'storhet' skrevet over bunnen. I januar fant The Daily Caller ut at Google feilaktig la til faktasjekker til innholdet og ikke til andre utsalgssteder. Det førte til at teknologiselskapet suspenderte funksjonen til den løste feilene.

Google fortalte Poynter at den ikke endrer søkeresultater manuelt for å vise preferanse for en part fremfor en annen. Men dens algoritmer spilles regelmessig av svindel , falske annonser og troll som prøver å endre søkeresultater. Og disse problemene kan utvide seg til andre plattformer som lenker til Wikipedia.

'Når flere medieplattformer bruker innhold fra Wikipedia ukritisk, øker det innsatsen - både for de som ville villede eller lure og for de som ville spre kunnskap,' sa Hansen. 'Jeg tror, ​​spesielt med koblinger til Wikipedia fra YouTube-videoer om konspirasjonsteorier, som kan ha effekten av å trekke inn feil publikum.'

I mars, YouTube annonsert at den ville lenke direkte til Wikipedia-sider i videobeskrivelser for å gi mer kontekst og avkrefte virale konspirasjonsteorier, som går ofte viralt etter siste nyheter. Disse 'informasjonssignalene' - som ble introdusert på plattformen uten Wikipedias viten — vil inkludere en kort linje om kilden og en lenke til Wikipedia-siden.

Den funksjonen har ikke blitt rullet ut ennå, men YouTube introduserte en lignende i februar som gir mer kontekst til nyhetsorganisasjoner som mottar penger fra den amerikanske regjeringen.

Youtube

(Skjermdump fra YouTube)

Gitt den økte synligheten til Wikipedia-sider, kan det tenkes at vandaler kan strømme til plattformen for å trolle flere plattformer med én redigering.

«Hacking av Wikipedia har alltid vært et problem, men det var et problem som bare virkelig påvirket leserne av Wikipedia. Nå er det enda farligere ettersom plattformene i økende grad automatisk trekker fra Wikipedia,” sa Claire Wardle, administrerende direktør i First Draft, i en e-post til Poynter. 'For agenter av desinformasjon som ønsker maksimal forsterkning, gir enhver teknikk som sikrer at plattformer eller redaksjoner vil gjenta seg og derfor legitimerer en usannhet, en uforholdsmessig 'avkastning på investeringen.'

Til tross for å tjene som en kilde for flere plattformer, har ikke Wikipedia sett en økning i hærverk, sa Lien. Men å se hvordan tilleggene tok organisasjonen på vakt, er det usikkert hvordan de vil påvirke Wikipedia-sidenes integritet.

'Trenden med teknologiselskaper som bruker Wikipedia for å løse problemer med feilinformasjon på sine egne plattformer er nytt territorium for oss, og vi vet ikke hva de fulle implikasjonene vil være,' sa hun. «På kort sikt følger vi nøye med på hvordan dette påvirker Wikipedia og vårt globale fellesskap av frivillige. Vi har ikke sett noe som tyder på et bredere problem med hærverk til dags dato.»

Men selv om det var en økning i Wikipedia-hærverk med den hensikt å endre resultatene på plattformene, sa Lien at organisasjonen ikke ville ha noen måte å vite det.

'Vi har ikke tilgjengelige data som kan indikere trender innen hærverk med den eksplisitte hensikten å manipulere andre plattformer,' sa hun.

Så hvor sannsynlig er det at mer feilinformasjon vil komme inn på andre plattformer? Joseph Reagle, en førsteamanuensis i kommunikasjon ved Northeastern University og en Wikipedia-ekspert, sa til Poynter at selv om det ikke er mulig å vite det uten de riktige overvåkingssystemene på plass, kan strukturen som er satt opp gjøre feilinformasjon mer synlig – selv når den ikke er laget for å spille. plattformer som Google og Facebook.

'Ja, dette er sannsynlig, og jeg tror det kommer til å bli enda mer sannsynlig ettersom disse for-profit-selskapene fortsetter å hoppe på bølgen,' sa han. 'I Google-saken tror jeg ikke det var meningen med redigeringen å forurense Wikipedias nedstrømsbrukere, men det var fortsatt effekten. Det faktum at Wikipedia brukes av disse nedstrøms aggregatorene vil også gjøre Wikipedia til mer et mål, noe som er et problem.'

Likevel, selv om det krymper, har Wikipedia fortsatt et engasjert fellesskap av redaktører som har År med erfaring håndtering av artikler om siste nytt. Nathan Matias, en postdoktor ved Princeton University, fortalte Poynter i en e-post at feilinformasjon sannsynligvis ikke vil gli gjennom sprekkene ofte på grunn av dette fellesskapet.

Men i utkanten av nettstedet øker denne sjansen betydelig.

'I saker med siste nyheter, der aktivister av alle slag har utviklet måter å påvirke plattformalgoritmer raskere enn journalistikkens hastighet, forventer jeg at Wikipedia vil være mer motstandsdyktig mot påvirkning,' sa han. 'Risikoen for Wikipedia og plattformer vil være større i utkanten av kunnskap og oppmerksomhet, siden det er vanskeligere å oppdage en liten strøm av mennesker som har tilgang til lavprofilert ekstremistisk materiale.'

Til tross for utfordringene ser noen eksperter på teknologiske plattformer som linker til Wikipedia-sider som et skritt fremover for å motvirke feilinformasjon på nettet.

Eni Mustafaraj, assisterende professor i informatikk ved Wellesley College, fortalte Poynter i en e-post at tillegget av Wikipedia til store teknologiske plattformer er et positivt trekk. Men det kommer med forbehold.

'De må gjøre dette konsekvent, og ikke bare for å bekjempe feilinformasjon eller svindel eller konspirasjonsteorier,' sa hun. 'For å bekjempe feilinformasjon, bør vi ikke sette Facebook og Google over ansvaret, fordi det var dem som forverret problemet i utgangspunktet.'

Samtidig kan det å fjerne informasjon fra Wikipedia fra plattformen i seg selv forvirre leserne. Hansen sa at det å se lenker til nettstedet fra sosiale medieplattformer, selv om de er godt merket, ikke vil fremkalle den samme typen skepsis som er iboende hos Wikipedia-brukere.

«Leseren vet ikke at dette er fra Wikipedia. Den slags introduserer et lag der du ikke kan være sikker på kilden til informasjonen, sa han. 'Folk er skeptiske når de er på Wikipedia - du kan se når det ikke er noen kilde ... når du er på en annen plattform, er du ikke oppmerksom på den slags ting.'

Så er det spørsmålet om båndbredde. Ettersom redaksjonen fortsetter å avta, vil Wikipedia kanskje vurdere å ansette heltidsansatte som har som jobb å overvåke hærverk og sikre at det ikke sprer seg til andre plattformer. Hansen sa at han synes den ideelle organisasjonen burde opprette en intern faktasjekkingsenhet eller oppfordre ekspertredaktører og akademikere til å veie inn på noen av de mer nyanserte sidene.

'Jeg tror det er den eneste måten å bekjempe desinformasjon på Wikipedia,' sa han.

I det minste foreslo Lien at tekniske plattformer som bruker Wikipedia for å motvirke feilinformasjon gir tilbake til den ideelle organisasjonen på en eller annen måte - et poeng som Wikimedias administrerende direktør Katherine Maher argumenterte i. en fersk artikkel for Wired . (Facebook og YouTube er ikke inkludert blant Wikimedias største velgjørere.)

'Vi oppfordrer selskaper som bruker Wikipedias innhold til å gi tilbake i samme ånd av bærekraft,' sa hun. 'Ved å gjøre det, vil de slutte seg til de millioner av individer som hjelper til for å holde Wikipedia sterk og blomstrende.'

Og Matias var enig.

'Hvis bedrifter forventer å stole på enorme mengder ubetalt og ofte psykologisk tyngende arbeidskraft fra Wikipedianere og Wikimedia Foundation for å løse noen av deres tøffeste problemer, må de finne måter å støtte dette arbeidet på samtidig som de beskytter Wikipedias intellektuelle uavhengighet,' sa han.