Övertyga algoritmer med en AI Nudge

Faktakontroll kan minska spridningen av opålitliga nyheter. Det kan också göra motsatsen.

(det här inlägget visades ursprungligen på civilservant.io)

Läsare av r / worldnews på reddit rapporterar ofta tabloidnyheter till de frivilliga moderatorerna och ber dem att förbjuda tabloider för deras sensationella artiklar. Dessa utsmyckade berättelser fångar människors ögon, lockar kontroverser och märks av reddits rankingalgoritm, som sprider dem ytterligare.

Att förbjuda tabloid-nyheter kan avsluta denna feedback-slinga, men gemenskapens moderatorer motsätter sig filtförbud. För att lösa detta pussel behövde moderatorer svara på en fråga i hjärtat av debatter om så kallade ”falska nyheter”: hur kan vi bevara bidragsgivarnas frihet och samtidigt påverka människors ömsesidiga beteende och algoritmer till förmån för samhället?

I vinter samarbetade moderatorer med CivilServant för att testa en idé: vilka är effekterna av att uppmuntra faktakontroll på svaret på opålitliga nyheter? Vi ville se hur r / worldnews-samhället skulle reagera. Vi observerade också effekten på reddits ranking. Om reddits algoritmer tolkar faktaundersökning som popularitet, kan opålitliga artiklar spridas ytterligare.

Tabloid-nyheter är ungefär 2,3% av alla inlämningar till denna 15 miljoner abonnentgemenskap som diskuterar nyheter utanför USA. I r / worldnews granskar 70 moderatorer ungefär 450 artiklar per dag och tillåter 68% av dessa artiklar att vara kvar. Eftersom det är en standard-subreddit får de flesta reddit-läsare världsnyheter genom den här gruppen. Medan gemenskapens räckvidd är dvärg av Facebook, kan r / worldnews vara den största enskilda gruppen för att diskutera världsnyheter var som helst på det engelsktalande internet. Till och med små effekter i detta samhälle kan göra en stor skillnad i hur miljoner människor känner av potentiellt otillförlitlig information om världen.

I vår studie från 27 november till 20 januari testade vi A / B meddelanden som uppmuntrar samhället att fakta kontrollera och rösta på nyheter om tabloid. Så här hittade vi:

Effekten av att uppmuntra faktakontroll på gemenskapens beteende

Inom diskussioner om tabloid-inlägg om r / worldnews, uppmuntrande faktakontroll ökar incidensen av kommentarer med länkar med i genomsnitt 2x, och att uppmuntra faktakontroll + röstning har en liknande effekt.

Effekten av att uppmuntra faktakontroll på Reddits algoritmer

Genom att observera över 24 timmar fann vi också att i genomsnitt klibbiga kommentarer som uppmuntrade faktakontroll orsakade en 2x minskning av reddit-poängen för tabloid-inlagor, en statistiskt signifikant effekt som sannolikt påverkade rankningen i subreddit. När vi också uppmuntrade läsarna att rösta försvann denna effekt.

AI Nudges: övertala algoritmer under bevarande av frihet

Våra frågor om tabloidnyheter lägger till en algoritmisk dimension till en klassisk frågeformulär: hur kan människor med makt arbeta mot allmänt intresse samtidigt som begränsningarna för individuell frihet minimeras?

vi kan övertyga algoritmer om att bete sig annorlunda genom att övertyga människor att bete sig annorlunda.

På internet lär folk sig leva med AI-system som de inte kan kontrollera. Till exempel justerar Uber-förare sin körning för att optimera sina inkomster. Vårt kollektiva beteende påverkar redan AI-system hela tiden, men hittills saknar allmänheten information om vad detta inflytande faktiskt är. Dessa ogenomskinliga resultat kan vara ett problem när algoritmer spelar nyckelroller i samhället, som hälsa, säkerhet och rättvisa. För att lösa detta problem utformar vissa forskare system för samhället i slingan [4]. Andra utvecklar metoder för att granska algoritmer [5] [6]. Men ingen av metoderna erbjuder ett sätt att hantera det dagliga beteendet hos system vars kod vi inte kan kontrollera. Vår studie med r / worldnews erbjuder en tredje riktning; vi kan övertyga algoritmer om att bete sig annorlunda genom att övertyga människor att bete sig annorlunda.

Vissa människor kanske undrar om detta experiment utgör röstmanipulation, vilket strider mot reddit politik. Våra klisterlappar bryter inte med några av reddits regler för personlig vinst (vi skapade inte heller falska konton, berättade för folk hur man skulle rösta eller organisera ett omröstningsblock). Men vi visade att uppmuntra människor till faktakontroll hade en systematisk effekt på reddits algoritmer.

Idén om ”AI nudges” ger oss ett sätt att tänka på pro-sociala ansträngningar att påverka mänskligt och maskinligt beteende samtidigt som vi bevarar individuell frihet. Richard Thaler och Cass Sunstein föreslog först "nudges" som sätt för institutioner att utöva sin makt medan de bevarar individuell frihet [7]. Jämfört med att förbjuda tabloid-nyheter är AI-nudgen att uppmuntra faktakontroll den lättaste handlingen som moderatorer kan vidta. Ingen persons förmåga att dela nyheter, kommentera eller rösta tas bort, men AI-nudgen dämpar fortfarande spridningen av opålitliga nyheter.

Som Sunstein och Thaler påpekar är det inte alltid uppenbart om dessa lätta beröringsinsatser kommer att få det önskade resultatet. Det är därför vi systematiskt ska testa deras effekter, särskilt eftersom otestade system kan ha oväntade resultat.

AI Nudges styrning och etik

Nudges från regeringar och sociala experiment med online-plattformar lockar ofta liknande kritik. Jag tror att människor har rätt att förvänta sig ansvar från dem som utövar nudging power. Genom att arbeta med frivilliga moderatorer har jag kunnat arbeta med större nivåer av öppenhet och ansvarsskyldighet än vad som är typiskt för social datoranvändning. Alla CivilServant-studier är utformade med och av moderationsteam, och alla resultat avslöjas först för samhället i en subreddit-debriefing. Våra studieutformningar listas offentligt i Open Science Framework innan vi börjar, och all vår kod är open source. Fullständig analysinformation är också offentlig, så vem som helst kan kontrollera våra slutsatser. Det enda vi håller tillbaka är faktiska uppgifter, eftersom vi respekterar integriteten för alla inblandade.

Sammantaget är jag hoppfull att AI-nudges, särskilt när de leds av samhällen själva, erbjuder en spännande riktning för allmänheten att hantera algoritmernas roll i samhället och samtidigt bevara individens frihet.

Hur studien fungerade

För detta test startade moderatorer med en lista med nyhetskällor som ofta får klagomål. Från 27 november till 20 jan tilldelade vi slumpmässigt varje ny tabloidlänk till ett av tre villkor: (a) ingen klibbig kommentar, (b) en klibbig kommentar som uppmuntrar skepsis, (c) en klibbig kommentar som uppmuntrar skepsis + röstning (fullständig information här ).

Vi publicerade det här meddelandet högst upp i tabloid-nyhetsdiskussioner

Den andra uppmuntrar människor att fakta-kontrollera artikeln och överväga att stämma ner länken om de inte kan hitta stöd för sina påståenden:

Det andra meddelandet uppmuntrade människor att överväga nedröstning

Kan fakta-kontrollera beteende påverka Hur reddits algoritmer ser opålitliga nyheter?

Medan vi var övertygade om att läsare från r / worldnews skulle hjälpa till om moderatorer frågade, undrade vi också: om vi ökar kommentarerna om nyheter om tabloid, kanske vi av misstag orsakar reddits algoritmer för att marknadsföra dessa tabloidlänkar?

Om faktaundersökning ökade populariteten hos opålitliga nyhetskällor, kan samhället behöva tänka om var de ska ansträngas. Det är därför moderatorerna testade en andra klibbig kommentar, den som uppmuntrar läsarna att överväga nedröstning.

För att testa effekten av de klibbiga kommentarerna på reddits algoritmer, samlade CivilServant-programvaran data om poängens poäng var fjärde minut. Plattformen publicerar inte exakt vad som går in i poängen eller exakt hur dess ranking fungerar (frågade jag). Vi kunde dock på ett tillförlitligt sätt förutsäga den subreddit HOT-sidrankningen för ett inlägg från dess ålder och poäng (fullständig information här). I grund och botten, om faktakontroll hade en stor effekt på en artikelns poäng, så hade det antagligen en effekt på en artikels ranking över tid på subreddit-förstasidan. Jag testade detta på två sätt: genom att jämföra poängen efter 24 timmar och genom att modellera förändringar i poängen över tid.

Jag använde en negativ binomial modell för att testa effekten på poäng efter 24 timmar. Eftersom reddits algoritmer stod under vårt experiment, uppmuntrade faktakontroller att tabloid-inlagor fick 49,1% (2,04x lägre) poängen för inlämningar utan klibbig kommentar, efter 24 timmar, i genomsnitt i r / worldnews. Effekten är statistiskt signifikant. I den här modellen kunde jag inte hitta en effekt från de klibbiga kommentarerna som uppmuntrade läsarna att överväga nedröstning.

Jag testade också effekten av faktaundersökning på tillväxthastigheten för ett posts resultat över tid. För att ställa denna fråga passar jag en slumpmässig avlyssning av linjär regressionsmodell på den logtransformerade poängen för en post var fjärde minut. Jag fann att uppmuntrande faktakontroll gör att poängtillväxthastigheten blir lägre. Här fann jag att uppmuntrande omröstning faktiskt har en liten positiv effekt på tillväxthastigheten i poäng över tid, i genomsnitt. Eftersom vi körde experimentet under en förändring av reddits algoritmer i början av december 2016, fann jag också att effekten av dessa klibbiga kommentarer på reddits algoritmer kan ha förändrats efter att reddit justerade dess algoritmer (detaljer).

Vem hjälpte till att kontrollera nyhetsartiklarna?

Av 930 icke-bot-kommentarer med länkar som moderatorer tillät kvar, bidrog 737 användarkonton länkar till ytterligare bevis. Av dessa gjorde 133 konton mer än en kommentar med länkar. Många har faktiskt kontrollerat sina egna inlagor, där inlämnarna skickade 81 kommentarer för ytterligare information.

Vad kan vi inte veta från den här studien?

Det här testet tittar på resultaten inom diskussioner snarare än enskilda konton, så vi kan inte veta om enskilda personer var övertygade om att vara mer skeptiska, eller om de klibbiga kommentarerna föranledde redan skeptiska personer att undersöka och dela. Jag har inte heller några bevis för effekten av faktakontroll på läsarna, även om annan forskning tyder på att faktaundersökning påverkar läsarnas övertygelse [2] [3].

Denna studie kan inte berätta för oss mycket om varför vi ser en så stor förändring i algoritmiska effekter när vi ändrar meddelandet genom att uppmuntra läsarna att överväga nedröstning. Denna skillnad kan vara ett exempel på vad psykologer kallar "reaktans", ett motstånd mot förslag från myndighet. Eller om nyhetsmeddelanden oroar sig för att deras länkar kan bli nedröstade, kan de be om hjälp, vilket balanserar läsarnas beteende.

Skulle detta fungera med andra typer av länkar, i andra subreddits eller på andra webbplatser? Denna studie är begränsad till ett specifikt samhälle och en lista över webbplatser. Medan jag misstänker att många stora online-läsarsamhällen skulle hjälpa fakta-kontrollera länkar om moderatorer frågade, är våra resultat om reddit-algoritmen mycket mer belägna.

Vi kan svara på dessa frågor om fler subreddits beslutade att prova liknande experiment. Om du är intresserad, kontakta mig på reddit för att diskutera körning av ett liknande experiment och registrera dig för e-postuppdateringar.

Läs mer om detta experiment

Min doktorand involverar att stödja samhällen för att testa effekterna av deras egen moderationspraxis. Jag designade detta experiment tillsammans med r / worldnews-moderatorer, och det godkändes av MIT-kommittén för användning av människor som experimentella ämnen. Om du har några frågor eller funderingar, vänligen kontakta natematias på redditmail.

Detta experiment, liksom all min forskning på reddit hittills, genomfördes oberoende av reddit-plattformen, som inte hade någon roll i planeringen eller utformningen av experimentet. Experimentet har ännu inte granskats. Alla resultat från CivilServant publiceras offentligt tillbaka till de berörda samhällena så snart resultaten är redo, med akademiska publikationer som kommer senare.

Fullständiga detaljer om experimentet publicerades i förväg i en föranalysplan på osf.io/hmq5m/. Om du är intresserad av statistiken har jag publicerat analysens fullständiga detaljer.

referenser

[1] Salganik, M. J., & Watts, D. J. (2008). Att leda besättningen på villspor: En experimentell studie av självuppfyllande profetior på en konstgjord kulturell marknad. Socialpsykologi kvartalsvis, 71 (4), 338–355.

[2] Stephan Lewandowsky, Ullrich K. H. Ecker, Colleen M. Seifert, Norbert Schwarz och John Cook. Misinformation och dess korrigering Fortsatt påverkan och framgångsrik debiasing. Psykologisk vetenskap i allmänhetens intresse, 13 (3): 106–131, december 2012.

[3] Thomas Wood och Ethan Porter. Den svårfångade backfire-effekten: Mass Attitudes ”stadiga faktiska efterlevnad. SSRN Scholarly Paper ID 2819073, Social Science Research Network, Rochester, NY, augusti 2016.

[4] Rahwan, Iyad (2016) Society-in-the-Loop: Programmering the Algorithmic Social Contract. Medium

[5] Christian Sandvig, Kevin Hamilton, Karrie Karahalios och Cedric Langbort. 2014. Revisionsalgoritmer: Forskningsmetoder för att upptäcka diskriminering på internetplattformar. Data och diskriminering: Konvertering av kritiska frågor till produktiv undersökning, International Meeting Association årsmöte, 2014

[6] Diakopoulos, N., & Koliska, M. (2016). Algoritmisk öppenhet i nyhetsmediet. Digital journalistik, 1–20.

[7] Thaler, R. H., & Sunstein, C. R. (2003). Libertarian paternalism. American Economic Review, 93 (2), 175–179.