Ter verdediging van Facebook

8 jul 2014 /

Enkele dagen geleden ontstond er heel wat commotie rond een experiment dat Facebook heeft uitgevoerd. De data-analisten van Facebook hebben op experimentele wijze de berichten die gebruikers te zien krijgen gemanipuleerd, om zo te bewijzen dat emoties op sociale netwerksites besmettelijk zijn. Deze studie werd op grote schaal, met meer dan een half miljoen – onwetende – participanten, uitgevoerd. Het nieuws dat Facebook actief de gevoelens van zijn gebruikers heeft gemanipuleerd, zorgde blijkbaar voor heel wat woede. Tal Yarkoni neemt het echter op voor het sociale netwerk, iets wat ook voor hem uitzonderlijk is. In een opiniestuk op zijn blog maakt Yarkoni duidelijk waarom deze woede volgens hem niet helemaal terecht is.

De studie

Vooraleer we dieper ingaan op de redenen van de woede en waarom deze misplaatst is, beschrijven we de studie en zijn resultaten. Volgend fragment is afkomstig uit de paper die de onderzoekers over het experiment schreven:

“The experiment manipulated the extent to which people (N = 689,003) were exposed to emotional expressions in their News Feed. This tested whether exposure to emotions led people to change their own posting behaviors, in particular whether exposure to emotional content led people to post content that was consistent with the exposure—thereby testing whether exposure to verbal affective expressions leads to similar verbal expressions, a form of emotional contagion. People who viewed Facebook in English were qualified for selection into the experiment. Two parallel experiments were conducted for positive and negative emotion: One in which exposure to friends’ positive emotional content in their News Feed was reduced, and one in which exposure to negative emotional content in their News Feed was reduced. In these conditions, when a person loaded their News Feed, posts that contained emotional content of the relevant emotional valence, each emotional post had between a 10% and 90% chance (based on their User ID) of being omitted from their News Feed for that specific viewing.”

Dit is de centrale bevinding van het onderzoek:

facebook_results-1024x980 (1)

Deze figuur toont aan dat – in de experimentele condities – gebruikers meer positieve of negatieve woorden gebruiken in hun status updates, wanneer respectievelijk negatief en positief geladen woorden gecensureerd worden in hun nieuwsoverzicht. Hoe minder negatieve status updates de gebruikers zagen, hoe meer positieve en hoe minder negatieve woorden ze zelf produceerden (in vergelijking met de controlegroep). Omgekeerd leidde een verminderd aantal negatieve berichten er toe dat men meer negatieve en minder positieve woorden ging gebruiken.

Bekeken vanuit hun nominale waarde zijn deze resultaten interessant en informatief. Toch moeten twee punten vermeld worden opdat we de zaken in hun groter geheel zouden zien. Ten eerste zijn deze effecten, hoewel ze in hoge mate statistisch significant zijn, miniem. Het grootste effect dat gerapporteerd werd, had een Cohen’s d van 0,02 – wat wil zeggen dat het elimineren van een substantieel deel van bepaalde emotionele content op het nieuwsoverzicht van de gebruiker, zorgde voor een shift van het eigen emotionele woordgebruik door die gebruiker met twee honderdste van een standaardafwijking. In andere woorden, de manipulatie door Facebook had in de realiteit slechts een verwaarloosbare impact op het gedrag van de gebruikers. Grof gesteld is het effect van de conditie in het Facebook-onderzoek vergelijkbaar met een hypothetische behandeling die de gemiddelde grootte van de Amerikaanse mannelijke populatie met één twintigste van een centimeter zou doen toenemen (bij een standaardafwijking van ongeveer 2,8 centimeter). De bevindingen van de studie zijn dus misschien wel theoretisch interessant, maar niet echt betekenisvol in de praktijk.

Ten tweede wil het feit dat gebruikers in de experimentele omstandigheden iets meer positieve of negatieve boodschappen produceerden, niet zeggen dat ze zich ook werkelijk anders voelden. Het is immers perfect mogelijk – en misschien zelfs waarschijnlijk – dat dit effect gedreven werd door veranderingen in de uiting van ideeën en gevoelens die de gebruikers al ervoeren. Bijvoorbeeld, stel je voor dat ik inlog op Facebook met de intentie een status te schrijven over het feit dat ik een geweldige dag had op het strand met mijn beste vrienden. Beeld je nu in dat, van zo gauw in ingelogd ben, ik zie dat de vader van een kennis is overleden. Het is dan goed mogelijk dat ik twee keer nadenk vooraleer ik mijn eigen bericht zal plaatsen. Niet zozeer omdat ik me zelf triest ben gaan voelen door het nieuws, wel omdat het ongepast lijkt om mijn eigen geluk te vieren, terwijl anderen aan het rouwen zijn. We kunnen dus stellen dat deze subtiele gedragsveranderingen waarschijnlijk wel ontstaan zijn door het zien van andermans emoties, maar we daarom niet kunnen spreken van een echte ‘emotionele besmetting’. De vraag of gebruikers zich werkelijk anders voelen als gevolg van de manipulatie dient dus nog beantwoord te worden.

De bezorgdheden

Laten we nu even kijken naar de belangrijkste kritieken op dit onderzoek. We beginnen met de visie van Katy Waldman, die een stuk schreef getiteld “Facebook’s Unethical Experiment”:

“The researchers, who are affiliated with Facebook, Cornell, and the University of California–San Francisco, tested whether reducing the number of positive messages people saw made those people less likely to post positive content themselves. The same went for negative messages: Would scrubbing posts with sad or angry words from someone’s Facebook feed make that person write fewer gloomy updates?

()

The upshot? Yes, verily, social networks can propagate positive and negative feelings!

The other upshot: Facebook intentionally made thousands upon thousands of people sad.”

Jacob Silverman zei dan weer het volgende in een artikel in The Wire:

“What’s disturbing about how Facebook went about this, though, is that they essentially manipulated the sentiments of hundreds of thousands of users without asking permission (blame the terms of service agreements we all opt into). This research may tell us something about online behavior, but it’s undoubtedly more useful for, and more revealing of, Facebook’s own practices.”

Ook op Twitter waren de reacties op de studies over het algemeen negatief. Heel wat mensen zijn blijkbaar ontdaan over het feit dat Facebook de nieuwsoverzichten van gebruikers op die manier actief kan manipuleren, dat het een invloed heeft op de gevoelens van die gebruikers.

Waarom de zorgen misplaatst zijn

Yarkoni meent dat de zorgen geuit op verschillende media misplaatst zijn, en dit om meerdere redenen. Ten eerste worden de experimentele procedures van de studie veelal verkeerd gekarakteriseerd, en wel in die mate dat we kunnen vermoeden dat de criticasters het artikel waarschijnlijk niet eens gelezen hebben. Vooral de suggestie dat Facebook ‘de emoties van gebruikers heeft gemanipuleerd’ is vrij misleidend. Door dit op deze manier te stellen, lijkt het of Facebook iets specifieks gedaan heeft om bepaalde emoties op te wekken. In de realiteit heeft Facebook echter gewoonweg een variabel aantal statusupdates, die als positief of negatief gedetecteerd waren, bij de gebruikers in de experimentele conditie verwijderd. Laten we dit even herhalen: Facebook verwijderde specifieke content. Het heeft niet, zoals veel mensen klaarblijkelijk denken, inhouden toegevoegd om bepaalde emoties op te wekken. Gegeven het feit dat de meeste content op Facebook vaak al van emotionele aard is – denk aan alle mensen die geboortes, overlijdens en het einde van relaties aankondigen – wordt het bovendien erg moeilijk om te stellen dat Facebook zijn gebruikers met nieuwe risico’s geconfronteerd zou hebben, als het hen toch meer emotionele inhouden had gepresenteerd. Het is dus zeker niet geloofwaardig om te suggereren dat het vervangen van 10 tot 90% van de emotionele content door neutrale boodschappen een potentieel gevaarlijke manipulatie is van de subjectieve ervaring van gebruikers.

Ten tweede is het niet helemaal duidelijk wat de notie van de ‘manipulatie’ van Facebook-gebruikers eigenlijk betekent, aangezien het nieuwsoverzicht altijd een compleet verzonnen omgeving is geweest. Yarkoni hoopt maar dat de mensen die bezorgd zijn over de manipulaties van Facebook in het kader van wetenschappelijk onderzoek, beseffen dat Facebook voortdurend de ervaringen van zijn gebruikers manipuleert. Elke aanpassing die Facebook op de site maakt, verandert immers de gebruikservaring, aangezien er simpelweg geen Facebook-ervaring bestaat die niet volledig door het sociale netwerk geconstrueerd werd. Wanneer je inlogt op de site, zie je geen volledige lijst van alle dingen die je vrienden aan het doen zijn, noch een totaal random lijst van een deel van de gebeurtenissen. In het eerste geval zou je overweldigd raken door alle informatie en in het tweede geval zou je Facebook snel beu zijn. In plaats daarvan krijg je een voorzichtig gecureerde omgeving voorgeschoteld, die op een dergelijke manier is samengesteld opdat het een boeiende ervaring zou zijn (lees: opdat je zo veel mogelijk tijd spendeert op Facebook en zo vaak mogelijk terugkomt). Wat je te zien krijgt wordt bepaald door complexe en steeds veranderende algoritmes, waar je zelf slechts ten dele aan bijdraagt (door aan te geven wat je leuk vindt, wat je wil verbergen, etc.). Het is altijd zo geweest en het is niet duidelijk of het ooit op een andere manier zou kunnen. Yarkoni begrijpt het dan ook niet als mensen – zoals Katy Waldman – sarcastisch zeggen dat “Facebook zichzelf het recht geeft om je slecht gezind te maken door alle positieve en mooie berichten uit het nieuwsoverzicht te halen”. Waar komen al die positieve en mooie berichten dan in de eerste plaats vandaan volgens Waldman? Denkt ze dat deze berichten spontaan in haar nieuwsoverzicht groeien, zonder enige bemoeienis en onnatuurlijke invloed van de Facebook-ingenieurs?

Ten derde, indien men een schaal zou creëren voor de mogelijke motieven voor het manipuleren van het gedrag van gebruikers op sociale netwerksites, met de wereldwijde verbetering van de samenleving aan de ene kant en iets heel slechts aan de andere kant, dan zou het uitvoeren van wetenschappelijk onderzoek bijna zeker veel dichter bij het eerste einde liggen dan andere standaardmotieven op het web zouden doen (zoals mensen meer op advertenties proberen te doen klikken). De realiteit is dat Facebook – en eigenlijk elk ander bedrijf dat sterk aanwezig is online – constant op grote schaal experimenten naar gebruiksgedrag voert. Datawetenschappers en onderzoekers bij Facebook, Twitter en Google doen tientallen, honderdtallen of duizendtallen experimenten per dag, in welke gebruikers voortdurend bepaalde condities toegewezen krijgen. De meeste van deze experimenten zijn echter niet bedoeld om online emotionele besmetting te onderzoeken, maar wel om de inkomsten te helpen te vergroten. Met andere woorden, als je er een probleem mee hebt dat Facebook je probeert te manipuleren, kan je beter je account afsluiten. Oh, en dan stop je best ook met het gebruiken van Google, YouTube, Yahoo, Twitter, Amazon en eender welke andere grote website, want ik kan je verzekeren dat bij elk van deze bedrijven iemand een goed loon krijgt om… inderdaad, jouw gedrag en gevoelens te manipuleren. Dit is nu eenmaal de wereld waarin we leven. Als je dit niet leuk vindt, kan je het internet verlaten of in het minste geval al jouw sociale media-accounts afsluiten, maar opperen dat Facebook onethisch heeft gehandeld door simpelweg de resultaten van één experiment tussen velen te publiceren – en in dit geval dan nog één met een onschuldig opzet, in vergelijking met andere zaken die Facebook doet – is gewoonweg absurd.

Ten vierde is het belangrijk om in het achterhoofd te houden dat er in principe niets slechts is aan het feit dat grote bedrijven mogelijk jouw gedrag en gevoelens trachten te beïnvloeden. Iedereen waarmee je in interactie treedt – met inbegrip van vrienden, familie en collega’s – probeert jouw gedrag op allerlei manieren te manipuleren. Jouw moeder wil dat je meer broccoli eet, jouw vrienden willen dat je mee komt drinken op café, en jouw baas wil dat je langer blijft werken en minder pauzes neemt. We proberen steeds mensen bepaalde dingen te laten voelen, denken of doen, die ze anders niet gevoeld, gedacht of gedaan zouden hebben. De vraag die we moeten stellen is dus niet of mensen ons al dan niet proberen te manipuleren, maar of ze dit doen in lijn of in tegenspraak met jouw eigen belangen. Dat Facebook en consoorten experimenten uitvoeren met de bedoeling jouw emotionele ervaring te veranderen met het oog op winstmaximalisatie, hoeft niet per se een slechte zaak te zijn, zo stelt Yarkoni, als deze bedrijven daarmee tegelijk ook jouw levenskwaliteit verbeteren. Zonder al deze experimenten zouden Facebook, Twitter en Google er waarschijnlijk heel anders uitzien – en vermoedelijk minder aangenaam.

Wat deze zaak extra vreemd maakt, is dat de meeste mensen wel degelijk realiseren dat hun ervaring op Facebook (en op andere websites, op TV, in restaurants, in museums en op eender welke andere plek) voortdurend gemanipuleerd wordt. Yarkoni verwacht dat de meeste mensen die hun beklag deden over de Facebook studie op Twitter, er zich perfect bewust van zijn dat Facebook de gebruikservaring constant verandert – ze zien het nu en dan zelfs met hun eigen ogen gebeuren, wanneer Facebook weer eens een nieuwe interface introduceert. Gezien het feit dat Facebook meer dan een half miljard gebruikers heeft, is het nogal voorspelbaar dat een kleine verandering aan de website een invloed kan hebben op de gevoelens van miljoenen mensen. Toch protesteert hier niemand over, waarschijnlijk omdat het nogal belachelijk klinkt om te stellen dat een bedrijf, wiens business model gebaseerd is op mensen zo veel mogelijk gebruik te doen maken van het product, dan ook werkelijk iets anders zou doen dan gebruikers te manipuleren om het product vaker te gebruiken.

 Een contraproductieve strategie

Bovenstaande opmerkingen hoeven niet per se te betekenen dat men niet bezorgd mag en kan zijn over het onderzoek van Facebook, of over de gigantische en steeds toenemende sociale en politieke invloed die sociale mediabedrijven zoals Facebook hebben. We kunnen ons vast en zeker afvragen of het echt eerlijk is om van gebruikers te verwachten dat zij bij het intekenen op een site zoals Facebook de gebruiksvoorwaarden – tientallen pagina’s vol zware juridische kost – lezen en begrijpen. Of dat het logisch zou zijn om nieuwe regels te introduceren voor bedrijven zoals Facebook, zodat we er zeker van zijn dat ze geen overdreven invloed uitoefenen op het gedrag van hun gebruikers (hoewel dit niet afdwingbaar en een beetje belachelijk zou zijn). Het is zeker niet de bedoeling om Facebook of eender welk ander groot internetbedrijf een vrijgeleide te geven om te doen wat ze willen. Wat Yarkoni echter duidelijk wil maken, is dat het gebruiken van een specifieke studie om jouw  kritiek op Facebook te uiten een extreem schadelijke en contraproductieve strategie is, zelfs wanneer jouw echte zorgen over de bredere sociale en politieke context gaan waarin Facebook opereert.

Denk eens na, wat zal nu de uitkomst zijn van al deze heisa? Hoogstwaarschijnlijk zullen de data-analisten van Facebook hun resultaten niet meer zomaar mogen publiceren in de wetenschappelijke literatuur. Onthoud dat Facebook geen onderzoeksinstantie is op zoek naar meer kennis over de menselijke aard, maar wel een bedrijf met als bestaansreden rijkdom te creëren voor zijn aandeelhouders. Facebook hoeft haar data helemaal niet te delen met de rest van de wereld als zij dat niet wil; Facebook kan heel eenvoudig alle data voor zich houden en uitsluitend voor haar eigen doeleinden aanwenden. Het feit dat Facebook ten minste een deel de tijd van haar data-analisten wil opofferen om wetenschappelijk onderzoek te publiceren, is iets dat aangemoedigd moet worden in plaats van bekritiseerd.

De recente commotie zal Facebook er zonder twijfel niet van zal weerhouden gecontroleerde experimenten uit te voeren op zijn gebruikers, aangezien het A/B-testen nu eenmaal een centrale component is binnen de strategie van eender welk groot internetbedrijf, en eerlijk gezegd, Facebook zou wel gek zijn als het niet empirisch zou proberen te bepalen hoe ze de gebruikservaring kan verbeteren. Dankzij de kritieken, zoals in het Kramer et al artikel, zal de wetenschappelijke wereld waarschijnlijk moeilijker toegang krijgen tot één van de rijkste bestaande databronnen over menselijk gedrag. Voel je zeker vrij om commentaar te leveren op de manier waarop Facebook de inhouden van jouw hart verhandeld, maar het bedrijf aanvallen omdat het wetenschappelijk interessante resultaten van experimenten publiek heeft gemaakt – experimenten die het bedrijf hoe dan ook uitvoert, en die ervoor zorgen dat de gebruikservaring positieve veranderingen ondergaat – zal waarschijnlijk niet leiden tot iets nuttigs. Integendeel, de kritiek zal er alleen maar toe leiden dat alle sociaal relevante experimenten van Facebook in het geheim zullen uitgevoerd worden, zodat niemand van buiten het bedrijf het ooit te weten komt.

Deze bijdrage is een vrije vertaling van het artikel ‘In defense of Facebook’ door Tal Yarkoni op http://www.talyarkoni.org/