Toen het nieuwe coronavirus eerder dit jaar zijn weg over de wereld begon te vinden, verspreidde zich daarnaast een epidemie van online desinformatie. Bedrijven ontkenden het coronavirus – soms onbedoeld.

Volksgezondheidsfunctionarissen waarschuwden dat geruchten en complottheorieën, inclusief valse beweringen dat 5G-technologie het virus veroorzaakte of dat bleekmiddel het zou kunnen genezen, levens zouden kosten. Socialmediabedrijven kwamen onder toenemende druk te staan ​​om het probleem te bestrijden, dat hun platforms lange tijd heeft geteisterd. Een Facebook-boycot die de afgelopen weken door honderden grote adverteerders werd georganiseerd vanwege verkeerde informatie en haatzaaiende uitlatingen op de site, te midden van wijdverspreide demonstraties tegen racisme en politiegeweld, versterkte die druk.

Toen COVID-19 toesloeg, begonnen platforms nieuwe maatregelen te implementeren: samen met regeringen en de Wereldgezondheidsorganisatie om nauwkeurige informatie te verstrekken. Zo introduceerden ze waarschuwingssystemen voor verkeerde informatie, verwijderden ze meer inhoud dan ooit, in toenemende mate door het gebruik van algoritmen.

Hoewel grote sociale-mediabedrijven enigszins uiteenlopen in hun benadering van inhoudsmoderatie tijdens een pandemie, te midden van burgerlijke onrust en in het licht van onbeheerste, haatzaaiende uitlatingen, voeren ze allemaal hun inspanningen op om online verkeerde informatie te verwijderen. Maar die inspanningen zouden onbedoelde gevolgen kunnen hebben, zeggen activisten, voor onderzoekers en advocaten die de verspreiding van informatie online bestuderen en die internet gebruiken om conflicten en mensenrechtenschendingen te documenteren en te volgen.

“Platformen staan ​​onder grote druk om veel meer inhoud te verwijderen dan voorheen met veel minder middelen”, zegt Jeff Deutch, een onderzoeker bij het Syrian Archive, een niet-gouvernementele organisatie die documentatie van mensenrechtenschendingen in Syrië en elders verzamelt en bewaart.

Geautomatiseerde tools kunnen niet concurreren

Maar de geautomatiseerde tools kunnen niet concurreren met mensen als het gaat om een genuanceerd oordeel, en zijn volgens mensenrechtenonderzoekers slecht toegerust om de context te analyseren. Dergelijke systemen zijn grotendeels niet in staat om beeldmateriaal van oorlogsmisdaden te onderscheiden van extremistische propaganda.

Zo werden de Facebook-posts van de Syrische burgerjournalist Mohammed Asakra die conflicten en onrecht in het land documenteerden duizenden kilometers ver gevolgd door mensenrechtenactivisten. Maar begin mei verdween Asakra’s Facebookprofiel, verstrikt in het moderatieweb.

“Nadat we dit hebben onderzocht, zijn we deze accounts aan het herstellen en zullen we onze processen blijven onderzoeken en blijven kijken hoe we ons beleid in dit geval kunnen aanpassen”, zei Facebook-vertegenwoordiger Drew Pusateri in een e-mail.

Op YouTube waren in mei bijna twee keer zoveel Syrische mensenrechtenrelevante video’s niet beschikbaar in vergelijking met dezelfde periode vorig jaar, op basis van gegevens uit het Syrian Archive.

Ondertussen zei Zuckerberg in juni dat het bedrijf advertenties zou verbieden die haatzaaiende uitlatingen bevatten, naast andere voorgestelde wijzigingen. Artificial Intelligence (AI) zou een rol kunnen spelen bij deze maatregelen, hoewel menselijke ogen “een belangrijke rol zullen blijven spelen bij het beoordelen van inhoud op Facebook”, zei Pusateri.

Facebook zei in een verklaring dat het in april “waarschuwingslabels had geplaatst op ongeveer 50 miljoen stukjes inhoud met betrekking tot COVID-19 op Facebook”. De betrokken tools waren “verre van perfect”, erkende het bedrijf.

In april was het Syrian Archive één van de meer dan 40 organisaties die een open brief schreven aan sociale media platforms voor het delen van inhoud, zoals YouTube, Facebook en Twitter, met het argument dat gegevens over inhoud die tijdens de pandemie zijn verwijderd ‘van onschatbare waarde zullen zijn voor degenen die werken in de volksgezondheid, mensenrechten, wetenschap en de academische wereld.”

Content die relevant is voor de mensenrechten “mag niet permanent worden verwijderd”, zei Dia Kayyali van Witness, een niet-overheids-organisatie die het gebruik van technologie promoot om de mensenrechten te beschermen.

Hoewel geautomatiseerde moderatie van online content de afgelopen weken een bijzonder urgente kwestie is geworden in de Verenigde Staten, is het al jaren een omstreden kwestie, vooral in Europa.

In 2017 ontstonden nieuwe zorgen, toen mensenrechtenonderzoekers “honderdduizenden video’s” werden verwijderd”, zei Deutch. Europese wetgevers hebben vorig jaar een richtlijn aangenomen die – eenmaal geïmplementeerd door leden – meer druk zal uitoefenen op platforms om geüploade content automatisch te scannen.

De nieuwe regels leidden vorig jaar tot een onwaarschijnlijke alliantie onder hun Europese tegenstanders, variërend van de rechtse Poolse regering, die de regels “analoog aan preventieve censuur” noemde, tot duizenden liberale demonstranten in de straten van Berlijn.

Europese wetgevers zijn ook doorgegaan met contentregels voor terrorismebestrijding, met mogelijke wereldwijde repercussies. In sommige voorstellen wordt het gebruik van geautomatiseerde moderatietools voorgesteld, wat een berisping is van drie speciale VN-rapporteurs, die in een gezamenlijke verklaring in 2018 betoogden dat dit “het risico van censuur vóór publicatie” zou vergroten.

De boodschap van de rapporteurs was volgens Stanford-onderzoeker Daphne Keller dat “het gebruik van filters in deze context, nieuwsrapportages zal verwijderen. Het zal tegenreacties onderdrukken. Het gaat dingen verwijderen zoals het Syrian Archive.”