De Ronde Tafel Desinformatie kwam voor de derde keer bijeen bij Beeld & Geluid Den Haag. In deze bijeenkomst lag de focus op het Digital Services Act en de Code of Practice in relatie tot online desinformatie. Paddy Leerssen (UvA), Kim van Sparrentak (Europarlementariër voor GroenLinks) en Edo Haveman (Vertegenwoordiger van Meta) waren uitgenodigd om te vertellen over hun inzichten omtrent de invoering van de DSA en de relatie daarvan met het tegengaan van online desinformatie. Zara Toksöz begeleidde de sessie. Vanuit Internet Society Nederland zijn voorzitter Ruben Brave alsmede dr. Jean Wagemans en dr. Federica Russo van de Universiteit van Amsterdam en de ISOC NL MMGA Working Group betrokken bij de Ronde Tafel Desinformatie.
Paddy Leerssen gaf als postdoctorale onderzoeker aan de Faculteit der Rechtsgeleerdheid en expert in Informatierecht aan de UvA een presentatie over de Digital Services Act en de Code of Practice. Zie ook zijn presentatie bij EENvandaag.
De Digital Services Act gaat het volgende inhouden:
1. Het reguleert online tussenpersonen
2. Het geeft géén nieuwe inhoudsnormen; het zijn daarentegen procedures voor inhoudsmoderatie
3. Het geeft zorgplichten voor grote online platforms
4. Het streeft naar betere transparantie d.m.v. moderatie rapporten, advertentie-archieven en toegang tot data.
Ook de Strengthened Code of Practice on Disinformation 2022 werd besproken. In tegenstelling tot de DSA is de Code of Practice geen wet, maar een stel afspraken tussen verschillende platforms en de commissie, specifiek ingesteld op desinformatie.
De expertgroep was benieuwd naar het nut van de DSA, welk probleem het zou oplossen en wat de rol van de overheid daarin zou zijn. Hierbij werd opgemerkt dat het censureren van desinformatie een versterking van verkeerde vooroordelen kan veroorzaken, waardoor het effect van desinformatie juist krachtiger wordt. Opties die overwogen zouden kunnen worden om desinformatie op grote platforms tegen te gaan zijn demonitariseing van de desbetreffende (desinformatie)posts, of het toevoegen van een factcheck. Het beleid van de DSA verplicht hierbij dat dergelijke regels kenbaar worden gemaakt aan de gebruiker van deze platforms. Ook zullen er Trusted Flaggers worden ingezet. Dit is een expertise-partij die voorrang krijgt bij het maken van meldingen over illegale content (bijv. hate speech, meldpunt discriminatie, politie meldpunt, seksueel misbruik, etc).
Vervolgens werd er een panelgesprek gehouden tussen de uitgenodigde sprekers, waarbij het publiek vragen mocht stellen over de DSA en de Code of Practice.
Enkele argumenten en bevindingen:
● Naleving van de DSA door grote platformen
Het is belangrijk dat grote platforms verantwoordelijkheid nemen over wat zich op hun platforms verspreidt. De DSA is hiervoor een belangrijke eerste stap. Maar er moet ook gekeken worden naar preciezere, bindende regels over de verspreiding van desinformatie. Platforms moeten alleen in hun jaarlijkse geauditeerde zelf-assessments meenemen hoe ze voldoen aan de vrijwillige afspraken in de Code of Practice on Disinformation. De ideeën daarin zijn in principe goed, maar nog te vaag om platforms daar echt aan te kunnen houden.
● De oorsprong van desinformatie
Complexe ontwikkelingen worden soms teruggevoerd naar de technologie die erachter zit. Het algoritme wordt hierbij vaak als enige dader van desinformatie aangewezen. De situatie is echter ingewikkelder – niet al deze problemen kunnen worden toegeschreven aan de algoritmes van een platform. Toch blijft het belangrijk om te kijken naar de mechanismen achter grootschalige verspreiding van online desinformatie.
● Data vrijgeven aan onderzoekers
Er is een grote behoefte aan data voor onderzoekers. Er zijn wetten die de toegang tot data in bepaalde gevallen compliceren, bijv. de privacywet (die bijvoorbeeld niet toestaan dat data voor andere doeleinden verwerkt wordt dan waarvoor het voorheen is aangevraagd). Het vrijgeven van data aan onderzoekers is een verlichting onder de DSA. De vraag blijft echter hoe dat er concreet uit gaat zien en of effectieve toegang gehandhaafd gaat worden.
● Betrokkenheid van de overheid in de DSA
Wellicht moet er meer worden gekeken naar de burgers en hoe zij zich kunnen verweren tegen desinformatie i.p.v. wat de overheid moet doen om desinformatie tegen te gaan. Iedereen heeft een verantwoordelijkheid om na te denken over hoe desinformatie verspreidt.
● Subsidiëren van kwaliteitskranten
Het succes van desinformatie komt niet enkel door algoritmes, maar vooral vanwege dialogische nodes bij de eindgebruikers van een platform. Hoe geef je deze eindgebruikers toegang tot goede informatie? Misschien moeten we niet verbieden wat we niet willen, maar subsidiëren wat we wel willen, bijv. door subsidie voor kwaliteitskranten. Publiek geld zou publieke waarden moeten ondersteunen, dus ook nieuwsmedia die controleerbaar zijn en ter verantwoording kunnen worden geroepen (in tegenstelling tot Facebook).
Tot slot zijn de deelnemers verdeeld in twee groepen om te bespreken wat zij van platforms (en andere stakeholders) zouden willen in de aanpak van desinformatie, en in hoeverre de DSA daar kansen toe biedt. Enkele van de bevindingen en wensen die naar voren kwamen: voor onderzoekers zou het gewenst zijn om een database te hebben van berichten die als desinformatie zijn bestempeld, waarin bijvoorbeeld staat wie de informatie deelt, wie erop reageert, wie er in de desinformatie-fuik zit, welke accounts en berichten worden geshadowbanned, en hoe algoritmes geprofileerd zijn om in te spelen op heftige emoties. Ook werd er aangegeven dat er aansprakelijkheid moet zijn van grote platforms voor hun ontwerpprocessen, zodat het duidelijk wordt hoe deze ontwerpprocessen starten en waar de optimalisaties precies zitten. Tevens werd er aangegeven dat meer onderzoek nodig is naar de het ontstaan, de werking en de verspreiding van desinformatie.