EU verordening ter voorkoming van de verspreiding van online terroristische inhoud

Uit Wikimedia
(Doorverwezen vanaf TERREG)
Naar navigatie springen Naar zoeken springen

Achtergrond

De verordening ter voorkoming van de verspreiding van online terroristische inhoud (regulation on preventing the dissemination of terrorism content online) is samen met de in 2019 geaccepteerde EU richtlijn inzake auteursrechten in de digitale eengemaakte markt onderdeel van een moderniseringsslag van de Europese wetgeving inzake het Europese auteursrecht.

De in 2019 geaccepteerde EU richtlijn rondom auteursrechten geeft vooral regels en richtlijnen voor het verdienmodel rondom auteursrechten (de markt): de makers, de auteurs en de kunstenaars, en de online platforms die zij gebruiken om hun werk te laten zien aan de wereld.

Dit tweede voorstel gaat om misbruik voor terroristische doeleinden en stelt in regels voor hoe online platforms met terroristische content om moet gaan.

Doelstelling

De voorgestelde verordening komt er in het kort op neer dat overheden de verspreiding van terroristische inhoud online tegen kunnen gaan, als onderdeel van de in 2019 al aangenomen Wet op de Digitaal Eengemaakte Markt (de “Europese Auteursrechtenwet”). Deze wet wordt op dit moment in het Nederlandse recht verwerkt, maar er zijn nog geen regels over hoe en wanneer er ingegrepen moet worden bij terroristische content. De belangrijkste doelstelling van deze nieuwe wetgeving is om internetplatforms uniforme regels te geven voor de aanpak van inhoud die in de hele EU als terroristisch wordt beschouwd.

De Wikimedia projecten zetten zich wereldwijd in om neutrale en objectieve informatie te verspreiden, en de gemeenschap zal terroristische content dan ook snel verwijderen. Onze gebruiksvoorwaarden staan ook nu al misbruik van onze diensten voor illegale doeleinden niet toe. Het voorstel dat nu op tafel ligt, gaat echter veel verder dan het niet toestaan of verwijderen van dit soort content.

Voorgestelde maatregelen

De voorgestelde maatregelen zijn onder andere:

  1. bevelen tot verwijdering door de bevoegde autoriteiten - aangegeven inhoud moet binnen 1 uur na ontvangst van een bevel verdwijnen
    1. 1 uur is zeer kort voor kleinere/niet-commerciële platforms en een lidstaat beslist wat de bevoegde autoriteiten zijn - dit kan gebeuren zonder toezicht van de rechterlijke macht.
  2. de bevoegde autoriteiten kunnen het platform vragen om een stuk inhoud dat in strijd is met de gebruiksvoorwaarden te verwijderen.
    1. Dan neemt het platform een beslissing = dat is natuurlijk veel macht voor de private entiteiten en we zien nu al dat ze de neiging hebben om de inhoud te overblocken om aansprakelijkheid te vermijden, van het Syrische Archiefmateriaal[1] tot leermiddelen over de holocaust[2].
  3. proactieve maatregelen - platforms moeten voorkomen dat de terroristische inhoud verschijnt
    1. lang verhaal kort: inhoudsfilters (denk terug aan de nieuwe Europese wetgeving over het auteursrecht, waar dit uiteindelijk niet is doorgevoerd). Deze inhoudsfilters zijn getrainde computers die beslissingen nemen op basis van eerdere acties. Ze kunnen geen onderscheid maken in de intentie van de uploader.
      YouTube heeft zulke filters nu al in gebruik sinds veel werknemers thuis moeten blijven door de COVID-19 maatregelen, en dit heeft negatieve gevolgen voor de inhoud van het platform.[3]

Gevolgen voor de vrijheid van nieuwsgaring, maar ook het schrijven en documenteren hiervan

  1. de definitie maakt geen onderscheid wat betreft de intentie van de publicatie, waardoor belangrijke informatie, nieuws en ander journalistiek materiaal, artistieke expressie of bewijs van mensenrechtenschendingen in gevaar komt. Een video van een terroristische organisatie die wordt geüpload, zal na verwijdering niet opnieuw kunnen worden geupload, bijvoorbeeld voor een nieuwsbericht hierover.
  2. het toepassingsgebied strekt zich uit van platforms die openbare toegang bieden tot inhoud (zoals sociale media: YouTube, maar ook socials als Facebook en Twitter die mensen gebruiken om hun persoonlijke ervaringen te delen), diensten die particuliere opslag of niet-openbare beperkte toegang bieden (denk aan dropbox of G-suite) tot berichtendiensten (van WhatsApp tot Telegram en Signal)
  3. Sociale media is erg belangrijk voor de pers, maar een filter zal geen onderscheid kunnen maken tussen een journalist en een terrorist. Het is een algoritme, en het bericht zal geweigerd worden of snel offline gehaald worden als het algoritme eenmaal getraind is. In het zwartste scenario zullen berichten op de socials offline worden gehaald, en in contact komen met betrokkenen zal niet meer lukken. Achtergrond onderzoek wordt daardoor moeilijk. Verkeer naar de kranten komt vaak vanaf sociale media en zal teruglopen.
Als er geen media meer beschikbaar is, heeft dit ook gevolgen voor een encyclopedie als Wikipedia. Zonder bronnen, geen artikelen.

Tijdspad

Er was een datum voor de trialoog (bijeenkomst van de Raad, Commissie en het Parlement van de EU) vastgesteld voor 18 maart. De onderhandelingen liepen vast en de trialoog-vergadering werd geannuleerd/uitgesteld.

Wat nu?

De Nederlandse media is vrij stil over dit onderwerp. Er is in het Nederlands bijna geen informatie over te vinden, laat staan dat er door de grotere kranten en mediakanalen actief aandacht aan wordt besteed. Terwijl deze regelgeving vanuit Europa ons Nederlandse beeld van de wereld heel sterk zou kunnen beïnvloeden.

Wat we nu vast samen kunnen doen is ons alvast voorbereiden op de volgende stappen vanuit Brussel.

Mochten jullie hier graag verder over willen spreken, dan kunnen jullie een mail sturen aan infowikimedia.nl

Verder leesmateriaal

  1. Meer dan 200.000 beelden uit de Syrische archieven zijn onbeschikbaar op YouTube
  2. Een geschiedenisleraar werd geblokkeerd nadat hij video's van Adolf Hitler op YouTube zette
  3. Youtube weert meer video's nu het systeem afhankelijk is van computergestuurde filters

Externe links