In het kort
- India zegt dat socialemediabedrijven illegale dingen binnen drie uur na een melding moeten verwijderen.
- Critici zijn bang dat deze strengere regels kunnen leiden tot censuur in een land met meer dan een miljard internetgebruikers.
- Experts maken zich zorgen over de haalbaarheid en het risico op automatische oververwijdering vanwege de korte termijn.
Nieuwe regels in India zeggen dat socialemediagiganten zoals Meta, YouTube en X illegale content binnen drie uur na melding moeten verwijderen. Dit is een flinke verkorting ten opzichte van de vorige deadline van 36 uur. De platformen hebben nog niet gereageerd op de veranderingen.
Zorgen over censuur
De nieuwe regels, die op 20 februari van kracht gaan, hebben voor het eerst ook betrekking op op AI-gegenereerd materiaal. Hoewel niet helemaal duidelijk is waarom de termijn voor het verwijderen van content is verkort, vrezen critici strengere handhaving. Dat kan volgens hen leiden tot censuur in India, een land met meer dan een miljard internetgebruikers.
De afgelopen jaren hebben de Indiase autoriteiten bestaande IT-regels gebruikt om socialemediaplatforms te dwingen content te verwijderen die volgens wetten op het gebied van nationale veiligheid en openbare orde illegaal is. Experts wijzen op de ruime bevoegdheden die deze regels aan autoriteiten geven met betrekking tot online content. Uit transparantierapporten blijkt dat in 2024 meer dan 28.000 weblinks zijn geblokkeerd op verzoek van de overheid.
Nieuwe regels voor door AI-gegenereerde content
De wijzigingen introduceren nieuwe regels voor door AI-gegenereerde content, die wordt gedefinieerd als audio of video die is gemaakt of gemanipuleerd om realistisch over te komen, zoals deepfakes. Gewone bewerkingen, toegankelijkheidsfuncties en echt educatief of ontwerpwerk zijn hiervan uitgezonderd. Platforms die het maken of delen van dergelijk materiaal toestaan, moeten dit duidelijk labelen en, indien mogelijk, permanente markeringen toevoegen om de herkomst ervan te traceren.
Het verwijderen van deze labels is verboden. Bedrijven moeten bovendien geautomatiseerde tools inzetten om illegale AI-content op te sporen en te voorkomen, zoals misleidend of niet-consensueel materiaal, vervalste documenten, materiaal met seksueel misbruik van kinderen, content rond explosieven en identiteitsfraude.
Haalbaarheid en gevolgen
Groepen die opkomen voor digitale rechten en technologie-experts hebben hun zorgen geuit over de haalbaarheid en gevolgen van deze nieuwe regels. De Internet Freedom Foundation waarschuwt dat de strakke deadline platforms zal veranderen in “snelle censoren”, wat kan leiden tot automatische overmatige verwijdering door het gebrek aan zinvolle menselijke controle.
Anushka Jain, onderzoeksmedewerker bij het Digital Futures Lab, is blij met de verplichting om inhoud te labelen voor meer transparantie, maar waarschuwt dat de deadline van drie uur bedrijven zou kunnen aanzetten tot volledige automatisering, waardoor het risico op inhoudscensuur toeneemt.
Extreem verwijderingsbeleid
Technologieanalist Prasanto K Roy beschrijft voor BBC het nieuwe beleid als mogelijk het meest extreme verwijderingsbeleid in een democratie. Hij benadrukt dat naleving bijna onmogelijk zou zijn zonder uitgebreide automatisering en minimaal menselijk toezicht, waardoor platforms weinig tijd hebben om de juridische geldigheid van verwijderingsverzoeken te beoordelen.
Hoewel Roy de positieve bedoeling achter AI-etikettering erkent, waarschuwt hij dat betrouwbare en fraudebestendige etiketteringstechnologieën nog in ontwikkeling zijn.
