Google test watermerk voor AI-afbeeldingen in strijd tegen misinformatie

In een poging misinformatie het hoofd te bieden, test Google een digitale stempel op AI-gegenereerde afbeeldingen. Dat meldde het bedrijf deze week in een blogpost.

Waarom is dit belangrijk?

Met de opkomst van generatieve AI, is het plots mogelijk om met geringe tekstinvoer in enkele seconden tijd bijzonder realistische afbeeldingen te creëren. Om ervoor te zorgen dat feit en fictie gescheiden blijven, test Google een digitaal watermerk.

In het nieuws: SynthID, de technologie van Google om AI-gegenereerde afbeeldingen te identificeren.

Afbeeldingen afkomstig van Imagen, een tekst-naar-afbeelding generator van Google, krijgen een digitale stempel.

  • Het watermerk is onzichtbaar en permanent. Google maakt gebruik van hashing, er wordt enkel aan individuele pixels gesleuteld om het watermerk te maken en is daarom met het blote oog niet zichtbaar.
  • Afbeeldingen van Imagen zullen ook een soort identiteitskaart krijgen waar informatie op staat over de originele afbeelding, moest die op een andere website verschijnen.
  • SynthID zal daarnaast ook kunnen beoordelen of andere afbeeldingen door een AI-systeem gemaakt werden, en zal die onderverdelen in drie categorieën: gedetecteerd, niet gedetecteerd en mogelijk gedetecteerd. Google geeft toe dat de technologie nog niet perfect is, maar dat het heel wat afbeeldingen al kan identificeren.
  • Traditionele watermerken, een soort stempel bovenop een afbeelding, zijn ontoereikend voor AI-afbeeldingen. Watermerken in de hoek van een afbeelding zijn te makkelijk om weg te knippen.

“Hoewel generatieve AI een enorm creatief potentieel kan ontsluiten, brengt het ook nieuwe risico’s met zich mee, zoals makers in staat stellen valse informatie te verspreiden – zowel opzettelijk als onopzettelijk. In staat zijn om AI-gegenereerde inhoud te identificeren is essentieel om mensen te laten weten wanneer ze te maken hebben met gegenereerde media en om de verspreiding van onjuiste informatie te helpen voorkomen.”

Google in een blogpost

Verkiezingen

  • De mogelijkheden van de hedendaagse AI-tools zijn voor veel overheden een uitdaging. Met deepfakes of bewerkte foto’s en audio van steeds hogere kwaliteit tegen een steeds lagere prijs, is het niet eenvoudig om te voorkomen dat bepaalde video’s en afbeeldingen online een eigen leven gaan leiden, en de publieke opinie gaan sturen. A.J. Nash, vice president of intelligence bij het cyberbeveiligingsbedrijf ZeroFox, waarschuwde in mei nog dat het gebruik van AI een reële bedreiging vormt voor de Amerikaanse presidentsverkiezingen.
  • Pushmeet Kohli, hoofd onderzoek bij DeepMind (de AI-tak van Google), zegt tegen de BBC dat meer standaardisatie tussen AI-bedrijven wenselijk is. “Er worden verschillende methoden toegepast en we moeten de impact ervan monitoren – hoe kunnen we beter rapporteren welke methoden werken en met welk doel?” (ddw)
Meer
Lees meer...