Foutje van Free a Girl, gebruikte AI in nieuwste video

OMG
door Dennis
donderdag, 05 maart 2026 om 19:32
thumb_vk_Foutje_van_Free_a_Girl_gebruikte_AI_in_nieuwste_video
Een bijzondere video van de organisatie Free a Girl gaat momenteel viraal. De organisatie, waar Yolanthe Cabau zich al jaren voor inzet, heeft ijverig gebruik gemaakt van kunstmatige intelligentie. In de video vraagt de organisatie aandacht voor seksuele uitbuiting van meisjes. Een mooi doel dat gesteund moet worden. De boodschap is behoorlijk zwaar en emotioneel: in plaats van dat ze met poppen spelen, moeten deze meisjes in bordelen werken en hebben ze geen jeugd meer. Erg genoeg natuurlijk, maar er is felle kritiek op het filmpje ontstaan. Dat komt vooral doordat delen van de video met AI gemaakt lijken te zijn.

AI-fouten in serieuze video

Zulke video’s zijn serieuze kost en moeten ons met de neus op de feiten drukken. Maar sommige delen van de video zijn duidelijk met AI gemaakt. Zo zie je sporadisch een Sora-logo verschijnen. Dat logo zie je als je video’s met deze dienst maakt. Maar je ziet ook weer de typische AI-fouten in delen van de video. Zo loopt er iemand rond met drie benen en zijn de posters op de achtergrond duidelijk nep. Daardoor ligt de organisatie nu onder vuur, want het draait natuurlijk allemaal om geloofwaardigheid.
Het is duidelijk dat sommige delen gemaakt zijn met AI en dat roept een hoop vragen op. Want is dit echt gebeurd, of is dit verzonnen? En waarom gebruikt Free a Girl kunstmatige intelligentie bij zo’n belangrijk probleem. Daarnaast kun je je afvragen of de organisatie op deze manier jouw emoties wil manipuleren. Maar de video is zijn doel nu wel voorbijgeschoten. De focus had natuurlijk op de inhoud van de video moeten liggen, maar ligt nu volledig op het gebruik van de technologie. Toch zijn er wel redenen te verzinnen waarom de organisatie gebruikmaakt van kunstmatige intelligentie.

Waarom zou zo’n organisatie AI gebruiken?

Er zijn wel een paar redenen te bedenken waarom kunstmatige intelligentie wordt ingezet. Deze video gaat over jonge meisjes die misbruikt worden en moeten werken in bordelen. De kans is groot dat de echte slachtoffers niet herkenbaar in beeld kunnen en mogen. Bovendien is het behoorlijk lastig om verborgen opnames te maken in een bordeel. Het is vaak onmogelijk. Door gebruik te maken van kunstmatige intelligentie is het mogelijk om toch beelden te laten zien, zonder iemand te schaden. Maar Free a Girl had er beter duidelijk over kunnen zijn.
Als je slordig met kunstmatige intelligentie omgaat, kan dat de boodschap schaden. In plaats van medeleven ontstaat er nu discussie over de geloofwaardigheid van het filmpje. Dat is ook duidelijk te zien in de reacties en in de stories van RealityFBI op Instagram, die het ontdekt heeft.
De kans is groot dat als de organisatie duidelijk had aangegeven dat er voor de reconstructie gebruik is gemaakt van AI, er geen haan naar had gekraaid. Maar nu voelen kijkers zich genept en daardoor is er nu veel ophef. De organisatie heeft zelf niet gereageerd op dit voorval.
loading

Loading