Japanse content­reuzen bundelen krachten tegen OpenAI

 

Een krachtige coalitie van Japanse bedrijven in de animatie-, game- en mediabranche heeft zich verenigd via de Content Overseas Distribution Association (CODA) — een organisatie die zich sinds 2002 inzet voor de internationale verspreiding én bescherming van Japanse content.


Deze organisatie heeft een formeel schrijven gericht aan OpenAI, waarin zij eisen dat het bedrijf stopt met het gebruik van auteursrechtelijk beschermd materiaal van CODA-leden voor het trainen van de AI-modellen, en specifiek van het video-generatiemodel Sora 2.


Wat ligt er precies aan de basis?

Volgens CODA is een aanzienlijk deel van de output van Sora 2 “grondig gelijkaardig” aan Japanse content — wat volgens hen het gevolg is van het gebruiken van Japanse werken als trainingsdata.

De kernpunten in hun verzoek zijn:

  • Geen gebruik van de werken van CODA-leden voor machine learning zonder voorafgaande toestemming.

  • OpenAI moet “oprecht” reageren op claims van CODA-leden omtrent auteursrechtelijke inbreuken.

  • CODA benadrukt dat het Japanse auteursrecht geen systeem kent waarbij achteraf bezwaar maken (“opt-out”) vrijstelling geeft voor aansprakelijkheid.


Waarom juist nu?

De aanleiding ligt in de release van Sora 2 op 30 september 2025, en de daaropvolgende toename van AI-gegenereerde content die sterk deed denken aan karakteristieke Japanse animatiestijlen en IP-reeksen.

Bovendien heeft CODA de Japanse overheid formeel verzocht om in te grijpen en OpenAI op te roepen te stoppen met het reproduceren van Japanse artwork in AI-modellen.


Implicaties voor de auteursrechtwetgeving en AI-industrie

Auteursrecht: Japan vs. AI-modellen

CODA wijst op een fundamenteel verschil tussen het Japanse auteursrecht en sommige gangbare AI-praktijken: in Japan is doorgaans toestemming vooraf vereist voor het gebruik van auteursrechtelijk beschermd werk.

Dit staat op gespannen voet met het model waarin grote AI-leveranciers werken met enorme datasets, vaak zonder expliciete toestemming voor elk onderdeel, en waarbij de optie bestaat om na lancering bezwaar in te dienen.


Voor de AI-sector: precedentwaarde

Het signaal dat CODA uitzendt, is stevig: grote IP-houders treden collectief op tegen wat zij zien als onrechtmatig gebruik. Dit kan leiden tot:

  • Meerdere rechtszaken of claims tegen AI-bedrijven.

  • Strengere voorwaarden of contracten voor het verwerken van audiovisuele of grafische content in trainingsdata.

  • Een versnelling van het debat over hoe fair use, transformative use of gemeenschappelijk goed zich verhouden tot generatieve modellen.


Creativiteit, innovatie én rechten

Aan de andere kant staat het belang van innovatie. AI-modellen zoals Sora 2 beloven nieuwe creatiemogelijkheden — maar de vraag is: hoe ver reikt de grens tussen inspiratie en ongeautoriseerd kopiëren?

Het debat raakt precies aan deze spanning:

  • Wanneer wordt een output zó sterk beïnvloed door een auteursrechtelijk werk dat het als replica dient?

  • In hoeverre moet een AI-ontwikkelaar vooraf toestemming inwinnen?

  • Wat betekent dit voor gebruikers die met AI werken en een specifieke stijl of look & feel willen gebruiken?


Wat kan er nu gebeuren — en wat zijn mogelijke uitkomsten?

  1. Onderhandeling & licentie-modellen
    CODA en OpenAI zouden tot een overeenkomst kunnen komen waarbij de IP-houders vooraf geïnformeerd worden, of zelfs participeren in licentiemodellen voor AI-gebruik van hun content. Ook heeft OpenAI aangegeven dat men meer “granular control” wil bieden en mogelijk inkomsten wil delen met rechtenhouders.

  2. Juridische actie
    Mocht OpenAI geen adequaat antwoord bieden, dan liggen claims op de loer: op grond van auteursrechtelijke inbreuk (voor gebruik zonder toestemming), of op grond van output die sterk op bestaande werken lijkt.

  3. Wet- en regelgeving
    De kwestie kan leiden tot verscherping van wetgeving, bijvoorbeeld in Japan, de VS of Europa — zodat generatieve AI expliciete regels krijgt m.b.t. het gebruik van auteursrechtelijk beschermde content.

  4. Verandering van AI-praktijken
    AI-ontwikkelaars zullen mogelijk hun dataset-selectie, gebruiksvoorwaarden, modellen voor toestemming (“opt-in” i.p.v. “opt-out”) en disclaimers moeten herzien. Dit kan vertraging betekenen voor nieuwe AI-features, maar ook meer bescherming voor makers.


Conclusie

De stap van CODA — namens zwaargewichten zoals Studio Ghibli, Bandai Namco en Toei Animation — richting OpenAI markeert een belangrijk moment in de discussie over auteursrecht en AI in de creatieve sector.

Het laat zien dat grote content-houders zich niet laten passeren als hun werk zonder toestemming wordt ingezet. Voor AI-bedrijven betekent het een wake-up call: vrijheid in datagebruik eindigt waar auteursrecht begint.

Voor gebruikers, makers en ontwikkelaars geldt nu: wees bewust van de rechtenkant van contentgebruik, ook in de wereld van generatieve AI. Innovatie is waardevol, maar niet vrij van verantwoordelijkheden — zeker niet als het gaat om iconische Japanse IP-werken die wereldwijd geliefd zijn.

 

Tags:
3/related/default