Artificiële intelligentie stapt een nieuwe wereld binnen met OpenAI’s Sora

De makers van ChatGPT hebben Sora geïntroduceerd. Dit is een tekst-naar-videogenerator. Ze willen AI leren de fysieke wereld te begrijpen en na te bootsen. Dit gebeurt met video’s van maximaal een minuut lang. Met dit programma willen ze modellen trainen die mensen helpen problemen op te lossen waarvoor interactie in de echte wereld nodig is.

Op de website van OpenAI zijn nu video’s te zien die gecreëerd zijn door Sora. Sora kan complexe scènes genereren met veel details in het onderwerp en in de achtergrond, en met meerdere personages. Dit toont aan dat het begrijpt wat er geschreven wordt, maar ook hoe het zich in de fysieke wereld afspeelt. Het kan specifieke details generen doordat het een goed begrip heeft van taal. Daardoor kan het ook levendige emoties en personages creëren, maar het kan ook meerdere shots binnen een video maken alsof iemand het gefilmd heeft.

Zwakke punten

De makers van Sora geven ook toe dat er momenteel nog een aantal zwakke punten zijn. Het heeft bijvoorbeeld moeite met het nauwkeurig nabootsen van de fysica van een complexe scene. Ook bepaalde gevallen van oorzaak en gevolg begrijpt het nog niet goed. Het verwart soms ook details en heeft moeite met precieze beschrijvingen van gebeurtenissen die in de tijd plaatsvinden. Daardoor ontstaan er video’s waarin er iemand bijvoorbeeld achteruitloopt, een stoel zweeft of hondjes die vermeerderen.

Wie gebruikt het?

Momenteel is het programma alleen voor specifieke groepen beschikbaar. Zo kunnen experts op vlak van beveiligingsevaluaties en creatieve professionals toegang krijgen. Ook een aantal beeldende kunstenaars, ontwerpers en filmmakers krijgen toegang zodat ze feedback geven aan de makers. Ze delen het programma nu al om het publiek een idee te geven over wat AI te bieden heeft. De makers van Sora benadrukken ook dat ze niet kunnen voorspellen op welke manier mensen dit programma gaan gebruiken.

Veiligheid

OpenAI neemt verschillende veiligheidsmaatregelen. Zo gaan ze met experten op vlak van misinformatie, haatdragende inhoud en vooroordelen samenwerken om het model te testen. Daarnaast gebruikt Sora al bestaande veiligheidsmethoden, maar worden er ook nieuwe technieken gemaakt om misleidende inhoud te detecteren. Daardoor kan de detectieclassificator video’s gemaakt door Sora herkennen.

Door deze maatregelen zal de tekstclassificator de prompts nakijken om te zien of het nakomt met het gebruiksbeleid. De beeldclassificators kijken de video’s na, die door Sora worden geproduceerd, om te zien of dit overeenkomt met het gebruiksbeleid voordat het aan de gebruiker wordt getoond.

Meer
Lees meer...