Když aliance OpenAI představila model umělé inteligence Sora, který vám na základě jednoduchého povelu vygeneruje video na první pohled jen obtížně rozpoznatelné od skutečných záběrů, vzbudilo to mezi odborníky i veřejností vlnu zájmu. Ta však stejně rychle opadla po oznámení, že Sora zatím nebude přístupná nikomu kromě interního testování. OpenAI zatím řeší jak technické otázky, tak etické problémy, protože takový nástroj by mohl být v nepovolaných rukou silnou zbraní.
Nebylo ani zveřejněno, kdy bychom se mohli přesně dočkat, ale nyní máme díky rozhovoru pro Wall Street Journal alespoň rámcovou představu. Podle technologické ředitelky společnosti OpenAI Miry Muratiové bude Sora k dispozici „v tomto roce“ a „může to trvat několik měsíců“.
Kromě zpřístupnění nástroje veřejnosti má podle Muratiho OpenAI v plánu časem začlenit i zvuk, který má potenciál učinit scény ještě realističtějšími. Společnost chce také umožnit uživatelům upravovat obsah videí, která Sora vytváří, protože nástroje umělé inteligence nevytvářejí vždy přesné obrazy. „Snažíme se přijít na to, jak tuto technologii využít jako nástroj, který by lidé mohli upravovat a vytvářet s ním,“ řekla ředitelka v rozhovoru.
S blížícími se prezidentskými volbami v roce 2024 se obavy z generativních nástrojů umělé inteligence a jejich potenciálu vytvářet dezinformace jen zvyšují. Podle rozhovoru nebude Sora po svém uvolnění pravděpodobně schopna vytvářet snímky veřejných osobností, podobně jako je tomu v případě nástroje na obrázky DALL-E. Videa budou také opatřena vodoznakem, který je odliší od skutečných.