Kompanija OpenAI nedavno je predstavila novi model pod nazivom Sora, koji može pretvoriti tekstualne instrukcije u video zapise. Ovaj model omogućava korisnicima da kreiraju fotorealistične video klipove dužine do jedne minute, bazirane na onome što su napisali.
Sora je sposobna kreirati „složene scene sa više likova, specifičnih tipova pokreta i preciznih detalja subjekta i pozadine“, izjavili su iz OpenAI. Također, model je sposoban „razumijeti kako objekti egzistiraju u fizičkom svijetu“ te „precizno tumačiti rekvizite i stvarati uvjerljive likove koji izražavaju žive emocije“. Model također može rekreirati video na osnovu statičnih slika te popuniti frameove koji nedostaju u postojećem videu ili ga proširiti.
Demo klipovi prikazuju različite pejzaže i situacije, kao što su scena Kalifornije iz zraka tokom zlatne groznice i video koji izgleda kao da je snimljen iz unutrašnjosti voza u Tokiju. Međutim, primjetno je da ti video zapisi sadrže određene znakove da je riječ o AI tehnologiji, kao što je „sumnjivo“ pomicanje poda u snimku muzeja. Iz OpenAI ističu da model može imati poteškoća s preciznim simuliranjem fizike kompleksnih scena, ali su rezultati uopšteno impresivni.
Sora trenutno je dostupna „crvenim timovima“, koji procjenjuju model zbog potencijalne štete i rizika. OpenAI također nudi pristup vizuelnim umjetnicima, dizajnerima i filmskim stvaraocima kako bi dali povratne informacije. Napominju da postojeći model možda neće precizno simulirati fiziku složene scene te da možda neće pravilno interpretirati određene slučajeve uzroka i posljedice.
Ranije ove godine, OpenAI je najavio dodavanje vodenih žigova svom text-to-image alatu DALL-E 3, ali su ti vodenid žigovi lako uklonjivi. Kao i s njegovim ostalim AI proizvodima, OpenAI će se morati nositi s posljedicama lažnih, AI fotorealističnih videa koji se pogrešno smatraju stvarnima.
Sora je još jedan primjer napretka u polju AI tehnologije, s mogućnosti da olakša kreiranje video sadržaja i rekreiranje scena na temelju tekstualnih instrukcija. Međutim, kao i sa svakom novom tehnologijom, moraju se uzeti u obzir i potencijalne negativne posljedice i rizici. OpenAI će morati pažljivo nadgledati korištenje ovog modela i potencijalno raditi na poboljšanjima kako bi umanjili rizike od potencijalne zloupotrebe.
Očekuje se da će Sora postati korisna alatka za kreatore video sadržaja, ali će istovremeno zahtijevati odgovarajuće kontrolne mehanizme kako bi se osiguralo njeno odgovorno korištenje. OpenAI će morati surađivati s različitim strukama, uključujući etičare, umjetnike, filmske stvaraoce i druge relevantne stručnjake kako bi osigurali da Sora donosi korist bez nanosjenja štete. S obzirom na brz razvoj AI tehnologije, važno je postaviti jasne granice i smjernice za njenu upotrebu u cilju očuvanja integriteta i sigurnosti.