Nvidia zkouší, jak zpomalit videa natočené běžnou snímkovou frekvencí. Chybějící informace prostě pomocí neuronových sítí dopočítá. Pro plynulý pohyb potřebuje video stále alespoň 30 snímků za sekundu, u těch zpomalených jsou to násobky. Běžné video dokáže zrychlit až osmkrát, což odpovídá 240 fps.

Nvidia na to nejde nijak složitě, prostě jen porovná dva sousední snímky a vloží mezi ně několik dalších přesně tak, aby zjemnila pohyb. Není to ale asi zase tak jednoduché, neboť pro výpočet využívá strojového učení na výkonných grafikách Tesla V100.

Odhadnout pohyb objektů ve videu umí lidský mozek, počítač k tomu ale potřebuje mnoho zkušebních dat. V tomto případě Nvidia předhodila své neuronové síti na jedenáct tisíc videí natáčených s vysokou snímkovou frekvencí 240 fps. Výsledky můžete vidět v tomto videu:

Současné vlajkové lodě smartphonů umí natáčet rychlostí až 960 snímků za sekundu, ale většinou při nižším rozlišení a po omezenou dobu. Není to praktické ani z hlediska potřebného místa pro uložení takového videa.

Vyvíjená technologie by ovšem mohla udělat zpomalená videa i z těch standardních ve vysokém rozlišení až když to budete potřebovat. I když vždy půjde jen o umělé dotvoření, pokud nebude lidským okem rozeznatelné od reality, mohla by se tato technologie vedle současného slow-motion prosadit. AI koprocesory by tak v telefonech dostaly větší smysl.

Nvidia používá umělou inteligenci pro zvýšení snímkové frekvence videa

Ohodnoťte tento článek!
5 (100%) 5 hlas/ů

10 KOMENTÁŘE

    • Jo, nikdo neříká, že už tu nejsou obdobně fungující technologie (SVP na počítači a vlastní technologie v každé moderní TV), toto je jen trochu jiný přístup, se kterým zřejmě půjde dosáhnout ještě lepších výsledků.
      Je fakt, že skladování třeba filmů s vysokými snímkovacími frekvencemi je poměrně datově náročná věc pro uskladnění.

      • Já je teda moc nemusím. Ta interpolace snímků má jedno použití – v avisynth se tak dá hodně vylepšit fungování temporálních filtrů 🙂 Ale fór je v tom, že se pak ty fake snímky zahodí. Z mejch skutečností totiž ta inteprolace vypadá hrozně, takže na přehrávání videa se mi to nikdy moc nelíbilo

        Jediná naděje asi je, že to oko nebude registrovat, protože ty snimky budou trvat dost krátce. Ale to zase u dopočtu nejen 2x, ale třeba 3x, 4x přestává platit. Pravda, v televizích se na video nahází tolik hrozného postprocessingu, že to stejně detaily pozabíjí a možná to pak ani není poznat 😀

        • Když se výrobci televizorů předháněli ve vysokých frekvencích nejprve 100 Hz pak 200 Hz pak už i 1000 a více Hz…. tak jsem nechápal, jak je to provedené a vždy jsem si představoval, že se dva 50 Hz snímky dělí a dopočítávají (interpolují) na vyšší počet snímků, 4 , 6 a více…. U televizorů toto tedy již bylo nějak řešeno před více lety. U monitorů je situace složitější, protože k takovému dopočítávání je nutné pořešit i input lag.

          • Ano, obávám se , že GTX 1170 může v úvodu stát tolik co dnes 1080Ti. NVidia nemá důvod prodávat GPU, které už budou umět 4K 144Hz levně. A chtějí vyprodat staré Pascaly. Nové grafiky budou luxus, než zešediví a rozpadnou se na prach jako vše

            • On se očekává od GTX 1170 200% výkonu GTX 1080Ti? Co mám zkušenost tak GTX 1080Ti se ve 4K pohybuje typicky někde mezi 60-70FPS (v náročných hrách klidně i 40FPS+).