Bár a Twixtor óta számos újabb és jobb interpolációs “videó lelassító” algoritmus született már, azóta is ha egy videós azt mondja, hogy “túlságosan twixtoros az eredmény” az nem sok jót jelent. Két egyetem és a Google közös fejlesztése viszont az eddigi legjobb, szinte észrevétlenül dolgozó kimenetet képes adni.
A “Depth-Aware Video Frame Interpolation” vagy más néven DAIN algoritmus a neurális hálózatokban és a mesterséges intelligenciában rejlő potenciált használja fel úgy, hogy akár 15 fps stop-motion videóból is készülhet vajsima 60 fps kimenet, miközben a képi hibák gyakorlatilag észrevehetetlenek, ahogy az alább linkelt Lego figurákkal előadott videó is példázza. Az algoritmus használható kamu lassított felvételekhez, de ahhoz is, hogy az alacsony képkockaszámot kipótoljuk és talán erre a leginkább alkalmas.
A Sanghaji és a Kaliforniai Egyetemek, valamint a Google közös fejlesztésében az a nagy trükk, hogy a mesterséges intelligencia létrehozza minden képkockának a mélységadatait is (valódi mélységadatok nélkül), ez pedig abban segít, hogy az interpoláció során a mozgó objektumok körül ne jelenjenek meg a korábbi algoritmusokra jellemző képi hibák.
A legjobb pedig, hogy ezt némi vállalkozó szellemmel otthon is bárki kipróbálhatja (de nem árt elolvasni hozzá a GitHub-os dokumentációt), kell neki némi kakaó és egy dedikált videokártya ami képes számolgatni, de az eddigi, felhasználók által készített példavideók mutatják, hogy mekkora potenciál van a DAIN algoritmusban, ha egy kicsit több képkockára vágyunk, mint amennyivel ténylegesen rögzítettünk.