( Zahy | 2009. 09. 02., sze – 13:08 )

No ez elindulásnak még kevés, de azért kérdezek. Miért kell on-the-fly dekódolni a video részét? Meg az audio részét? Meg miért kell on-the-fly összemixelni ezeket? Mivel sose dolgoztam DV adatokkal, így ez nekem nem világos.

Miért nem jó, ha a videót és a hangot (mondjuk, nem tudom) mplayer-mencoder -rel vagy ffmpeg -gel vagy transcoder -rel átalakítom abba a formátum, amit mondjuk "szabványos DV formátum" (milyen ez?), aztán eljátszom a laptoppal, hogy ő egy DV-kamera, és ezt tolom ki az FW-kártyán keresztül? Annyit tudok, hogy FreeBSD alatt az fwcontrol nem csak -R (receive, a'l dvgrab),hanem -S (send, a'la ??? ) opciót is tud, és elvileg pont arra, ami esetleg nekem kéne:

-S filename
Send a DV file as isochronous stream.

Mondjuk nem tudom, hogy milyen formában kéne legyen az a DV fájl, és nem tudom, hogy egyáltalán jó-e ez így. (Van-e erre a küldésre megfelelő Linuxos eszköz - a logikus nevű dvsend egész másra való, és a dvgrab-nek úgy tűnik nincs ilyen párja; illetve van-e ilyen Windows alá.)

Szerk: valami kino-fórumon 2005-ben azt írták, hogy:


> Is there a way to do it opposite: 
> play a video using mplayer to firewire? 

You don't need mplayer just use somthing like cat $filename > $firewiredevice