Monday 30 October 2017

Moving Media Fps


Una dozzina di ore di Black Ops 3 prove effettuate e si muovevano alla prossima partita in sequenza il video-incrementato: Fallout 4. Le sue ottenuto un numero più grande alla fine. Bethesda ha una delle più lunghe cicli di vita dello sviluppo del settore, ma i giochi companys sono anche tra probabilmente la più lunga durata, grazie agli sforzi immortali di modders. Aiuta il fatto che la comunità modding è in grado di colmare le lacune nel codice Bethesdas o costruire del tutto nuovi giochi dalla solida base stabilito dal team di RPG veterano. Il nostro Fallout 4 gioco Analysis Review gameplay è vivo sulla homepage già. se questo è quello che stai cercando. Questo post appare esclusivamente e in profondità a Fallout 4s impostazioni grafiche e le prestazioni su PC. Il benchmark di seguito Fallout 4 PC mette alla prova le prestazioni FPS tra nVidia e GPU di AMD, tra cui la GTX 750 Ti, 960, 970, 270X, 285, 390X, e molti altri. VRAM e consumo di memoria è anche guardato vagamente al di sotto, si spera che stabilisce una base di riferimento per le migliori schede video per Fallout 4 su PC. Perché mod tool non dispone ancora esistono e certamente non mods fatto durante i nostri test pre-release non stiamo contabili per il colpo inevitabile prestazioni creato da futuri mod grafica. Fallout 4 Max Impostazioni grafiche 4K60 Gameplay video che spiega le impostazioni 4s Fallout 4s Impostazioni grafiche Fallout sono abbastanza semplici. Chiunque abbia familiarità con Skyrim (e Fallout 3. e New Vegas) è già familiarità con il motore di Fallout 4, impostazioni dello schermo, e le opzioni. Fallout 4 gira su lo stesso motore come ha fatto Skyrim ei suoi file. ini contengono molte delle stesse impostazioni, quindi la maggior parte del tweaking ini da Skyrim e New Vegas porta-over per Fallout 4. Anti-Aliasing: Leviga confini degli oggetti e la consistenza campionando i pixel più volte per i colori. TAA e FXAA sono entrambi disponibili. FXAA è apparso in precedenza in Skyrim e rimane la stessa in Fallout 4. I giocatori si lamentano sfocatura può essere utile per garantire FXAA non è abilitato. Filtro anisotropico: tecnica di filtrazione struttura che garantisce l'applicazione di struttura più uniforme verso punti di fuga, per esempio angoli di visuale non oblique. Un esempio semplice sarebbe una strada con una linea bianca tratteggiata in basso al centro: Higher conteggio dei campioni filtro anisotropico farà in modo che la linea tratteggiata rimane coerente nella sua applicazione alla superficie come la strada si avvicina suo punto di fuga. La disattivazione AF significa che la linea apparirà sempre sfocate e errato che si distanzia dal lettore risultato dell'angolo di applicazione. Dettaglio: configurabile a bassa, media, alta e ultra. sovvenzioni scheda Avanzate individualizzate impostazione di controllo. Modalità di visualizzazione: con finestra, a schermo intero, e le modalità senza bordi disponibili. Struttura Qualità: Dictates la risoluzione delle texture applicate agli oggetti in-game. impostazioni di qualità inferiore saranno rimuovere sabbia, profondità apparente, e il dettaglio più fine delle superfici. Segnaletica, ad esempio, può andare da contenente reali, parole leggibili ad essere un pasticcio offuscata a bassa. Questo è vero per la maggior parte dei giochi con il ridimensionamento risoluzione delle texture. È possibile vedere un esempio di qualità delle texture ridimensionamento qui: Black Ops III. Witcher 3. GTA V. Ombra di qualità: La risoluzione e dettaglio delle ombre proiettate dagli oggetti in-game. Fallout 4 manca di una notevole quantità di ombra dettaglio i thats si trovano in molti altri giochi, anche a Ultra, e pretende di rendering delle ombre per la maggior parte gli elementi né per molti elementi statici. L'aumento ombra qualità sarà liscia confini ombra e ridurre gli effetti pixel marcia quando un oggetto dinamico proietta un'ombra, a costo di cicli di GPU supplementari. Ombra Distanza: La distanza alla quale sono resi ombre. Le ombre si aprirà-in e fuori a seconda della distanza giocatore come mezzo per una maggiore scalabilità LOD. La riduzione di questo migliorerà le prestazioni, soprattutto nelle grandi aree con numerosi ombra mappato oggetti. Qualità decalcomania: decalcomanie sono meglio a pensare a come adesivi che vengono applicati per l'ambiente o come oggetti di gioco si svolge. Il sangue, i punti di contatto della pallottola, e la terra bruciata da esplosivi sono tutti gli adesivi. La modifica di questa impostazione determina quanto tempo un soggiorno decal e quanti accumulano, insieme con dettagli decalcomania generale. Qualità di illuminazione: consente di modificare la fedeltà degli effetti a cascata e la presenza di luce. Godrays Qualità: qualità, conteggio, e la presenza generale dei raggi di luce che vengono lanciati dall'alto (chiamati godrays), in particolare per quanto si riferisce alla luce splende attraverso altri oggetti superfici semitrasparenti (finestre), attraverso la geometria denso (i rami degli alberi), e così via. Profondità di campo: Applica un effetto bokeh su pellicola spazio sullo schermo che è considerato out-of-focus per i giocatori POV. Occlusione ambientale: governa leggera applicazione e l'ombreggiatura di superfici adiacenti. Più evidente sul lato inferiore del fogliame e piante. Disabilitando Ambient Occlusion rimuoverà una quantità significativa di ombreggiatura dal gioco, che è già carente, e semplifica il modo luce interagisce con alcuni materiali e le superfici adiacenti. Schermo Spazio Riflessioni: Casella di leva. Screen-spazio riflessioni consapevoli (disciplinati in parte dalla occlusione ambientale) apparirà quando la luce interagisce con materiali riflettenti metalli, finiture lucide, finestre, ecc Wetness: Casella di leva. Attiva o disattiva che gli oggetti possono ottenere bagnato da incontrare acqua. L'effetto bagnato applica una lucentezza alla superficie dell'oggetto interessato. Pioggia di occlusione: Disattivare questa quando si verificano lag in particolare durante gli eventi di pioggia atmosferiche. Determina se la pioggia è soggetta agli effetti di occlusione. Motion Blur: spiega da sé disabilitare se desiderano un'esperienza meno sfocata. Chiarore dell'obiettivo: Michael Bays preferito un interruttore che abilita o disabilita riflesso lente quando la fotocamera è a certi angoli di sorgenti luminose. Oggetto Fade: distanza alla quale gli oggetti non-attore come segnaletica, bidoni della spazzatura, o altri elementi non-voce cominciano a svanire dalla fotocamera o pop-in per visualizzare. Attore Fade: distanza alla quale gli oggetti attore (NPC) pop-in e sparire dalla vista della telecamera. Erba Fade: Come due precedenti, ma per l'erba abbassare questa prima se in ritardo durante il viaggio attraverso hillsgrassy terre desolate. Articolo Fade: Distanze in cui caduto o oggetti posti pop-in o fade dalla vista. Distante Object Descrizione: LOD di oggetti lontani. Aumentando questo determina l'aumento di complessità geometrica apparente (qualità mesh) degli oggetti lontano dal lettore. Object Descrizione Fade: In quanto tempo grintoso dettagli di oggetti svaniscono, ma non l'oggetto stesso dei giocatori Visualizza. scalatura LOD che consente all'oggetto di rimanere in vista senza rimuoverlo completamente. Fallout 4 scheda video del PC Benchmark - 980 Ti, 970, 390X, 270X, Altro Video Prova Metodologia Abbiamo testato usando il nostro 2015 multi-GPU banco di prova, dettagliato nella tabella sottostante. I nostri ringraziamenti a sostenere i fornitori di hardware per la fornitura di alcuni dei componenti del test. NVIDIA Unreleased Fallout 4 piloti sono stati utilizzati per le prove, comprese le Fallout 4 ottimizzazioni. Gli ultimi driver AMD Catalyst (15.11 beta) sono stati utilizzati per il test. Impostazioni di gioco sono stati configurati per Ultra con le sostituzioni ultra dove non selezionati, Media e Bassa preset a 1080p, 1440p, e risoluzioni 4K. Una volta che abbiamo determinato che le impostazioni fornito un ragionevole livello di carico per appropriate schede video, abbiamo forgiato avanti testare queste configurazioni sulla nostra suite di GPU. Ogni scenario è stato testato per 30 secondi in modo identico, poi ripetuto tre volte per la parità. Abbiamo testato in Diamond City, la prima grande township il giocatore raggiunge. Abbiamo trovato parti di Diamond City per la produzione di carico ad alta intensità, con un divario di prestazioni così ampia come quasi il 60 in alcuni casi. Questo rende Diamond City una regione scarsa ottimizzazione del gioco che rappresenta uno scenario carico misto nostro test inizia con la fotocamera puntata verso una regione fortemente occupata della città, quindi si muove un corridoio molto meno intenso. Il risultato è un carico GPU mista che è 100 riproducibile e rappresentante di esperienze di gioco reali. Il nostro video mostra sopra il corso che abbiamo usato. Questo è stato scelto per la sua riproducibilità e affidabilità durante il test. I benchmark che non emulano precisamente il nostro corso preso varieranno nei risultati, a seconda di quale area del gioco che sono stati eseguiti. GN banco di prova 2015 media FPS, 1 basso, e 0,1 volte basse sono misurati. Noi non misuriamo i risultati massimi o minimi FPS come noi consideriamo questi numeri per essere valori anomali puri. Invece, prendiamo una media tra i più bassi 1 di risultati (1 basso) per mostrare del mondo reale, tuffi evidenti che poi prendere una media dei più bassi 0.1 di risultati per picchi gravi. Le GPU di seguito sono stati testati: Impostazioni testati Abbiamo testato il gioco con queste impostazioni: 4K, tutto impostato su Ultra (impostazioni max). 1440p, tutto impostato su Ultra (impostazioni max). 1080p, tutto impostato su Ultra (impostazioni max). 1080p, tutto impostato su medio. 1080p, tutto impostato su basso. FPS Caps Tweaking ini in Fallout 4 benchmark arent possibile con framerate bloccati. Al fine di precisione valori di riferimento performance assoluta di schede video, noi disattivare tutti i frame-rate tecnologie di blocco durante i test. Che include G-Sync e FreeSync, V-Sync. e qualsiasi altra cosa si trova sotto il cofano del gioco. In Fallout 4, abbiamo dovuto navigare verso DocumentsMy gamesfallout 4Fallout4Prefs. ini e impostare iPresentInterval a 0. Questo disabilita il tappo framerate e, di conseguenza, sembra di eliminare i comportamenti spurie del mouse. Questo file viene sovrascritto immediatamente dopo il lancio di nuovo il gioco, però, in modo che chiunque prendendo in prestito la nostra metodologia di banco sarà necessario impostare il file di sola lettura. C'è un file delle preferenze che Id immaginare dovrebbe agire come un override per il file. ini di base, ma Im attualmente non sicuro come usarlo, così siamo andati con il metodo di sola lettura. Fallout 4 RAM VRAM consumo in preliminare di test l'utilizzo delle risorse, abbiamo scoperto che 1080max impostazioni richiedono memoria impegnata di circa 4.8GB (2.4GB working set, o RAM fisica), che è un po 'meno di un quarto di quello che abbiamo visto Black Ops commit. Grande differenza. Ma Fallout è la ragionevole uno qui, di sicuro. I giocatori possono ragionevolmente distribuire 8 GB (o partire da 4 GB, ma questo è spingendolo con le operazioni in background) di RAM di sistema per Fallout 4. Le stesse 1080max impostazioni utilizzate sotto 3GB VRAM in ogni momento, in genere più vicino alla 2.6-2.9GB. I primi risultati anti-aliasing Altre impostazioni abbiamo fatto qualche pre-banco misure anti-alias FPS piuttosto non ufficiali per determinare, internamente, anche se non dobbiamo permettere FXAATAA durante il test di Fallout 4. Abbiamo visto le differenze generalmente minime (meno di 3, nella maggior parte dei casi ), anche a 4K, e scelto di lasciare TAA per i benchmark Ultra. Abbiamo anche scoperto, come sopra, che l'impostazione Ombra Distanza valori più restrittivi (medio, in particolare) ha visto immediatamente doni FPS tangibili nella gamma di 16.87. Questo sarebbe uno dei primi posti dove andare per chi cerca di migliorare le prestazioni, ma è stato lasciato al suo più alto impostazione per i nostri test Ultra. Fallout 4 4K Ultra Benchmark GTX 980 Ti vs. 390X, 970, 290x, più ero un po 'scioccato nel vedere la 980 Ti e 390X alle prese tanto con Fallout 4. Né carta colpisce la magica 60FPS metrica, ma weve scoperto che in generale la gioco rimane giocabile all'interno della gamma 45-50FPS (a differenza di tiratori frenetico ad esempio Black Ops III). I lettori abituali noteranno che Fallout 4 è quasi esigente come Black Ops III, un gioco che, oggettivamente, è tecnologicamente superiore nel reparto grafico. La cosa con Fallout è che la sua un mondo di gioco aperto, e così le distanze Run Theres significativamente più elevati molto di più per vedere a distanza più lunga. Anche su Black Ops più grandi mappe, ce n'è tanto miope offuscamento (edifici, elementi prefabbricati) che si pretende molto disegnare remoto come in lontananza come Fallout. Questa è la principale differenza metodologica nella realizzazione di ogni giochi. Ma Fallout sembra ancora eccessivamente impegnativo per un gioco del suo aspetto. Allo stato attuale, il gioco è effettivamente ingiocabile sulla maggior parte delle soluzioni a singola GPU a 4K. C'è un argomento da fare che 46FPS AVG è giocabile, ma questo è una linea sottile di camminare. Fallout 4 1440p Ultra Benchmark GTX 980 Ti vs. 390X, 970, 290x, 960, Più Come previsto, AMD mostra la sua differenza-maker nei test a risoluzione più elevata. Le terre R9 390X opportunamente tra la GTX 970 e MSI GTX 980. Fallout 4 è ragionevolmente giocato a 1440p su schede di classe equivalente o superiore al R9 290x e GTX 970. I 285 e 960 carte non sono in grado di sopportare la saturazione del ciclo e larghezza di banda di risoluzioni più elevate. Fallout 4 1080p Ultra Benchmark GTX 980 Ti vs. 390X, 970, 290x, Più Prima di tutto, l'ovvio: Il benchmark 1080p GPU, come youll vedere, pone una GTX 970 sopra un R9 390X di circa 5,1. Non ci aspettavamo che questo accada in Fallout 4 e esposto per convalidare i risultati. Abbiamo pensato wed trova l'impostazione creando le 970s portano quando tweaking ogni opzione, infine notare che Ombra Distanza influenzato i risultati per quasi abbastanza 20FPS per chiudere il gap, ma che poi riprodotto il mio risultato iniziale. Quando si imposta ombra Distanza sua minima (medio) sia sul R9 390X e GTX 970, il risultato ancora invia i 970 da una coppia di telai davanti al 390X. In realtà, la sua quasi lo stesso 5 divario. La sua ombra non Distanza, quindi. Abbiamo provato ogni altra impostazione e non poteva trovare uno che ha prodotto un profondo calo di prestazioni per AMD quando non anche fare come per nVidia. Questo mi porta a credere che questo è sia un gioco di ottimizzazione o, più probabilmente, un problema di ottimizzazione del driver. Abbiamo contattato AMD la scorsa settimana alla ricerca dei apparentemente inevitabili Fallout 4 day one driver, ma hanno detto che i piloti mancavano ancora pronto. E 'possibile che il 390X supererà la GTX 970 a 1080p con una patch di aggiornamento del driver o di ottimizzazione di gioco, ma i dati (come sotto) è il modo com'è adesso. impostazioni 1080ultra permettono Fallout 4 di allungare fino al 225 GTX 960 e R9 285 (206) regione, che potrebbe anche includere (non presente) il R9 380. La GTX 950 non è abbastanza abbastanza per spingere 1080ultra, il 960 può farlo funzionare con po 'di luce tweaking o semplicemente 50FPS accettare, e la R9 285 funziona a 54FPS media. I R9 285 serbatoi suoi 0,1 frametimes basse fino a 30 in occasione, ma il suo nulla che rovina l'esperienza. Sulla base di questi grafici, per giocare Fallout 4 a 1080max richiede circa una GTX 960 (225) o R9 380 (230) per la migliore fluidità durante i picchi di lavoro all'interno del gioco. impostazioni di sintonizzazione a High permetteranno la GTX 950 (170) e deprecato R9 270X (equivalente: R7 370 per 150) di avvicinarsi al campo di FPS giocabile. Alla fascia alta, la GTX 980 Ti, 980, 970, R9 390X, e R9 290x sono tutti gli attori capaci che superano regolarmente 60FPS con 1080ultra. Fallout 4 non è il tipo di gioco in cui è necessario più di 60FPS, però, soprattutto perché il suo ha un blocco FPS tappatura framerate a 60 per impostazione predefinita. Fallout 4 1080p Benchmark Media Bassa GTX 750 Ti, R7 270X solo per quelli su schede di fascia bassa. Abbiamo fatto passare troppo tempo qui. Conclusione: le carte migliori video per Fallout 4 Fallout 4 è un gioco strano. Esso non sembra affatto impressionante Voglio dire, basta guardare la schermata sopra. Si può letteralmente contare i poligoni in quel fencepost sua meno di 40, di sicuro. La recinzione è una barriera piatta con zero profondità. Il gioco, oggettivamente, è datata nella sua presentazione visiva. Questo non rende il gioco male la nostra recensione suggerisce in realtà altrimenti, ma non rendere la sua grafica meno impressionante per gli standard moderni. Mer pretende prestazioni per essere stellare dato questa estetica semplificata, ma ricadute enormi distanze e l'applicazione ombra prendere un sacco di tale via. Per tutti coloro che cercando di raggiungere un framerate superiore a quello qui rappresentato, wed suggeriscono primo abbassamento Ombra distanza, poi tabulazione giù alcune delle impostazioni View Distanza da importi modesti. In ogni caso, per giocare a 1080ultra in uno scenario peggiore, youll desidera qualcosa come il 230 R9 380 (non presente) o GTX 960 (225). Un R9 390X funziona bene per 1440p e sarebbe la nostra go-to, a corto di optare per NVIDIA GTX 980 a Update: Vedi la nostra benchmark illuminazione volumetrica qui. 4K da intendersi non sta per soluzioni a singola GPU in questo momento, soprattutto non a max impostazioni e visualizzare le distanze. Per quanto riguarda i valori più bassi, chiunque confortevole compromettere Ultra per Medium può afferrare la GTX 950 per un'esperienza 60FPS solida. Gli utenti di impostazioni bassi possono fare un lavoro di Ti 750 in un pizzico, ma la R9 270X si gestisce in modo eccellente. Il 270X è ormai deprecato, ma è stato efficacemente sostituito con la R7 370. Se ti piace la nostra copertura, perche non ci sostiene in Patreon. - Steve Lelldorianx Burke. analisi comparativa supplementare da Mike Gaglione. Ramesh Raskar. Professore Associato, MIT Media Lab Direttore del Progetto (Raskar (at) mit. edu) Moungi G. Bawendi. Professore, Dipartimento di Chimica, MIT Andreas Velten. Postdoctoral Associate, MIT Media Lab (Velten (at) mit. edu) Everett Lawson. MIT Media Lab Amy Fritz. MIT Media Lab Di Wu. MIT Media Lab e Tsinghua U. Matt Otoole. MIT Media Lab e U. of Toronto Diego Gutierrez. Universidad de Zaragoza Belen Masia. MIT Media Lab e Universidad de Zaragoza Elisa Amoros, Universidad de Zaragoza abbiamo costruito un soluzione di imaging che ci permette di visualizzare propagazione della luce. Il tempo di esposizione efficace di ogni fotogramma è di due trillionths di un secondo e la visualizzazione risultante rappresenta il movimento della luce a circa mezzo trilione di fotogrammi al secondo. Registrazione diretta della luce riflessa o dispersa ad una velocità tale cornice con sufficiente luminosità è quasi impossibile. Usiamo un metodo stroboscopico indiretto, che registra milioni di misurazioni ripetute da un'attenta scansione nel tempo e punti di vista. Poi abbiamo riorganizzare i dati per creare un filmato di un evento lungo nanosecondo. Il dispositivo è stato sviluppato dal gruppo MIT Media Cultura Lab8217s Macchina fotografica in collaborazione con Bawendi Lab presso il Dipartimento di Chimica presso il MIT. Un impulso laser che dura meno di un trilione di secondo è usato come un flash e la luce di ritorno dalla scena viene raccolto da una telecamera ad un tasso equivalente a circa mezzo trilione fotogrammi al secondo. Tuttavia, a causa molto brevi tempi di esposizione (circa due millesimo di miliardesimo di secondo) e un ristretto campo di vista della macchina fotografica, il video viene catturato nell'arco di diversi minuti di campionamento ripetuto e periodica. La nuova tecnica, che noi chiamiamo femtofotografia. si compone di illuminazione laser a femtosecondi, rilevatori picosecondo-precise e tecniche di ricostruzione matematiche. La nostra sorgente di luce è un laser titanio zaffiro che emette impulsi a intervalli regolari ogni 13 nanosecondi. Questi impulsi illuminano la scena, e anche innescare il nostro picosecondo accurata tubo striscia che cattura la luce restituita dalla scena. La fotocamera striscia ha un campo ragionevole di vista in senso orizzontale, ma molto stretta (più o meno equivalente a una linea di scansione) nella dimensione verticale. Ad ogni registrazione, possiamo registrare solo un film 1D di questo stretto campo visivo. Nel film, che registra circa 480 fotogrammi e ogni fotogramma ha un tempo di esposizione più o meno 1,71 picosecondi. Attraverso un sistema di specchi, ci orientiamo la vista della telecamera verso diverse parti dell'oggetto e acquisire un filmato per ogni visualizzazione. Manteniamo un ritardo fisso tra l'impulso laser e la nostra StartTime film. Infine, il nostro algoritmo utilizza questi dati acquisiti a comporre un unico film in 2D di circa 480 fotogrammi ciascuna con un tempo di esposizione efficace di 1,71 picosecondi. Al di là del potenziale di visualizzazione artistica e didattica, applicazioni includono l'imaging industriale per analizzare i difetti e le proprietà dei materiali, imaging scientifico per la comprensione dei processi ultraveloci e imaging medico per ricostruire gli elementi sotto la superficie, vale a dire gli ultrasuoni con la luce. Inoltre, l'analisi del percorso fotone consentirà nuove forme di fotografia computazionale. per esempio. per il rendering e riaccendere le foto utilizzando tecniche di computer grafica. Riferimenti A. Velten, R. Raskar, e M. Bawendi, fotocamera picosecondo per tempo di volo Imaging, in Imaging Systems Applications. OSA Digest tecnica (CD) (Optical Society of America, 2011) Collegamento arte lenta con un trilione di fotogrammi al secondo macchina fotografica, una Velten, E Lawson, A Bardagiy, M Bawendi, R Raskar, Siggraph 2011 di conversazione di collegamento R Raskar e J Davis, matrice di trasporto 82205d tempo-luce: cosa possiamo ragionare su scena properties8221, luglio 2007 Domande frequenti Come si può prendere una foto di fotoni in movimento a un trilione di fotogrammi al secondo usiamo un pico-secondo rivelatore accurate. Usiamo un imager speciale chiamato un tubo di striscia che si comporta come un oscilloscopio con grilletto e deflessione dei raggi corrispondente. Un impulso luce entra strumento attraverso una fessura stretta lungo una direzione. Viene quindi deviato nella direzione perpendicolare modo che i fotoni che arrivano prima colpito il rivelatore a una posizione diversa rispetto a fotoni che arrivano tardi. L'immagine risultante forma una striscia di luce. tubi di scansione sono spesso utilizzati in chimica o biologia per osservare oggetti di dimensioni milimeter ma raramente per l'imaging spazio libero. Si può catturare qualsiasi evento in questo frame rate Quali sono i limiti che non possiamo catturare eventi arbitrari alla risoluzione temporale picosecondo. Se l'evento non è ripetibile, il richiesto rapporto segnale-rumore (SNR) si rendono quasi impossibile per catturare l'evento. Sfruttiamo il semplice fatto che i fotoni statisticamente traccerà lo stesso percorso nel illuminazioni pulsati ripetuti. Sincronizzando accuratamente l'illuminazione ad impulsi con la cattura di luce riflessa, registriamo la stessa pixel allo stesso esatto relativi di slot di tempo milioni di volte per accumulare il segnale sufficiente. La nostra risoluzione temporale è 1.71 picosecondo e, quindi, qualsiasi attività che abbracciano più piccolo a 0,5 mm di dimensioni sarà difficile da registrare. Come si confronta con la cattura video di proiettili in movimento Circa 50 anni fa, Doc Edgerton ha creato immagini mozzafiato di oggetti in rapido movimento, come proiettili. Seguiamo le sue orme. Al di là della ricerca scientifica, i nostri video potrebbero ispirare visualizzazioni artistiche ed educative. La tecnologia chiave di allora era l'uso di un brevissimo flash durata di congelare il movimento. La luce viaggia a circa un milione di volte più veloce di proiettile. Per osservare i fotoni (particelle di luce) in movimento richiede un approccio molto diverso. Il proiettile viene registrata in un solo colpo, cioè non vi è alcuna necessità di sparare una sequenza di proiettili. Ma per osservare i fotoni, abbiamo bisogno di inviare l'impulso (proiettile di luce) milioni di volte nella scena. Cosa c'è di nuovo sulle femtofotografia approccio moderno cattura tecnologia di imaging e di analisi scene del mondo reale utilizzando le immagini delle telecamere 2D. Queste immagini corrispondono a stabilizzare trasporto leggero stato e ignorare il ritardo nella propagazione della luce attraverso la scena. Ogni raggio di luce impiega un percorso distinto attraverso la scena che contiene una pletora di informazioni che viene persa quando tutti i raggi di luce vengono sommati al tradizionale pixel fotocamera. La luce viaggia molto veloce (1 piede in 1 nanosecondo) e di campionamento luce in queste scale di tempo è ben al di là della portata dei sensori convenzionali (videocamere veloce hanno esposizioni microsecondo). D'altra parte, LiDAR e femtosecondi tecniche di imaging come la tomografia a coerenza ottica che fanno impiegare rilevamento ultra-veloce e la cattura di illuminazione laser solo la luce diretta (fotoni balistici) proveniente dalla scena, ma ignorare la luce indiretta riflessa. Uniamo i recenti progressi in hardware e l'illuminazione ultra-veloce con una tecnica di ricostruzione che rivela informazioni insolito. Quali sono le sfide veloci sensori elettronici hanno il tempo di esposizione in nanosecondi o centinaia di picosecondi. Per catturare propagazione della luce in una scena da tavolo abbiamo bisogno velocità del sensore di circa 1 ps o un trilione di fotogrammi al secondo. Per raggiungere questa velocità si usa un tubo consecutive. La fotocamera striscia utilizza un trucco per catturare un un campo di vista dimensionale a quasi un trilione di fotogrammi al secondo un'unica immagine striscia in. Per ottenere un filmato completo della scena che cucire insieme molte di queste immagini consecutive. Il film risultante è non di un impulso, ma è una media di molti impulsi. Sincronizzando con attenzione il laser e fotocamera dobbiamo fare in modo ciascuno di questi impulsi hanno lo stesso aspetto. In che modo questi strumenti complicati transizione fuori dal laboratorio I dispositivi di imaging ultraveloci oggi sono abbastanza ingombrante. Le sorgenti laser e telecamere ad alta velocità stare su un piccolo banco ottico e devono essere attentamente calibrato per l'attivazione. Tuttavia, vi è la ricerca parallelo femtosecondi laser a stato solido e semplificherà notevolmente la sorgente di illuminazione. Inoltre, i progressi nella comunicazione ottica e informatica ottico mostra una grande promessa per sensori ottici compatti e veloci. Tuttavia, nel breve periodo, stiamo costruendo le applicazioni in cui la portabilità non è così critica. Relativi lavori P Sen, B Chen, G Garg, S Marschner, M Horowitz, M Levoy, e H Lensch, 8220Dual photography8221, in ACM SIG. 821.705 SM Seitz, Y Matsushita, e KN Kutulakos, la teoria 8220A di inversa transport8221 luce, in ICCV 821.705 SK Nayar, G Krishnan, M Grossberg, e R Raskar, 8220Fast separazione dei componenti diretti e globali di una scena utilizzando ad alta illumination8221 frequenza, in SIGGRAPH 821.706 K Kutulakos ed e Steger, la teoria 8220A di forma 3D di rifrazione e speculare dalla luce-percorso triangulation8221, IJCV 821707. B. Atcheson, I. Ihrke, W. Heidrich, A. TEV, D. Bradley, M. Magnor, H .-P. Seidel, risolta in tempo di acquisizione 3D di gas non-stazionari Flussi Siggraph Asia, 2008 Presentazione, video e notizie Storie Notizie Copertura: The New York Times. Velocità della Luce indugia nella Volto di Notizie Nuova fotocamera MIT. Trillion-frame-per-secondo video. Utilizzando dispositivi ottici in maniera del tutto inaspettata, MIT ricercatori hanno creato un sistema di imaging che rende chiaro sguardo lento. BBC: MIT luce monitoraggio fotocamera Melanie Gonick, MIT News Ringraziamenti Ringraziamo l'intero gruppo Cultura Camera per il loro sostegno incessante. Questa ricerca è sostenuta da sovvenzioni di ricerca di sponsor MIT Media Lab, MIT Lincoln Labs e l'Army Research Office attraverso l'Istituto per Soldier Nanotechnologies presso il MIT. Ramesh Raskar è supportato da un Research Fellowship Alfred P. Sloan 2009 e premio DARPA giovane Facoltà 2010. I progetti recenti in Camera sito Cultura groupThis mostra come fare brillante guardare video DivX (dalla TV, DVB, DV, DVD, ecc) per l'archiviazione O come ridurre le dimensioni del file per la produzione di bell'aspetto ma piccola filmati DivX. Se avete a che fare con DivX, questo sito offre alcune statistiche video ed esperimenti, che potrebbe essere di qualche interesse per tutti gli editori di video e gli appassionati di DivX. Una grande parte di questo sito si occupa di interlacingdeinterlacing che introduce alcuni dei peggiori problemi di interlacciamento come questi: Si prega di visitare anche i miei altri siti eBook scaricare libri elettronici-download (con programma di affiliazione) piccolo Google Startpage per il vostro browser tigoo Matrix Reloaded spiegato matrice spiegato libero consigli per gli Incontri 100-incontri-tips miei Gratuito 1-4a pensi di registrare 25 fotogrammi al secondo, quando si effettua un film con la videocamera digitale la videocamera digitale esegue le seguenti operazioni: Records 50 immagini al secondo, mescolanza ogni 2 immagini consecutive ( con metà dell'altezza) in 1 fotogramma. In realtà, voi non chiamarli immagini, ma i campi. Quindi 2 campi sono mescolati in 1 fotogramma. Questo miscuglio è chiamata interlacciamento. Ecco un esempio di ciò che la videocamera digitale non: Capture field1 (cattura a metà altezza, o tutta altezza e poi ridimensiona verso il basso): Sono più o meno lo stesso aspetto. Ma l'attesa, sono diversi. Si può vedere confrontando la posizione della tasti della tastiera e del pollice. Ora questi due campi sono mescolati (interlacciato) in Frame1 (pieno altezza): Quello che vedete qui sopra è una cornice precisa come su nastro della videocamera. Ecco una vista ingrandita del telaio sopra 1: Come si può chiaramente vedere sopra, Frame1 consiste di Field1 e Campo2. Il suo aspetto è chiamato sega denti topi distorsione tipo di dente bordo pettinatura dentellature linee interlacciate. In altre parole: un singolo fotogramma è composto da 2 catture di 2 momenti differenti nel tempo. Field1Time1, Field2Time2. Vedere questa cornice di seguito. Si tratta di una cattura direttamente da MTVs Digital Video Broadcasting: La scena di cui sopra è composto da 2 scene totalmente diverse, perché questo è il fotogramma in cui theres un cambiamento da SCENE1 a SCENE2. Scene2 (Questa è la prestazione Britney Spears agli MTV Video Music Awards 2001) A causa di questo tempo intermix (1 frametime1time2) è impossibile: deinterlacciare un telaio a mantenere 25 framessecond mantenere la qualità totale (tutte le informazioni di una foto). Impossibile. Si dovrà modificare almeno uno di quei punti. Tranne, quando non c'era alcun movimento. Su uno schermo di computer registrazioni interlacciati sono fastidiosi da guardare perché le linee sono davvero inquietante. Soprattutto nelle scene in cui theres movimento da sinistra a destra (da destra a sinistra) si vede l'intreccio, come in questo esempio: il testo in rotoli in basso da destra a sinistra e quindi si lascia con topi denti perché questo telaio è costituito da 2 istantanee di tempo, come sopra descritto. denti topi a causa di un movimento di salita-discesa. Si tratta di una scena del clip musicale quotAnywherequot dal performer 112. Ci arent qualsiasi movimento interlacciata linee lì, ma questo è un fotogramma in cui ci fu un breve lampo, theres così una differenza da un campo all'altro. Per rendere le cose ancora più complicate, alcune videocamere digitali hanno qualcosa che si potrebbe chiamare quotcolor interlacingquot. Mentre questo termine forse alquanto imprecisa per descrivere la fonte dei manufatti, è abbastanza descrittivo per il risultato finale. Ma anche dopo deinterlacciamento alcuni rossi e alcuni pixel verdi restano dove l'ultimo campo è stato. Ecco un altro esempio (dopo deinterlacciamento): Alcune videocamere mescolare i colori differenti in diversi campi, o utilizzare sensori CCD che reagiscono più lentamente, in modo da ottenere questo strano modelli di colore a volte. Inoltre ci sono videocamere con nota quothardware bugsquot che producono un alone di colore o di un sanguinamento colore o un macchie di colore (l'esempio precedente è stato girato con una Sony PC110, che ha questa nota behaviourquot quotcolor). Inoltre vi è qualcosa di simile unsharpness colore risultante dal fatto, che la risoluzione del colore è inferiore alla risoluzione dell'immagine, il che significa per esempio che 4 pixel condividono 1 colore. Inoltre ci sono aberrazioni di colore introdotte dal sistema di lenti videocamere. Inoltre non ci può essere rotto codec DV, che decodifica buggy. Si potrebbe provare Mainconcepts codec DV (), che ha una grande reputazione, se si diffidi il proprio codec. Vi è anche qualcosa che si potrebbe chiamare intreccio luminosità. Si tratta di una cattura dal quotSexyquot clip musicale eseguita da quotFrench Affairquot dal canale televisivo Tango TV (da Lussemburgo). Questa clip musicale è stato trasmesso progressivamente. Ci arent qualsiasi denti topi ovunque in questa clip. Tuttavia si vede quotbrightness interlacciamento linesquot. Forse questo clip è stata registrata interlacciato ed è stato poi trasformato per essere progressiva e questi sono i manufatti di deinterlacciamento di sinistra. Perché anche con i metodi descritti in questo sito è difficile ottenere risultati perfetti. No, non è Kylie Minogue e il suo dentista gay. La sua piuttosto Kylie e abbastanza Jason Donovan eseguendo quotEspecially per youquot nel 1988 quotTop del Popsquot Come potete vedere ci sono alcuni manufatti di deinterlacciamento. Tuttavia, youll difficilmente li notano durante il gioco. È interlacciamento un bug Purtroppo questo è il modo in cui le videocamere digitali e registrare videoregistratore digitale e trasmissione digitale è fatto. Un secondo di un film composto da 25 fotogrammi 50 immagini interlacciate. Ciò significa che quando si deinterlacciare un film per il computer o il proiettore o il monitor TFT, e si vuole giocare su un televisore standard, il software (o hardware) devono intrecciare di nuovo. Example: There are 2 kinds of DVDs: Some have an interlaced format (like the examples above) and some are transferred from film to DVD directly, thus have 25 progressive frames encoded. This is purely a decision of the DVD company. Since TV sets expect you to feed them with 50 images per seconds (whether its from your old analog VHS recorder or from your antenna or from your DVD player) the DVD player needs to convert those 25 progressive frames to 50 images and send them to the TV set. That means they have to get interlaced them (well, its not interlacing in its original sense, but you are making 50 images out of 25 images) instead of letting the TV simply display those original 25 fps. Just recently Panasonic introduced one of the first TV sets to be able to receive progressive frames from the DVD player. So you need 2 things: A special DVD player, that suppresses the 25p-gt50p conversion and this special TV set. Panasonic TX 32ph40d is able to receive progressive frames (Field1 and 2 are half the height of course, but I have resized them to make them comparable) Blending would do this to them: Please note, that not only the area where the movement happened is changed thru blend, but also the green main body. If nothing changes from field to field then quotDeinterlacing by Blendingquot gives you a slight blur. In other words: Deinterlacing by blending (which is one of the most frequent ways to deinterlace) simluates fluent motion by blurring and quotmushesquot 2 consecutive pictures together. Thus in fact you reduce the quality down to a quarter of the possible quality. You could call it: Show both fields per frame. This basically doesnt do anything to the frame, thus it leaves you with mice teeth but with the full resolution, which is good when deinterlacing is NOT needed. You could call it: Dont blend everything but only the mice teeth themselves. This can be done by comparing frames by time or by spaceposition. This gives you good results in quiet scenes where not much is moving, because there is nothing blurred then. You could call it: This seems to me a much better idea than Blending, but unfortunately I dont know any filter or program that can do it. The idea is: Blur the mice teeth where needed, instead of mixing (blending) them with the other field. This way you would get a more film-like look. As you see the blur gets stronger in the direction of the old position. You could even add an effect like this (Motion blur) This motion blur is done nowadays when you need to convert 50fps footage to 25fps footage (to make 50fps camcorder footage look more film-like). Or to make comics and rendering (like quotMonsters Incquot) look more film-like. You could call it: You discard every second line (the movie is half the height then) and then resize the picture during play. That is the same as skipping Field2, Field4, Field6. You could call this quotEven Fields Onlyquot or quotOdd Fields Onlyquot. There are some bad things about it. You lose half of the resolution and the movie becomes kind of stuttering (as mentioned above). That means, that it doesnt play as fluidly as it could be. You could call it: There is also this way: Displaying every field (so you dont lose any information), one after the other ( without interlacing) but with 50 fps. Thus each interlaced frame is split into 2 frames ( the 2 former fields) half the height. As you see, you wont lose any fields, because both are displayed, one after the other. Sometimes quotBobquot is also called quotProgressive Scanquot. However since Bob doesnt analyze areas (Stupid Bob) nor the differences between fields this is an inappropriate synonym. Please see the next example for the quotrealquot quotProgressive Scanquot. You could call it: Analyzing the two fields and deinterlace only parts which need to. The main difference to quotArea basedquot is that it gives you a 50fps movie instead of a 25fps movie, thus leaving you with perfect fluidity of motions. To say it more academically: High temporal and vertical resolution. This is my method of choice. You can achieve this with freeware. Read the advantages and drawbacks on this site. You could call it: Analyzing the movement of objects in a scene, while the scene consists of a lot of frames. In other words: Tracking of each object that moves around in the scene. Thus effectively analyzing a group of consecutive frames instead of just single frames. This is the best solution, but unfortunately only for companies that can pay for expensive hardware solutions. NEVER BE FOOLED: If you see just one single frame instead of the whole movie to show you the quality of any deinterlacing method, be aware. You wont know how good or bad it really is. Because you dont know how fluid the movie plays and how many fine structures are lost and whether the deinterlacing method still fails sometimes or leaves interlaced lines. Instead, compare the deinterlacing methods by watching one minute or so of both movies with still and fast moving scenes. How fluid is it How blurred is it How many interlacing artifacts are left Fluid movie. Nearly all Video Software is able to do it. Video does not need to be converted to fields first. Picture becomes blurred (unsharp) when theres motion. Compression rates are not too good. Even in quiet areas the video gets blurred. Discarding Fields Single Field Mode Nearly all Video Software is able to do it. Sharp picture. 100 deinterlaced movie. There wont be any interlaced lines left. Video does not need to be converted to fields first. Very fast, even on slow computers, because the method consists only of simply deleting every second line. You lose half of the information. (Though even with half of the information it is still much sharper than blending). You lose a little bit of sharpness in quiet scenes, because each frame is half the height and has to be scaled up. Grain seems to be more coarse because it is double sized during play. Movie is not fluid (kind of stuttering continuously). You need to resize the movie during play, so you need a faster processor. Greater visibility of compression artifacts, because the artifacts stay the same size, while the height is cut in half. In other words: When resizing during play you resize the compression artifacts also. Video does not need to be converted to fields first. If the algorithm is well programmed, it will blur the mice teeth in fast movements while preserving sharpness in quiet (no motion) scenes (or parts of the pictures). Does not always eliminate all interlaced lines. Sometimes eliminates the wrong video data. Sometimes complicated parameters that can differ from video material to video material. Click the pic below, and tell me whats best for your movie: Movie can become unnaturally blurred (unsharp) during movements. 720x576-gt720x288 50 fps Super fluid movie. Sharp picture. 100 deinterlaced movie. There wont be any interlaced lines left. Greater visibility of compression artifacts, because the artifacts stay the same size, while the height is cut in half. In other words: When resizing during play you resize the compression artifacts also. How to prevent resizing artifacts . Jumping artefacts, mostly visible with TV logos (see example below). In quiet scenes without movements (where interlacing would not matter), you lose a little bit of sharpness, because each frame is half the height and has to be scaled up. Only a few software programs are able to deinterlace by bob. You need to resize the movie during play so you need a faster processor. You need to play 50fps, so you need a faster processor or a faster codec. Due to the anti-bobbing filter (see below) the frames are blurred a little bit. Because the movie has to be split into fields by Avisynth (see below), the movie encoding speed is limited by Avisynth, which can be quite slow. The resulting file size is quite big compared to the other methods. Combinations of the methods above DURING PLAY Can result in all the pros of the methods above Can result in all the cons of the methods above Since the material can result in both 25fps and 50fps (switching between these two during play), this method can only be used for watching movies rather than convertingencoding them. I doubt, that there is any program that can do it fast enough. There was a DVD player software that could do it, but I dont know if it was supported by hardware. There is also DScaler, but its useless for me since a) I was never able to get it to work with my 3 WinTV cards b) it doesnt work with recorded movies (just with movies currently displayed) c) it is already partly integrated in WinTV d) its development is very slow (halted) So you want to tell your friends to have a horsepower computer, install a new player, install deinterlacing software and still live with a result worse than deinterlacing properly in the first place resizing down to 384x288 or below The easiest method. Any video editing program can do it, even if it doesnt feature a quotdeinterlace methodquot The file sizes are quite small. The result can be exactly the same as quotBlendquot, except for the heightwidth, which makes the picture a little more unsharp. This is the easiest way to deinterlace videos. Example: you have a typical DV Camera footage of 720x576 (interlaced) and you simply resize it down to 384x288. Why 384x288 Because: 1) 2885762, that means, that its fast to calculate and quality loss is low. 2) 384x288 is 4:3 but mainly for reason 3) Movies that are 288 pixels high and below cannot be interlaced. So 384x288 is the largest size that ensures you have a progressive-frames-only video. Combination of BobWeave (Progressive Scan) 720x576-gt720x576 50 fps Super fluid movie. Unbelievably sharp picture. 99 deinterlaced movie. (99 means that there is a minimal chance that mice teeth stay visible here and there) In quiet scenes without movements (where interlacing would not matter), you keep the full resolution, while the moving scenes are fluid. You dont have to play with bobdebob filters (see below). No resizing is done. This leaves you extra sharpness. Jumping artifacts, mostly visible with TV logos (see example below). Only few software (like Virtualdub and maybe Cleaner ) is able to deinterlace like this. You need to play 50fps, so you need a faster processor or a faster codec. Because the movie has to be split into fields by Avisynth (see below), the movie encoding speed is limited by Avisynth, which can be quite slow. The resulting file size is bigger than with the other methods. See file size comparison link below. 720x576-gt720x576 50 fps Professional hardware equipment can get very expensive. How expensive Can you say 50000 Or think 100000 Then spell T-E-R-A-N-E-X. This is equipment as used for professional broadcasting: Teranex . There is a software solution by the German Fraunhofer Institute (yes, those who invented mp3): HiCon 32. Brilliant piece of work. Some PC graphic cards (e. g. NVidia) and Video cards (e. g. Hauppauge) have implemented onboard deinterlacing. Lets hope this gets standard as time goes by. Despite the above mentioned counterpoints, deinterlacing by quotBobquot or quotWeaveBobquot gives you excellent results (the best results of all available software methods). The reason is simple: How can you expect to have excellent results when you convert 50 fields per second (50 snapshots per second) to 25 snapshots per second If you dont want to use BobProgressive Scan, I would suggest to use Deinterlace by Discarding Fields, because its fast ( can be done with a slow PC) you can do it with the built-in filter of Virtualdub (see below), ( is free and easy to do) the image stays very sharp it leaves absolutely no interlaced lines the resulting filesizes are small I have encoded a video with the above methods and different options to compare the file sizes . Note: When video editing software has an option quotDeinterlacequot without further explanation it pretty sure means quotBlendquot or quotDiscard Fieldquot. Open quot Example. avs quot with Virtualdub and youll notice that you have a movie with fields instead of frames. Half the height, but no interlaced lines. Click here if your. avs produces an error or doesnt work. Now there are 3 ways how you could continue: 4a) The worse method (but still very good): Bob Go to Virtualdubs filter menu and quot Add.. quot the built-in filter quot Field bob quot. Without this filter the movie bobs (jumps up and down). Why does the movie bob Choose quotQuarter scanline downquot amp quotQuarter scanline upquot or vice versa, depending on your video material. If you choose the wrong one, your video will jump up and down even more (like in the Persil commercial below). Unfortunately this anti-bob filter also blurs a little bit. So you can add Virtualdubs built in filter quot Sharpen quot right after quot Field Bob quot and then sharpen the amount you like. 4b) The best method (but more time consuming an bigger file size): Progressive Scan (WeaveBob) Get the following the Virtualdub filter quotDeinterlace - Smooth quot from the website of Gunnar Thalin. Copy it to Virtualdubs quotpluginsquot folder. Go to Virtualdubs filter menu and quot Add.. quot this filter. You may have to check quotAlternate field orderquot within this filter. But this depends upon your movie source. 4c) Not the best and not the worst method is: Bob by Avisynth Simply change the avisynth script quot Example. avs quot to: Select ratio 4:3 from the menu of your player. If your player cannot choose a ratio then you will see the movie half size (but it will still be very fluid). Switch to fullscreen mode. Disable any DivX postprocessing. Postprocessing will slow down the playing speed. Even with little postprocessing the movie wont play fluidly with a fast CPU. So set the Quality level (post-processing level) to quotMINquot. Actually you shouldnt use the standard DivX Decoder from DivX. Get the freeware decoder suite FFDShow . The faster your processor the better. It should be gt 0.6 GHz otherwise you drop frames and it looks as if the movie was badly coded. I have several computers and I can watch the movies below smoothly with my 650Mhz Athlon. It may also depend on the speed of your graphics card. Yes, I know this capture is from an old DivX version. But I wont update it everytime DivX releases a new version. brit. avi (5.4 MB) Bob (method 4a) 50 fps 17 seconds Video Codec: DivX 5 (quality based: 93) Audio Codec: mp3 Directly recorded from MTVs Digital (MPEG-2) Broadcasting and converted to a DivX. avi You have to watch the movie 4:3 1) Please note how fluid the movie is 2) but also note that the MTV logo at the upper right corner is flimmering a bit. More about flimmering. 3) this is not the best quality, because I used quotBobquot instead of quotProgressive Scanquot . 4) Also pay attention to the black dancer at the right, hes quite good. 5) This performance of Britney Spears (MTV VMA 2001) was aired 50fps. Justin Timberlakes performance one year later at the MTV Video Music Awards 2002 was aired also 50fps, but these frames had been artificially interlaced from 25 progressive frames, to make it look more quotfilm-likequot. Interlacing is visible in movies which have a height gt 288 (NTSC: gt 240). So when you capture a movie, say, 384x288 or smaller you wont see interlaced frames. Its practically blending. Some capture cards dont blend but drop every second field with sizes smaller or equal to 288. The term quotHalf ImagequotquotHalf Picturequot is another word for quotFieldquot. The quotHalfquot relates to the fact, that the half resolution (e. g. 288 pixels) of the 2 fields (half images) is combined to full resolution (576 pixels) in quiet areas. In my personal opinion PAL is better than NTSC: Because in the end resolution matters. NTSC has only 83 of PALs resolution. And PALs resolution is already bad enough. Cinema movie are recorded with 24 fps. To convert them to PAL (25 fps) you simply make the movie run faster (4 faster, some people with sensitive ears may hear the raise in tone). But to convert it to NTSC (30 fps) is a completely different story. PAL is more common worldwide than NTSC. About 4 times as many people live in a PAL country than in an NTSC country. I am not talking about other stuff like Hue Fluctuation, Contrast, Gamma ratio and so on ( N ever T he S ame C olor, because of its color problemsquot), because PAL is also not the best in these regards. I am talking about resolution and frame rate which are the biggest arguments for Pal. As you see from the reasons above this has nothing to do with anti-Amerikanism or anti-Japanism. Its just based on pure logic. I have seen PAL movies and NTSC movies and the clarity of PAL is much better. Their fluidity (50 images per second vs. 60 images per second) is nearly the same. There are camcorders (like Panasonics AG-DVX100) that can film with 24 frames per second. Without fields. Just progressive ( non-interlaced) frames. Why 24 and not 25 To give you the cinema feeling. So the info on this site regarding deinterlacing movies doesnt apply to footage filmed like that. When you buy a DVD, some are encoded with interlaced frames and some are progressive. The output is always interlaced of course (except for some special DVD players) because TV Sets usually dont support progressive input. DivX suckz and DivX rulez. DivX rules because the de coder is fast and free. DivX rules because the en coder is good and fast. DivX sucks because its expensive as hell if you want to commercially publish your own movies: You have to pay DivX Networks for the encoder AND for the encoded film if you want to use it commercially. AND you have to pay the MPEG patent holders (mpegla ) per movieper minute (because DivX is Mpeg-4). The MPEGLA fee for itself is already way too high. Please see my website 1-4a for movie utilities.

No comments:

Post a Comment