PDA

Voir la version complète : [vidéo] image vs resolution vs vitesse



Storm
17/07/2009, 14h13
Hello,

Petite interrogation technique de ma part.
Si quelques personnes du domaine audiovisuel / trucages numériques / intelligent (voire les 3!?) ont des idées là-dessus, je suis preneur.
Imaginons une camera, qui prend 25 images/s.
On a donc une résolution donnée.
Si on déplace la camera, on est toujours à 25 images/s.
La résolution diminue: on ne capture pas autant de détails.
J'imagine ce phénomène comme un postulat de départ.

Maintenant, pour conserver la résolution, je ne vois pas 36 solutions:
Il faut augmenter le nombre d'images/seconde.

Est-ce que ça existe, ce genre de camera / dispositif ??

Merci pour vos avis / conseils / réflexions (voire les 3!?)

Gunthar Olafson
17/07/2009, 14h24
J'ai du mal à te suivre là...
Déjà résolution et image/sec, ce sont deux choses différentes et indépendantes (dans les limites de ta caméra et du support).
Tu peux reformuler ton problème ? Parce que là :

Si on déplace la camera, on est toujours à 25 images/s.
La résolution diminue: on ne capture pas autant de détails.
Franchement je comprends rien.

Maxwell
17/07/2009, 14h27
J'ai pas osé répondre en premier parceque je ne suis pas forcément très calé, mais pour le coup j'allais dire la même chose que toi Gunthar. A comprends rien.

Je vois pas pourquoi ni comment la résolution diminuerait si on bouge la caméra... Et vu que c'est ton postulat de départ...

Ouhlala
17/07/2009, 14h51
Hello,

Petite interrogation technique de ma part.
Si quelques personnes du domaine audiovisuel / trucages numériques / intelligent (voire les 3!?) ont des idées là-dessus, je suis preneur.
Imaginons une camera, qui prend 25 images/s.
On a donc une résolution donnée.
Si on déplace la camera, on est toujours à 25 images/s.
La résolution diminue: on ne capture pas autant de détails.
J'imagine ce phénomène comme un postulat de départ.

Maintenant, pour conserver la résolution, je ne vois pas 36 solutions:
Il faut augmenter le nombre d'images/seconde.

Est-ce que ça existe, ce genre de camera / dispositif ??

Merci pour vos avis / conseils / réflexions (voire les 3!?)

Pareil que les 2 autres . Je ne comprends pas ta question . J'ai l'impression que tu mélanges tout .

Deja, une caméra (deplacée ou pas :aucun rapport) n'est pas toujours à 25img/sec . Ca depends de son format de sortie, et video . (pal :25, ntsc : presque 30/s, cinema classique :24 img/sec , camera pour les ralentis : plusieurs centaines d'img/sec) .
La resolution d'une image n'a aucun rapport avec le nombre d'image/sec, sauf si l'on considère les limitations techniques (vitesse defilement bobine, capacité écriture des supports magnétiques, etc) . Cependant, la resolution et le nombre d'images/sec sont 2 des éléments qui définissent un format video (pal, ntsc, hd, cineon, etc).
Je crois que tu confonds résolution d'une image et définition, voir qualité.

Donc, pour le peu que je comprends de ta question : Soit tu as des problèmes lors des mouvements de caméra (travelling, pan, truck in/out etc) qui provoque une espece de saccade si c'est trop rapide . C'est un problème courant, et le flou de mouvement est là pour compenser en partie. Tu peux aussi augmenter le nombre d'images par sec sur certaines caméra, mais tu vas perdre la compatibilité du format.
Sinon, tu utilises une caméra numérique qui a du mal a assurer un piqué suffisant , surtout visible sur les mouvements de cam, et là, bah... Va voir ton banquier et achète du bon matos.

Yasko
17/07/2009, 15h23
Je pense qu'il faut remplacer résolution par fréquence d'échantillonage.
La résolution en imagerie numérique est le nombre de pixels, la dynamique le nombre de valeurs possibles pour chaque pixel et la fréquence d'échantillonnage la fréquence à laquelle l'information est recapturée.

Tu veux filmer un truc qui se déplace rapidement ? Il existe effectivement des caméras qui enregistre à bien plus de 24 i/s (pour faire des ralentis propre par exemple).

Storm
17/07/2009, 15h31
Ah, ok, je vais m'expliquer.
Mon vocabulaire n'est peut être pas juste, ce qui n'arrange rien.

En considérant une camera prenant 25 images / seconde, sans se soucier du format pour l'instant, si on fait un plan fixe à 25 fps, on saisira une quantité d'information sous forme de détails, grain, couleur etc... (sans parler de luminance/chrominance, certains vont me dire que c'est valable pour certains formats uniquement :) ).

Maintenant, si on déplace la camera, qui filme toujours à 25 fps, à cause de ce déplacement, on peut avoir par exemple une trainée (exemple, on envoi la cam de droite à gauche en 3 secondes).
On capte moins d'information, ou plutôt, la camera n'a pas le temps de fixer autant d'information.

Que la camera bouge, ou bien que le sujet bouge, le problème à mon sens est le même. En fait, je pense à ces camera slow-motion, qui carburent à beaucoup plus que 25 fps, et qui fixent plein de détails.

Et la question concernait l'existence d'une camera qui/qu'on adaptait son nombre de fps, afin de garder une résolution de détail constante.

L'analogie que je vois avec cela serait par exemple le VBR vs CBR en audio compressée MP3.

J'espère que c'est un peu plus compréhensible ...

XWolverine
17/07/2009, 15h37
Je ne pense pas que ça existe (adaptation du nb de im/s en fonction du sujet) et si c'est le cas, ça doit nécessiter un système d'analyse capable de réagir au 100èmme de seconde, donc bon ...
Ce qu'il te faut, c'est tout bêtement une caméra qui enregistre à plus de 25 im/s, de manière constante. Pour les moments où les mouvements ne nécessitent pas autant, lors de la compression de ton film final, ça sera encodé dans très peu de place, puisque très peu de différence d'une image à la suivante et donc sans (trop de) préjudice pour la taille finale du fichier.

Ouhlala
17/07/2009, 15h42
Ah, ok, je vais m'expliquer.
Mon vocabulaire n'est peut être pas juste, ce qui n'arrange rien.

En considérant une camera prenant 25 images / seconde, sans se soucier du format pour l'instant, si on fait un plan fixe à 25 fps, on saisira une quantité d'information sous forme de détails, grain, couleur etc... (sans parler de luminance/chrominance, certains vont me dire que c'est valable pour certains formats uniquement :) ).

Maintenant, si on déplace la camera, qui filme toujours à 25 fps, à cause de ce déplacement, on peut avoir par exemple une trainée (exemple, on envoi la cam de droite à gauche en 3 secondes).
On capte moins d'information, ou plutôt, la camera n'a pas le temps de fixer autant d'information.

Que la camera bouge, ou bien que le sujet bouge, le problème à mon sens est le même. En fait, je pense à ces camera slow-motion, qui carburent à beaucoup plus que 25 fps, et qui fixent plein de détails.

Et la question concernait l'existence d'une camera qui/qu'on adaptait son nombre de fps, afin de garder une résolution de détail constante.

L'analogie que je vois avec cela serait par exemple le VBR vs CBR en audio compressée MP3.

J'espère que c'est un peu plus compréhensible ...

Bon, c'est plus comprehensible . Tu veux juste supprimer les flous de mouvements (motion blur) . Malheureusement, hormis investir dans une camera qui peut shooter a beaucoup plus d'img/sec (prepare toi a vendre tes 2 reins) , et avec une resolution suffisante (bah oui, sinon, meme a haute vitesse, une bouillie de pixel, restera une bouillie), et avec les bons codecs de compression (si c'est une cam numerique), je vois pas de solution . Après tout, le flou de mouvement est un peu un des éléments caractéristique d'une video.
A ma connaissance, ça n'existe pas une caméra qui adapte son fps, à la volé. Encore heureux d'ailleurs, sinon, je te raconte pas les problèmes pour lire le dit fichier . Par ailleurs, oublie pas qu'une video est faite pour... Etre lue. Bon, c'est bete je sais, mais la ou les personnes qui zieuteront ta video, n'auront peut etre pas le matos necessaire pour lire ton film a xx fps. Par exemple, un film tourné a 50img/sec (chiffre donné au hasard), sera soit ralenti de 2 fois sur une tv normal (pal), soit pas du tout lu, soit simplement convertie en 25img/sec (avec perte d'une majeure partie des benefices du 50). Bon, tu auras moins de flou de mouvements, mais peut etre plus de saccades visible dans ce dernier cas.

Bon, dans les solutions débiles, tu peux aussi demander a ce que l'acteur bouge moins vite , ou a faire de la stop motion... ;)

Yasko
17/07/2009, 16h38
En fait, il y a 2 choses. Il y a la fréquence d'échantillonnage qui fixe la durée entre 2 images (24 i/s => 24 Hz), et, euh comment dire, la vitesse de prise de vue.
Pour faire une analogie avec la photo (puisque on peut considérer la vidéo comme une succession de photos), plus ta vitesse est rapide et plus tu pourras figer un élément se déplaçant rapidement.
Si tu cherches à réduire les saccades, il te faut plus d'image par seconde
Si tu cherches à réduire le flou dans les déplacements, il te faut un capteur avec une prise de vue rapide.
En théorie, les 2 sont indépendants (tu peux vouloir capturer quelque chose se déplacer très vite, mais des intervalles éloignés), mais dans la pratique, je pense que les 2 sont liés, les caméras qui prennent à 100 Hz et plus doivent avoir des capteurs plus rapides, puisqu'ils sont adaptés pour prendre des objets se déplaçant rapidement, et que le temps de prise ne peut pas dépasser la période d'échantillonnage (par exemple, une caméra qui filme à 100 Hz doit avoir une durée de prise de vue inférieure ou égale à 10 ms).

Bon, je dis ça, mais surtout par analogie avec le monde photo, je ne sais pas trop comment fonctionne ces caméras rapides.

Storm
17/07/2009, 18h18
Oui donc, c'est un peu ce que j'imaginais: partir sur une camera rapide, et ensuite faire varier la vitesse de lecture.
Merci en tous cas d'avoir apporté un peu de considération à ce sujet pas franchement fondamental, mais ça fixe quelques idées :)

... Je me demande si de la déconvolution ne serait pas implémentable, dans cette idée de traitement d'image.
Mais ce serait image par image, avec un flux numérique... Fouya, ce doit être tendu du slip !
/me se retourne vers les gens du traitement du signal !

Super Menteur
17/07/2009, 19h54
Moi ce que je vois dans ce topic c'est beaucoup de confusions surtout. Le fonctionnement d'une caméra est complexe, et le réglage des nombreux paramètres pour obtenir un résultat particulier est un métier voir même un art. Je vais essayer de faire le tri dans ce qui a été dit.

Tout d'abord la résolution : Elle est déterminée par le format du signal (PAL ; NTSC ; HD ; 2K ou 4K pour le cinéma numérique, etc..). Tout le monde sait ce que c'est sauf qu'il faut ajouter ceci : la résolution NE VARIE JAMAIS une fois le format fixé. Que ta caméra fasse un plan d'ensemble fixe ou un Très gros plan avec plein de mouvements, ce sera toujours la même résolution. Les résolutions les plus classiques pour le grand public sont le PAL (720*576), le NTSC (720*480), le 1920*1080 et le 1280*720. Notez que les lettres "p" et "i" de "1080p" et "1080i" par exemple n'ont PAS de rapport direct avec la résolution, il s'agit de différencier si la vidéo est entrelacée ou non (j'y arrive).



Vient ensuite la fréquence d'image (ce n'est pas le terme exact je crois mais vous me pardonnerez, et c'est ce que Yasko appelle la fréquence d'échantillonnage, ce qui est un terme maladroit selon moi car il laisse une ambiguïté sur le nombres d'images/seconde). Basiquement, il s'agit du nombre d'images par seconde pour l'enregistrement considéré. Il peut être lié au format (PAL : 25 images/seconde ; NTSC : 29,97 images/seconde, disons 30 pour ne pas compliquer) ou être simplement choisi par l'opérateur (les cams HD permettent de faire du 24,25,30,50 ou 60 images secondes pour le formats courants).
J'occulte volontairement le cinéma, et ce pour une raison bien précise : si dans les salles les films sont toujours projetés en 24 images/seconde, l'opérateur peut modifier en tournage la vitesse de défilement de la pellicule pour choisir par exemple de tourner en 30 images/secondes. Evidemment à la restitution sur écran cinéma, cela provoquera un ralenti.`
A celà vient s'ajouter un concept ô combien important : l'entrelacement.

Hérité de la télévision, ce procédé consiste à afficher l'image non pas de façon progressive (càd une image entière suivie d'une autre image entière, etc...) mais de remplacer seulement une demi image à chaque passage. Le concept est difficile à expliquer mais je vais prendre un exemple : le Sénat. Les sénateurs sont remplacés par "tiers" tout les 2 ans. Une partie du Sénat est renouvelée pendant que les deux autres tiers restent en place. Cependant, chaque Sénateur est élu pour 6 ans, et au final le Sénat est intégralement renouvelé tout les 6 ans.
Appliqué à la vidéo, celà consiste à rafraichir une ligne sur deux tout les 1/50è de seconde afin d'obtenir une fréquence finale de 25i/s.

Alors pourquoi utiliser ce procédé ? Eh bien c'est un héritage des tubes cathodiques et notamment de leur canon à balayage latéral. En effet, au début de la vidéo les écrans cathodiques mettaient trop de temps à renouveler entièrement une image, et le spectateur s'en rendait compte. Renouveler une ligne sur deux permettait d'aller deux fois plus vite et de résoudre le problème, et surtout on s'est aperçu que l'oeil ne voyait pas la supercherie de l'alternance des lignes grâce à un effet optique (l'effet Phi).
Aujourd'hui évidemment la technologie à tube à évoluée et le problème n'existe plus, d'autant plus avec le LCD, mais les formats vidéos ont à l'époque été conçus de cette façon. C'est de là que vient également le "i" et le "p".



Enfin, un autre concept important est le temps d'exposition et la vitesse d'obturation. Pour comprendre celà, il faut bien se mettre en tête le fonctionnement d'une caméra. Une caméra peut être réduite à deux éléments : l'objectif et l'élément photosensible. L'objectif à pour but de concentrer la lumière sur l'élément photosensible qui la fige. L'élément photosensible peut être une pellicule, ou un capteur CCD par exemple.
Par conséquent, lorsqu'on fait une prise de vue il convient de choisir le temps nécéssaire pour que l'élément sensible fixe une image satisfaisante. On utilise ainsi un obturateur mécanique réglé de telle façon qu'il va laisser la lumière imprimer l'élément pendant un temps donné. Le temps pendant lequel l'élément est exposé est le temps d'exposition. Ensuite, il faut à nouveau faire le noir pour permettre la mise en place d'un nouvel élément sensible (passer à la suite de la pellicule ou le temps de décharger un capteur CCD vers la mémoire par exemple).

C'est pour celà que lors d'un mouvement, le temps d'exposition est directement lié à la sensation de flou. Capter une image n'est rien d'autre que de résumer toute la lumière projetée sur l'élément sensible pendant un temps donné. Si la lumière varie pendant ce temps par un mouvement entre autres, on aura une "moyenne" de ce qui c'est passé pendant la durée d'exposition sur l'élément sensible.

A celà il faut ajouter qu'en vidéo on doit prendre des images successivement. Alors dans les grandes lignes, l'obturateur utilisé suit alors un modèle cyclique directement dépendant du temps d'exposition (logique, on a toujours le même temps d'exposition lors d'une prise de vue vidéo, l'obturateur effectue toujours le même mouvement d'ouverture/fermeture). On peut donc définir la vitesse d'obturation en fonction du temps d'exposition. Bien évidemment le plus pratique, et c'est d'ailleurs le cas dans 99% des cas, et de s'aligner sur la fréquence d'image du format de sortie. En PAL on voudra dès lors que l'obturateur laisse passer l'image tout les 1/25è de seconde.
Ainsi pour du 25 images/secondes on a un temps d'exposition de 1/50è de seconde (bah oui, la moitié du temps est utilisé pour refermer l'obturateur) et une vitesse d'obturation de 50hz.

Cependant, et là où ça devient compliqué, c'est que les caméras professionnelles permettent de désynchroniser l'obturateur de la vitesse de captation. L'intérêt ? Facile, comme expliqué plus haut, une image est un "résumé" de la lumière pendant un temps t. Si on modifie t, on modifie le temps considéré pour faire le résumé. Plus t est petit, moins on capte de lumière globale (c'est une des difficultés de la prise de vue) mais plus l'image sera précise. Et inversement. Mais encore une fois, cela n'a rien à voir avec la résolution, c'est simplement lié à la nature même de la prise de vue. Et le flou, dans le cadre d'un mouvement, apparaît à l'oeil comme un mouvement continu toujours grâce à l'effet phi. Le Motion Blur des jeux vidéo vient d'ailleurs de ce principe : en flouant les mouvements, même si le nombre d'images/seconde est faible, l'oeil est dupé par effet Phi et croit voir un mouvement fluide.


Une conséquence TRES IMPORTANTE de la variation et de la désynchronisation du temps d'exposition en vidéo, c'est l'impact sur la fluidité. Désynchroniser son temps d'exposition comme le propose certaines caméras (et certaines se font plaisir avec des temps d'exposition qui vont jusqu'au 1/10000è de seconde, j'en ai vu :o) c'est certes capter des images plus précises puisqu'une partie infime du mouvement est alors "résumé" sur l'élément sensible, mais c'est aussi s'exposer à l'inévitable problème de cohérence dans l'ensemble de la vidéo. Car on capte alors des images distancées d'1/25è de seconde, alors que chaque image résume une partie de ce qui c'est passé pendant ce délai !
Pour que ça te parle, prenons un exemple simple. Si je veux te résumer une série télévisée, c'est comme si au lieu de te résumer un épisode entier de façon assez vague, je te résumais de façon plus détaillé une partie de l'épisode en omettant un bout du début et de la fin dans le même laps de temps. En fonction de l'épisode et de la partie ommise, celà peut être insignifiant comme rendre le tout totalement incohérent.
C'est cet équilibre subjectif que doit trouver l'opérateur dans la vidéo.



(Ouf :p)

punishthecat
17/07/2009, 20h23
La vache !
Respect pour la clarification !

Et sinon ne pas oublier que comme le temps d'exposition est plus court a mesure que l'on augmente le nombre d'image par seconde, eh bien il faut prévoir l'éclairage en conséquence !

Edit : ou un objectif bien lumineux

fefe
17/07/2009, 20h52
Super explication du super menteur :).

Il y a aussi 2 resolutions qui sont souvent confondues = la capacite theorique du capteur a resoudre des details, qui est equivalente au nombre de pixels, et la capacite du systeme entier, y compris optiques a resoudre des details.

Tres peu de systemes sont capables de resoudre autant d'informations qu'ils ont de pixels (la limite est expliquee apr le theoreme de Nyquist: http://en.wikipedia.org/wiki/Nyquist%E2%80%93Shannon_sampling_theorem), et bien souvent augmenter ta resolution reviendra a changer l'optique que tu a mise devant le capteur pour une plus performante.

Yasko
18/07/2009, 03h12
Il y a un obturateur sur les caméras numériques ?

J'avais posé la même question je crois pour les APN. Je ne sais pas trop, mais avec l'électronique, le role de l'obturateur ne me semble plus indispensable. Tu déclenches, ca enregistre les informations du capteur dans un buffer. La durée d'exposition est atteinte, l'enregistrement des infos du capteur s'arrête. L'ensemble des valeurs disponibles pour chaque pixel est alors traité (somme, moyenne, ...) et l'image est produite.

Quoi ? C'est pas comme ça que ça fonctionne ? :)