Alors oui, prendre en compte les entrées du joueur, calculer la scène 3D par le CPU, puis traduire cette scène en image par la carte graphique et l'envoyer à un écran et ce, pour toutes les images de chaque oeil, ça prend du temps.
Alors que les systèmes à technologie de lunettes actives, on prend les entrées du joueur, le CPU calcule la scène 3D mais là, la carte graphique traduit toute seule les deux images pour chaque oeil.
Pour résumer le temps de calcul pour les deux images de chaque oeil :
méthode Carmak => deux saisies des entrées du joueur, deux calculs de la scène 3D par le CPU et deux calculs d'images
méthode driver carte vidéo => une seule saisie du joueur, un seul calcul de la scène 3D par le CPU et deux images par la carte graphique.
Alors qui tient la barre des 120 fps ? Et il faut pas oublier l'écart de résolution des écrans, ce qui enfonce le clou pour Carmak. T'imagine si le rift avait des écrans 1920*1080 avec son jeu Doom3 le temps de latence en plus avec ça méthode ?
Et je rapelle que cette technologie correspond très bien pour le Rift : débit de 2*60 fps natif, un système "d'aiguillage" pour amener l'image à l'oeil concerné (l'émetteur infra-rouge pour obscurcir l'oeil non concerné pour l'image affichée pour ceux qui se posent la question).
Alors que la technologie passive, les images sont entrelacées, pas franchement logique pour devoir les séparés ligne par ligne pour ensuite les adresser à leur écran respectif. Il y aura toujours le problème de la résolution tronquée sur la hauteur et surtout, comment savoir quelle image va à quel oeil.
Ce que j'essais de te dire, c'est que ce problème de latence qui te tient tant à cœur de cette démo n'est pas représentatif de ce que ce périphérique peut offrir, même en l'état actuel. La démo, d'un point de vue performances techniques est fortement contestable du fait quelle à été réaliser avec un jeu difficilement compatible pour ce genre de périphérique. Et viens pas me dire que le head-tracking à quel que chose à voir sur la vitesse d'exécution du jeu. Le driver du head-tracking va traduire ses coordonnés pour qu'elles soit directement exploitable par le jeu et cela en temps masqué par rapport à l’exécution du jeu comme tout périphérique de saisie. Alors dire que ce problème de latence sera générique à tous jeux, certainement pas.
En exemple, le HMZ T1 de sony.
Alors, oui il fout la gerbe parcequ'il n'a pas de head-traking intégré.
Oui, ces caractéristiques d'affichages qui nous conviennent pas pour nous, joueurs.
Mais lui, il est bien capable d'aficher en 3D avec une résolution plus importante que le Rift et avec moins de puissance de calcul puisqu'il est destiné aussi pour le marché de la playstation.
Je m'en fous de "contredire" Carmak Dieu le père, je ne prends pas tout ce qu'il dit pour parole d'évangile.
J'ai juste analysé avec mes faibles connaissances plutôt que de prendre tout pour argent comptant et même si ça m'a pris du temps et ça ma permit de mettre le doigt sur cette "bêtise" d'avoir pris un jeu qui si prête le moins pour la démo techniquement. Après, je me doute qu'il avait ses raisons, comme de connaitre le code et surtout d'avoir le droit de le modifier contrairement à un autre jeu dont il n'aurait pas la licence l'y autorisant.