Crunchez vos adresses URL
|
Calculez la conso électrique de votre PC
|
Hébergez vos photos

Affichage des résultats du sondage: La motivation de venir à la VR?

Votants
42. Ce sondage est terminé
  • Early adopter (KS,...)

    14 33,33%
  • Les premières promos été 2017

    7 16,67%
  • les casques WMR, bien plus abordables

    12 28,57%
  • la ludothèque, enfin intéressante

    9 21,43%
  • ce topic (et celui des jeux VR)

    7 16,67%
Sondage à choix multiple
Page 2 sur 419 PremièrePremière 123456789101252102 ... DernièreDernière
Affichage des résultats 31 à 60 sur 12546
  1. #31
    Hmmm, le mini test de GK donne envie. Ne pas craquer surtout

  2. #32
    Rhalala, qu'est ce que ça fait envie. La réalité virtuelle, j'en rêve depuis les années 90. J'avais fait un voyage de classe d'anglais à Londres au lycée et on avait essayé des bornes VR à Picadilly Circus. Y avait une queue de dingue. À l'epoque, on était aux début de l'ère des jeux en rendu 3d avec des polygones sans textures (et pas très nombreux d'ailleurs) et pourtant j'avais été bluffé par le truc, mais d'une force. Et puis Joypad avait fait sa une sur un casque présenté lors de l'e3 pour la megadrive. J'avais trempé la couv' de bave. Et la je viens de lire le papier de chez Gamekult, et je me dis qu'avec les technologies actuelles ça doit juste tuer !
    Par contre, comme vous je m'interroge sur le côté pratique du truc. Avec un pad ça doit y aller les doigts dans le nez mais au clavier... Enfin, bref, vous l'aurez compris, y a gros client potentiel par ici

  3. #33
    C'est très facile de retrouver un zqsd sur le clavier si on se repère aux bordures, à la touche espace etc... À mon avis ça c'est vraiment vraiment un truc mineur qui sera vite oublié une fois les réflexes bien ancrés.
    Non je crois que le plus gros soucis ça va être de réussir à faire tenir un jeu à 60fps constants en stereo. Y a pas le droit à des chutes de framerate là. D'autant que beaucoup de moteurs récents ont été modifiés pour paralléliser beaucoup de choses et ça a rajouté une frame de latence (l'Unreal par exemple). Je suis très curieux de voir comment les gars d'Unreal vont réussir à tordre leur moteur pour que ça soit compatible. Le moteur Unity est moins lourd et plus flexible, de leur côté y aura normalement pas de soucis.
    Dernière modification par MrPapillon ; 19/08/2012 à 03h00.

  4. #34
    J'ai pas vu qu'il y avait une reconnaissance des mouvements, et apparemment, il faut synchronisé les mouvements de sa tête avec la caméra du perso pour pas choper la remontée du repas du midi, point négatif du coup, un ou deux petits capteurs à la TrackIr histoire d'avoir les mouvements IG serait top !
    Malgré ma vue a chier c'est la seule chose qui me ferait réfléchir à l'acheter

  5. #35
    Citation Envoyé par Ayvox Voir le message
    J'ai pas vu qu'il y avait une reconnaissance des mouvements, et apparemment, il faut synchronisé les mouvements de sa tête avec la caméra du perso pour pas choper la remontée du repas du midi, point négatif du coup, un ou deux petits capteurs à la TrackIr histoire d'avoir les mouvements IG serait top !
    Malgré ma vue a chier c'est la seule chose qui me ferait réfléchir à l'acheter
    Tu veux dire que si on tourne la tête à droite, ce que l'on voit sur l'écran ne change pas pour autant ?
    Ah ben du coup si c'est ça, c'est beaucoup moins intéressant, en effet ...

  6. #36
    Citation Envoyé par MrPapillon Voir le message
    Non je crois que le plus gros soucis ça va être de réussir à faire tenir un jeu à 60fps constants en stereo. Y a pas le droit à des chutes de framerate là. D'autant que beaucoup de moteurs récents ont été modifié pour paralléliser beaucoup de choses et ça a rajouté une frame de latence (l'Unreal par exemple).
    Heu...non. Il y a déjà un moment que ça se fait. Les systèmes 3D Vision et HD3D le font sans problème et le moteur Unreal, il me semble, était compatible depuis le début de la stéréoscopie.



    Citation Envoyé par Ayvox Voir le message
    J'ai pas vu qu'il y avait une reconnaissance des mouvements, et apparemment, il faut synchronisé les mouvements de sa tête avec la caméra du perso pour pas choper la remontée du repas du midi, point négatif du coup, un ou deux petits capteurs à la TrackIr histoire d'avoir les mouvements IG serait top !
    Malgré ma vue a chier c'est la seule chose qui me ferait réfléchir à l'acheter
    Là aussi, il n'y a pas lieu de s'affoler. Le système de head-tracking sera très probablement intégré dans le code des jeux futurs et le cas échéant, un soft du fabricant de l'oculus rift s'en chargera en chargeant des profils.


    Ce que je souhaite, c'est que l'effet 3D commence au plus prés de notre perception et non à une sensation de quelques mètres comme sur le casque de Sony.

    Maintenant, imaginez si cette perception commence au plus près du bout de notre nez et qu'on couple l'oculus avec le système LEAP Motion,ça serais terrible. On pourrait mouvoir notre main à hauteur de nos yeux et voir son équivalent virtuel au même endroit où se trouve notre main. Imaginez cette main interagissant dans les jeux comme ouvrir une porte, manier une épée ou manipuler les switchs du cockpit d'avion à l'échelle 1:1

  7. #37
    Citation Envoyé par Sedjem Voir le message
    Là aussi, il n'y a pas lieu de s'affoler. Le système de head-tracking sera très probablement intégré dans le code des jeux futurs et le cas échéant, un soft du fabricant de l'oculus rift s'en chargera en chargeant des profils.
    Le responsable du projet a bien embauché 2 mecs ayant bossé dans le middleware non ?
    Il a surement fait ça pour pondre un truc à intégré aux jeu ou faire une librairie générique..
    Enfin justement un composant soft qui aura un rôle d'intégration.

    Faut pas oublier que le truc est surement encore loin d'être au point niveau support. C'est un peu comme tester une alpha.

  8. #38
    Citation Envoyé par Ayvox Voir le message
    J'ai pas vu qu'il y avait une reconnaissance des mouvements, et apparemment, il faut synchronisé les mouvements de sa tête avec la caméra du perso pour pas choper la remontée du repas du midi, point négatif du coup, un ou deux petits capteurs à la TrackIr histoire d'avoir les mouvements IG serait top !
    Malgré ma vue a chier c'est la seule chose qui me ferait réfléchir à l'acheter
    Quoi?! ça m’étonnerait quand même qu'il n'y ait pas d'head tracking intégré... parce qu’effectivement, l'absence d'un tel truc diminuerait énoooooooormément l'intérêt du Rift.
    pouet!

  9. #39
    C'est pas ce que dit le mec de chez GameBlog si j'ai bien compris !
    http://www.gameblog.fr/news/30600-oc...realite-virtue

  10. #40
    Citation Envoyé par Sedjem Voir le message
    Heu...non. Il y a déjà un moment que ça se fait. Les systèmes 3D Vision et HD3D le font sans problème et le moteur Unreal, il me semble, était compatible depuis le début de la stéréoscopie.
    Oui mais je ne parle pas de stéréo, je parle de latence. Le problème de la stéréo, c'est surtout qu'il faut calculer encore plus et donc du coup ça augmente encore la latence. (Snon la stéréo reste souvent mal supportée à cause de certains effets qui sont rendus en 2D post-process). Donc ça ça va être un problème majeur parce que la latence n'était pas du tout une priorité jusqu'à présent, elle était même sacrifiée au profit d'optimisations graphiques. Surtout qu'on était dans l'ère console où la latence a encore moins d'impact grâce aux gameplays basés sur les joypads.

    Sinon concernant le head tracking :
    Il y a pour le moment une détection des mouvements de rotation efficace mais par contre la position dans l'espace et les translations très peu voire pas du tout. Ils sont dessus et essayent de faire leur maximum mais il y a beaucoup de problèmes techniques (latence, coût, techno pas aboutie, etc...).
    Carmack a codé une petite animation qui simule le fait qu'on penche la tête plutôt que de simplement faire des rotations de la caméra autour d'un point fixe. D'après ce que j'ai pigé il faut essayer de suivre suffisamment cette animation sans trop faire le con à essayer de décaler la tête à droite à gauche pour éviter d'avoir la gerbe. Il faut aussi éviter de regarder ses pieds.
    Je sens que la position dans l'espace va être le prochain combat de Palmer pour proposer un truc fiable pour la version finale. D'après mes souvenirs ils ont bien aimé le Razer Hydra, mais il y avait une latence de 300ms, c'est énorme. J'ai peut-être mélangé les infos, mais ça me paraît cohérent.
    En tout cas rotation + translation et on sera ok pour faire du lean et s'approcher des objets en bougeant la tête. Pour l'instant on se contente de dire oui-oui et non-non.
    Dernière modification par MrPapillon ; 19/08/2012 à 03h05.

  11. #41
    Autant pour moi, je t'es mal compris. Par contre, je ne vois pas de quoi tu fais allusion avec la latence. Peux-tu dévelloper ou donner un exemple, car je ne ressens rien en retard lorsque je joue en 3D.

  12. #42
    - il faut réduire la latence au max quand on joue avec le rift, sinon on est déconnecté du monde et on a la gerbe.
    - mettre en stéréo, ça demande de calculer deux fois certains trucs si on fait mal son pipe de rendu. Quand le rift aura une vraie résolution, ça aura un impact sur le temps que met le cpu/gpu à fournir l'image. Si le pipe de rendu est bien prévu pour, le calcul supplémentaire pourrait être mineur. Par contre avec le rift il y aura aussi un gros intérêt à foutre un anti-aliasing de qualité et poussé au max.

    Donc on a un problème : d'un côté il faut réduire la latence au maximum et de l'autre on est obligé de faire de lourds calculs pour afficher la scène.

    Tout ça c'est spécifique au Rift, où il faut que tout tourne à >= 60fps sans saccades. Sur un de la stéréo normale avec écran, le fait de passer de 60fps à 50 fps ne changera pas grand chose. Sur mon écran Zalman passif je peux même jouer à 5 fps d'ailleurs sans que ça pose d'autres problèmes que de l'énervement.

  13. #43
    Si je t'ai compris, tu parles de la latence entre le head-tracking et l'affichage. Alors oui, il faut diminuer cette latence. Cependant, même s'il restera une fraction de latence, notre cerveau apprendra et s'accommodera et du coup, on ne ressentira plus trop cette sensation de gerbe.

    Pour ce qui est de la stéréoscopie, je persiste à dire que tu te trompe.

    Tu compares l'oculus à ton expérience via ton écran passif. Mais cette technologie n'a rien à voir avec celle des écrans actifs ou de l'oculus qui lui aussi un système actif. Le visuel est vraiment tout autre.

    A titre d'exemple, l'anti-aliasing perd son utilité en technologie active, du fait de voir une image différente à chaque oeil. Ça lisse naturellement.
    C'est vrai que certain rendus sont à proscrire et que les jeux ne sont pas égaux en profondeur ou de volume, voir même être incompatible à un fonctionnement stéréoscopique. Mais si le marché d'affichage 3D prend une part importante et non un marché de niche comme à l'heure actuel, alors les développeurs coderont nativement leur jeu compatible 3D.

    Mais depuis déjà quelque temps, le hardware est suffisamment puissant pour afficher 60 images pour chaque oeil avec le léger décalage de point de vue qu'il faut, et ce, en 1920*1080 avec des réglages graphiques poussés à fond. Le fonctionnement de l'oculus n'est en rien différent à ce procédé, alors où est le problème ?

    La seule différence sera de stocké une image d'un oeil en mémoire tampon, le temps de calculer l'image de l'autre oeil, pour les envoyer simultanément à leur écran respectif.

  14. #44
    Pour l'anti-aliasing : la résolution portée sur tout le champ de vision est très faible fait que tu as une densité de pixels très faible. D'après les retours on voit clairement des gros pixels. Alors à la place d'avoir des trucs qui scintillent de partout quand on se déplace ou qu'on bouge la tête, il vaut mieux un anti-aliasing sévère qui gère le lissage de pixels oui, mais assure aussi une cohérence d'une frame sur l'autre. Ce que le FXAA ou SMAA ne fait pas. Les démos du Rift présentées jusqu'à présent avaient un gros anti-aliasing, je ne sais pas lequel par contre.
    Ton histoire d'anti-aliasing naturel est intéressante par contre, et j'espère que ça va contribuer à améliorer l'expérience.
    Par contre l'oculus est un système passif puisque tu as une image pour chaque œil sans que l'affichage soit alternatif.

    Pour la stéréo, pour l'instant il n'y aucune raison que les devs se lancent massivement dessus vu les modifs chiantes à faire sur le moteur. Les anciens jeux eux sont à jeter à la poubelle la plupart du temps, sauf peut-être les jeux qui datent d'avant les shaders.

    Concernant la latence, Carmack a parlé de gerbe oui, mais surtout d'avoir la sensation d'être réellement à l'intérieur du monde virtuel. Même avec le prototype actuel et sur un Doom 3 modifié pour réduire les latences et à 60 fps constants, il paraît qu'il y a encore une latence non négligeable qui gâche cette impression d'être intégré au décor. Si dans les conditions idéales, ça n 'est pas suffisant, on peut se poser la question en terrain miné sur des jeux plus gourmands.

    Si tu arrives à faire tourner tous les jeux à 60 images par secondes sans chute de fps y compris les jeux très récents et en stéréo, alors oui c'est bon tout va bien. Si tu veux pour simplifier, mon problème n°1 avec la stéréo pour le Rift c'est le fait que ça fasse chuter le framerate. Maintenant les jeux optimisés pour réduire la latence, il y en pas beaucoup. La plupart du temps ils sont optimisés pour afficher un max de choses. Là on est dans une période pour l'instant de fin de vie des consoles, mais dès qu'on va passer à la suivante, on va encore se ramasser des portages pas optimisés et du coup des jeux qui rament à mort. Pour être tranquille il faudra encore opter pour du matos qui coûte un bras et deux jambes.
    Il y a aussi beaucoup de jeux qui n'ont pas un framerate lissé et des micro ralentissements, et ça ça risque de jouer aussi je pense.

  15. #45
    J'ai complètement zappé la faible résolution des écrans, autant pour moi, tu as raison sur l'anti-aliasing.

    Pour les jeux en stéréo, je reconnais que j'y connais rien en lignes de codes pour savoir ce qui marche ou marche pas. Cependant, je souligne que des studios ont réussis à faire des jeux qui passent super bien en stéréoscopie sans pour autant y avoir pensé en amont. Donc je ne pense pas qu'optimiser un moteur ou un jeu pour la stéréo soit si contraignant. Pourquoi pas espérer pour les futurs jeux ou moteurs de jeux de mettre dans le cahier des charges une compatibilité stéréoscopique obligatoire ?

    Pour les 60 fps, je reconnais que j'ai forcé un peu le trait, surtout sur le "réglages graphiques poussés à fond". Je voulais juste affirmer que c'est déjà possible de tenir 60 fps par oeil alors que tu as laissé dire que c'était encore dur d'y arriver.

    A moins que je me trompe, je ne vois pas en quoi il faudrait optimiser le code d'un jeu pour réduire la latence. Que le programme prend des coordonnés d'une souris, du Track Ir ou du système de head-tracking de l'oculus, pour lui, ça ne change rien. ça reste des coordonnés. Je veux dire par là que l'origine matériel d'une saisie d'information n'influence pas sur la vitesse d'exécution du programme. La latence, je la vois plus du côté hardware, à savoir la saisie du mouvement physique par les capteurs, puis la traduire en langage informatique et la prise en charge de ces données par le programme.

  16. #46
    Pour faire un jeu en stéréo, tu compliques les choses côté GUI, game design, et shaders. Certains shaders ne seront pas utilisables en stéréo. Ça fait encore plus de taf', des choses en plus à tester. Comme tu fais un rendu stéréo, si tu fais un jeu console, tu es obligé de couper dans quelque chose pour compenser la chute de perfs. Donc soit tu désactives dynamiquement si la stéréo est active, soit tu fais les coupes une fois pour toutes et le jeu normal s'en trouve affecté. Il ne devrait pas y avoir ce problème sur PC, mais les jeux sont souvent des portages maintenant.

    Ça va être dur de garantir un 60fps constant chez tout le monde et sur tous les jeux quelles que soient les conditions ingame. D'habitude un framerate qui chute c'est un peu gênant, là ça risque de devenir crucial.

    Pour la latence côté code du jeu :
    [Inputs] => [Game logic] => [Préparation rendu] => [rendu] => [image affichée]
    Tu peux donc avoir de la latence sur les inputs oui, mais aussi sur les autres étapes. Si tes inputs sont rapides mais que perds trois plombes à préparer ton rendu, tu vas introduire une latence.
    Sur un jeu normal, si tu es à 60fps, tu vas donc avoir 17ms de latence juste sur la partie software du jeu (sans parler des latences drivers, etc...). Carmack a expliqué que pour avoir une expérience de réalité virtuelle réaliste, il fallait qu'il y ait 20ms max sur l 'ensemble de la latence de bout en bout, donc du mouvement à l'image reçue dans les yeux. Sur son proto très optimisé (plus que sur le schéma), il arrive à 40/50ms de latence totale.
    Maintenant là on parle d'un moteur bien propre avec un rendu direct.

    Le moteur Unreal par contre a une frame supplémentaire de latence jusqu'au rendu. Chez eux les résultats de la préparation du rendu ne sont utilisés que pour le rendu de la frame suivante. Si tu es à 60fps, ça va te faire 33ms à la place de 17ms.

    Si on s'arrêtait à ça, ça serait déjà les pleurs. Mais il y a certainement quelques magouilles à trouver pour s'en sortir. Sur le proto de l'E3, Carmack court-circuite tout le pipe classique et balance l'orientation du joueur au dernier moment juste avant le rendu. Ça évite de perdre 17ms à attendre pour rien. Par contre ce genre de conneries peut demander du tweak sur des moteurs super optimisés comme celui de l'Unreal ou le CryEngine, parce que leurs moteurs sont si complexes que ça va sûrement rentrer en conflit avec tout un tas d'algos.

    Et pour rigoler un peu plus, notre gourou à tous Carmack a expliqué que les 60fps c'était peut-être pas assez et que 120fps ça serait mieux. Peut-être pour éliminer un peu la déformation en bougeant la tête à cause du temps que met le balayage de l'écran.
    Donc si on résume et qu'on regarde les estimations de specs possiibles pour une version idéale pour le confort de l'utilisateur, on aurait du 1080p en stéréo avec de l'anti-aliasing très lourd (du super sampling, donc ça démultiplie la taille du rendu) et à 60fps ou même à 120fps. Et après il faudra lancer un portage PC de GTA V dessus ou pire Minecraft.
    Dernière modification par MrPapillon ; 19/08/2012 à 20h59.

  17. #47
    Vu sous cet angle mes 60 fps sont bien optimistes.
    Pourtant, je ne ressens aucun ralentissement ni de dégradation graphique.

    J'apprécie cette discussion et je me rends compte que j'avais une mauvaise vision de la chose.

  18. #48
    Citation Envoyé par MrPapillon Voir le message
    Oui mais je ne parle pas de stéréo, je parle de latence. Le problème de la stéréo, c'est surtout qu'il faut calculer encore plus et donc du coup ça augmente encore la latence. (Snon la stéréo reste souvent mal supportée à cause de certains effets qui sont rendus en 2D post-process). Donc ça ça va être un problème majeur parce que la latence n'était pas du tout une priorité jusqu'à présent, elle était même sacrifiée au profit d'optimisations graphiques. Surtout qu'on était dans l'ère console où la latence a encore moins d'impact grâce aux gameplays basés sur les joypads.
    Pourquoi un gameplay basé sur un joypad nécessiterait moins de contraintes sur la latence? je ne vois pas du tout le rapport. D’ailleurs c'est pas sur console qu'on trouve en priorité des jeux où la latence est cruciale? genre les jeux de bastons à la SFIV, où les pros jouent à la frame prêt...

    Si on accepte mieux la latence dans les jeux console, c'est que la plupart des TV actuelles font du post-traitement, ce qui induit de la latence (et aussi parce que la majorité des joueurs n'a pas le skill nécessaire pour percevoir une différence). D'ailleurs beaucoup de tv proposent maintenant des modes "jeux" qui permettent de supprimer au maximum ces post-traitement pour avoir une latence minimale.

    Tout ça c'est spécifique au Rift, où il faut que tout tourne à >= 60fps sans saccades.
    Je reviens là-dessus parce que c'est un peu rapide comme explication: on a un peu l'impression que tu confonds latence et fluidité; ce n'est pas le cas je pense, mais tu effectue des raccourcis que tout le monde n'a peut-être pas suivi. Je me permets donc de complèter.

    Pour ressituer: la latence, c'est le temps entre l'action sur le périphérique et l'affichage de l'action à l'écran. Comme dit, elle dépend de plein de facteurs, notamment le temps de traitement de l'image. Cette latence est cruciale en réalité virtuelle car contrairement au jeu classique, il n'y a ici pas que nos yeux qui nous donnent des infos: notre oreille interne capte également des variations d'orientation de notre tête.
    En cas de latence, l'oreille interne va par exemple capter que notre tête est inclinée à 45° alors que le jeu affiche un regard à 0°. Dans un cas extrême notre tête sera revenue à 0° quand l'affichage du jeu sera à 45° (l'input précédent, donc).
    Or quand l'oreille interne envoie des informations différentes de ce qu'envoient les yeux, le cerveau a du mal à traiter et réagit en donnant la gerbe. C'est le même problème que lire en voiture: les yeux regardent un truc fixe tout autour d'eux, mais l'oreille interne sent un mouvement =>différence de données =>gerbe. Ça a été le gros problème des casques VR il y a quelques années, et ça reste le point crucial encore à l'heure actuelle.

    Maintenant, selon le moteur utilisé, on peut très bien imaginer un FPS count parfaitement stable, mais où la latence serait d'une seconde où plus. on peut aussi imaginer une très faible latence avec un FPS count erratique.
    Si on pousse le truc, on peut quand même déterminer une limite basse de FPS pour rester dans une latence acceptable: s'il faut une latence d'au max 30ms, ça veut dire que l'image représentant l'input sur le périphérique devra s'afficher au pire 30ms après cet input. le FPS count devra donc être au moins égal à 1000/30=33,3fps. Étant donné qu'on est en stéréoscopie, on doit envoyer deux images différentes => 66 fps.

    On peut donc dire au final que la latence est plus ou moins liée aux FPS. Mais théoriquement c'est loin d'être évident et direct. En théorie si on peut garantir un affichage à 60+fps, la latence ne sera plus dépendante de ce facteur.
    pouet!

  19. #49
    Citation Envoyé par Erokh Voir le message
    Pourquoi un gameplay basé sur un joypad nécessiterait moins de contraintes sur la latence? [...] genre les jeux de bastons à la SFIV, où les pros jouent à la frame prêt...
    Je parle surtout des FPS joués avec les sticks. Je synthétise pour pas faire de pâtés :
    - le bras a moins de latence que le pouce (proximité du cerveau ou trop calculs par le cerveau, je ne sais pas). Les pros de street ne jouent pas au stick, ni à la croix mais à l'arcade stick. Il y a du coup peut-être aussi un avantage pour les gens à la souris.
    - Le stick semble avoir plus de latence que la croix, ça je n'ai pas vérifié, mais ça m'a donné cette impression (certainement à cause de l'absence de limite sèche que le cerveau interprète en général plus vite qu'une limite approximative ou souple).
    - On table sur des FPS dans un premier temps pour le Rift, et là la latence tout le monde la perçoit, pas besoin d'être un pro.
    - J'ai essayé Duke Forever sur OnLive et autant la latence était infâme à la souris, autant au pad ça m'a paru comme une console et c'était jouable.
    => Il est probable que le fait d'utiliser un membre avec moins de latence permet de mieux se rendre compte de problèmes de latence sur le hardware/software qu'on manipule. En gros une faible latence du pouce pourrait faire qu'on soit moins susceptible de remarquer une latence en jeu. C'est juste une supposition basée sur les tirets du haut.

    Non quand je parle d'instabilité du framerate, il faut surtout retenir la latence que la vraie "fluidité". En fait j'ai pas eu l'occasion de vérifier, mais je me demande si quelques frames où la latence serait très élevée ne suffirait pas à déstabiliser l'oreille interne/cerveau. Si le cerveau arrive à lisser tout seul comme un grand, alors tant mieux. Sinon ça voudra dire qu'un ralentissement dans le jeu pourra donner potentiellement un malaise, qu'il soit sur une longue période ou sur quelques frames.
    Par contre il est aussi probable que le manque de fluidité en soi puisse causer une gêne quel que soit le niveau de latence, mais là c'est encore plus spéculatif.

    Maintenant, selon le moteur utilisé, on peut très bien imaginer un FPS count parfaitement stable, mais où la latence serait d'une seconde où plus. on peut aussi imaginer une très faible latence avec un FPS count erratique.
    Si on pousse le truc, on peut quand même déterminer une limite basse de FPS pour rester dans une latence acceptable: s'il faut une latence d'au max 30ms, ça veut dire que l'image représentant l'input sur le périphérique devra s'afficher au pire 30ms après cet input. le FPS count devra donc être au moins égal à 1000/30=33,3fps. Étant donné qu'on est en stéréoscopie, on doit envoyer deux images différentes => 66 fps.
    Bien entendu on parle plutôt de 60fps par œil et pas 60fps divisé par deux. D'autant que l'oculus n'a qu'un seul buffer/écran. Le 60fps divisé par deux pour chaque œil c'est plutôt pour les lunettes actives qui alternent. C'est juste pour que ça soit plus facile à comprendre et à comparer. Ça sera aussi d'autant plus facile qu'avec des optimisations, le deuxième œil demandera moins de calcul de rendu que le premier œil et surtout ne demandera pas un recalcul de la game logic, ni d'autres étapes dans le code.

    On peut donc dire au final que la latence est plus ou moins liée aux FPS. Mais théoriquement c'est loin d'être évident et direct. En théorie si on peut garantir un affichage à 60+fps, la latence ne sera plus dépendante de ce facteur.
    En théorie oui, parce que selon ce que j'ai expliqué dans un post avant, tu peux avoir pour 60fps, une latence totalement différente selon les jeux:
    - unreal: 33ms (à cause de la frame de latence de leur pipe de préparation au rendu).
    - doom 3 non modifié: 17ms
    - doom 3 optimisé : peut-être moins de 5ms au pif.
    Et si tu as un jeu qui ne vsync pas mais qui refresh tout son code à 200fps, ben tu auras encore moins de latence de l'input jusqu'au rendu, même si l'affichage se fera toujours à 60fps sur les LCD.

    edit : une petite vidéo sympa qui permet de s'imaginer un peu mieux le truc

    Dernière modification par MrPapillon ; 20/08/2012 à 23h55.

  20. #50
    Citation Envoyé par Sedjem Voir le message
    Si je t'ai compris, tu parles de la latence entre le head-tracking et l'affichage. Alors oui, il faut diminuer cette latence. Cependant, même s'il restera une fraction de latence, notre cerveau apprendra et s'accommodera et du coup, on ne ressentira plus trop cette sensation de gerbe.
    Ton cerveau c'est une chose, ton oreille interne elle elle en a rien à foutre.
    Ca dépend des gens certains ont une meilleure adaptation a ce genre de contrainte "d'équilibre" que d'autres.
    Y'en a qui auront la gerbe très vite même si la techno est aboutie.
    Y'a bien des malade en transport et je parle pas d'un esquif sur une grosse mer.

  21. #51
    Certes. Je ne dis pas le contraire en ce qui concerne le temps d'adaptation, qui effectivement dépend de l'individu. Cependant, cette adaptation, nous la possédons tous et c'est de celle-là que je veux parler.

    Prenons un individu lambda en exemple. Le sens de la vue occupe une trés grande zone dans le cortex cérébrale, ce qui comprend une grande quantité de neurones. Si cet individu perd la vue, tous ces neurones ne vont ni mourir ni rester à rien faire. Ils vont se connecter aux neurones qui seront les plus sollicités en fonction du ou des sens que l'individu va chercher à développer. Son cerveau s'est adapté.

    Un autre exemple beaucoup plus parlant dans le cadre de l'oculus. Un jour, un collègue de boulot s'est retrouvé comme complètement ivre. Il était incapable de tenir debout tout seul. Après analyse médicale, la cause est qu'il a "juste" perdue une oreille interne. Aujourd'hui il n'est pas en chaise roulante, il marche et court comme tout le monde. Son cerveau s'est adapté à calculer son équilibre avec une oreille interne au lieu de deux.

    Si l'oculus sort sur le marché avec quand de même une latence perceptible et que nous nous faisons violence à l'utiliser malgré cette gêne, alors oui, notre cerveau va s'habituer et nous pourrons l'utiliser sans ressentir cette gêne à nouveau. Et j'insiste sur se forcer à l'utiliser, car si on abandonne direct ou quasi-direct, on ne risque pas de s'habituer en effet.


    Citation Envoyé par MrPapillon Voir le message
    Le 60fps divisé par deux pour chaque œil c'est plutôt pour les lunettes actives qui alternent.
    Juste pour rectifier que c'est bien 60 fps par oeil, ce qui fait bien un total de 120, d'où le terme générique d'écran 120Hz pour désigner les écrans 3D.

  22. #52
    Ce topic commence à être imbouffable avec tous ces pavés.

  23. #53
    Citation Envoyé par Sedjem Voir le message
    Certes. Je ne dis pas le contraire en ce qui concerne le temps d'adaptation, qui effectivement dépend de l'individu. Cependant, cette adaptation, nous la possédons tous et c'est de celle-là que je veux parler.

    Prenons un individu lambda en exemple. Le sens de la vue occupe une trés grande zone dans le cortex cérébrale, ce qui comprend une grande quantité de neurones. Si cet individu perd la vue, tous ces neurones ne vont ni mourir ni rester à rien faire. Ils vont se connecter aux neurones qui seront les plus sollicités en fonction du ou des sens que l'individu va chercher à développer. Son cerveau s'est adapté.

    Un autre exemple beaucoup plus parlant dans le cadre de l'oculus. Un jour, un collègue de boulot s'est retrouvé comme complètement ivre. Il était incapable de tenir debout tout seul. Après analyse médicale, la cause est qu'il a "juste" perdue une oreille interne. Aujourd'hui il n'est pas en chaise roulante, il marche et court comme tout le monde. Son cerveau s'est adapté à calculer son équilibre avec une oreille interne au lieu de deux.

    Si l'oculus sort sur le marché avec quand de même une latence perceptible et que nous nous faisons violence à l'utiliser malgré cette gêne, alors oui, notre cerveau va s'habituer et nous pourrons l'utiliser sans ressentir cette gêne à nouveau. Et j'insiste sur se forcer à l'utiliser, car si on abandonne direct ou quasi-direct, on ne risque pas de s'habituer en effet.
    Tous les cas que tu cites sont des handicaps H24. Normal que le cerveau s'habitue, et heureusement!
    De plus tu parle là d'une perte d'information, définitive. Ça n'a rien à voir avec la fourniture "décalée" de deux info reçues par le cerveau, qui en plus reviennent en simultané dès que tu arrêtes le système.

    Avec le Rift, tu auras une exposition de 3h/jour au maximum, et le reste du temps ton cerveau fonctionnera en "mode normal". Tu crois qu'il faudra combien de séances à gerber devant un jeu vidéo pour s'habituer?
    Et sais-tu que le mal de mer par exemple, qui est proche du coup de ce qu'on ressent avec un casque VR à latence, ne disparait jamais vraiment, et peut même toucher un vieux loup de mer?

    Donc la théorie de l’adaptation est loin d'être prouvée, et de toute façon peu nombreux seraient les gens prêts à supporter cet état nauséeux juste pour pouvoir jouer à un JV.
    Du coup oui il faut réduire la latence au maximum.

    Juste pour rectifier que c'est bien 60 fps par œil, ce qui fait bien un total de 120, d'où le terme générique d'écran 120Hz pour désigner les écrans 3D.
    C'est la cas pour les systèmes passifs, ou on a un écran et des filtres.
    Le Rift enverra directement une image par œil. Donc les deux écrans du Rift seront à 60Hz. Ça fait une légère différence, et facilite un peu le boulot des CG (entre autres).
    pouet!

  24. #54
    À la Quakecon :
    - il y a eu 3 cas avec une sensation de gerbe et 2 cas avec des sensations bizarres après utilisation pendant 10min sur une centaine de participants.
    - un des gars de la team Oculus a joué pendant plus d'une heure sans aucun soucis sans avoir d'xp dans la VR avant.
    - le proto utilisé à la quakecon n'avait pas la position dans l'espace pour la tête, ce qui est le facteur principal de gerbe sur le proto (bien plus que la latence). Ce problème sera peut-être réglé pour le kit de dev, encore plus probable pour la version commerciale et quasi certainement dans les futurs casques.

    Source: forum mtbs

  25. #55
    @Erokh

    Je suis complètement d'accord avec ce que tu dis, mais je dis juste de ne pas sous-estimé les facultés de notre cerveau.

    Pour revenir sur l'exemple du mal de mer que tu avais évoqué, il y a aussi des personnes qui passent très facilement de la terre ferme au bateau sans éprouver le mal de mer. Pourtant, ces personnes sont soumises aux même conditions favorables à ce mal de mer.

    Encore une fois, je veux juste dire que notre cerveau est capable de s'adapter à une situation nouvelle, même si elle n'est pas permanente du moment qu'elle est répétitive. Appelons-ça habitude, entrainement, adaptation ou accoutumance, peut importe.

    Enfin, même si je dis que nous pouvons nous accommoder d'une latence, je ne cautionnes bien évidemment pas pour autant qu'ils puissent le mettre sur le marché sous ce prétexte, alors qu'ils auraient les possibilités de le sortir sans cette latence.


    Citation Envoyé par Erokh Voir le message
    C'est la cas pour les systèmes passifs, ou on a un écran et des filtres.
    Je reconnais que ma phrase est maladroite. Je voulais juste rectifier MrPapillon qui dit que les lunettes actives, c'est du 30 fps par oeil, alors que non, c'est bien 60 fps par oeil. De plus, je doute que les moniteurs 3D passifs montent à 120 Hz. Et si j'ai mal interprété sa phrase, je m'en excuse.


    Le Rift enverra directement une image par œil. Donc les deux écrans du Rift seront à 60Hz. Ça fait une légère différence, et facilite un peu le boulot des CG (entre autres).
    Oui et non. Oui pour le résolution plus faible du Rift par rapport à nos moniteurs, et non car le rift n'est guère différent du système système obturation type 3D Vision et consort.
    Et comme je l'ai dit plus haut, nvidia, tridef et autres savent faire du 2*60fps constant déjà depuis un petit moment. Comment, je l'ignore; mais ça marche très bien. Il est dit juste que un fonctionnement stéréoscopique augmente la charge de travail de la carte graphique que de 30 à 50 % en plus suivant les jeux. Donc cette problématique du 2*60 fps n'est pas vraiment un problème. Du moins sur PC.

  26. #56
    Citation Envoyé par Erokh Voir le message
    .../...
    Le Rift enverra directement une image par œil. Donc les deux écrans du Rift seront à 60Hz. Ça fait une légère différence, et facilite un peu le boulot des CG (entre autres).
    Je suis loin d'être convaincu : Que tu calcules 120 i/s pour les afficher sur un même moniteur (3Dvision) ou sur deux (casque VR), ça ne devrait certainement pas changer grand chose.
    Ça aurait peut-être même l'effet inverse (mais je dois confesser ma noobitude sur le process exact de rendu au sein d'un GPU). Quand tu affiches en alternance les images œil droit/œil gauche tu "libère" 1 frame à la fois. Avec un casque VR comme le rift, ce sont 2 frames qui doivent être rendues en même temps (certes, 2x moins souvent)...

    Ce qui va -par contre- faire un peu respirer les CGs c'est la "faible" résolution des écrans.

    Ceci dit, pour être un fan "de la première heure" des solutions 3D actives (j'ai commencé avec des Elsa revelator), j'attends avec impatience la commercialisation du bouzin. J'avais failli craquer sur un Vuzix il y a quelques années... Mais là, je pense que je ne me retiendrai pas.
    Si ça ne marche toujours pas... Prend un plus gros marteau !
    Citation Envoyé par Daedaal
    Je crois que je cite.

  27. #57
    Non mais c'est pareil, pour la CG.
    Elle calcule 2 frames à chaque étape du jeu, et les stocke dans 2 buffers.
    Après, elle les envoit au bidule qui affiche, soit successivement, soit de manière entrelacée.

    Ça peut avoir une légère influence sur la latence percue, mais pour le GPU, c'est le même nombre de pixels à envoyer, à résolution "totale" identique.
    Vu la marge de manœuvre qu'on a avec la puissance des GPU actuels, ça ne devrait pas être un problème. Mais ça aura une influence sur le prix du kit casque 3D + CG par rapport à l'équivalent en écran tout plat, oui.

  28. #58
    Salut, toutes les infos à propos du rift sont sur www.mtbs3D.com, vous y trouverez que le concepteur travaille sur un hmd depuis 2010. Comme je suis un gros fainéant je copie-colle un message que j'ai écris sur le forum de mon clan (mais qui aussi parles du sony hmz t1):


    Je pense pouvoir affirmer que le casque de réalité virtuelle de sony n'a rien de comparable, si ce n'est le type d'objet.

    Le oculus rift produit une véritable immersion, l'image occupe véritablement l'ensemble du champ de vision de l'utilisateur, aussi bien en horizontal qu'en vertical, le rift est conçu par et pour des gamers, de manière à réduire au maximum le délai entre les actions et l'affichage et en intégrant des capteurs de mouvements. La combinaison de ces trois caractéristiques, fait que l'on peux vraiment parler de casque de réalité virtuelle.
    Le seul point négatif du rift est que les prototypes utilisent un écran 5 ou 6 '' de 1280 * 800, qui est divisé en deux (une moitié par œil) donnant une résolution étrange de 640*800 par œil. Cet écran ne serait pas très réactif et a tendance à créer un effet de flou de mouvement. Toutefois, ce problème devrai être résolu d'ici la sortie commerciale en 2013. Ceci dit la résolution native actuelle du rift est en fait aussi bonne que la plupart des autres HMD du marché, ce qui est un de leurs points faible. A noter que les optiques du rift produisent une forte déformation, ce qui doit être compensé de manière logicielle. Cela a pour effet d'avoir une densité de pixel plus élevée au centre qu'au bord de l'image.

    Le sony HMZ T1, est comme les autres HMD classique: il utilise deux micro afficheurs que l'on voit au travers d'une lentille. Du fait de leur petite taille, ils ne prennent qu'une petite partie du champ de vision. L'effet qu'il procure, comme tout les autres HMD accessible au grand public, est de regarder un grand écran (3D) de (trop) loin. L'un de ces problèmes est qu'il est inconfortable: en effet, il est relativement lourd et tout le poids est sur le nez, sauf à serrer la sangle au maximum, ce qui n'est pas beaucoup mieux. A tel point que de nombreux utilisateurs l'ont modifié soit en enlevant toute la carrosserie pour l'alléger soit en l'intégrant dans un casque répartissant le poids sur le crâne. Il a aussi le défaut de ne pas intégrer de capteurs de mouvements; l'utilisateur s'il est sujet au mal des transports pourrait être soudainement pris de nausées: avoir une image parfaitement alignée avec nos yeux même quand on bouge, le cerveau n'aime pas.
    Toutefois le sony HMZ T1 est une avancée sur certains points: tout d'abord le FOV (champ de vision) est moins mauvais que les autres: le champ de vision est de 45°, alors que les prédécesseurs sont plutôt à 35°. Ensuite les mucro display sont de type oled, la qualité de l'image est donc très bonne et enfin ces derniers ont une résolution de 1280*720 (par œil), ce qui est beaucoup pour un HMD grand public. Pour les plus hautes résolution, il faut taper dans le matériel professionnel avec des prix en K€.


    Le gars qui a créé ce rift y a bossé dessus tout seul chez lui, et en discutait sur les forums mtbs. Je doit dire qu'au début je n'y ait moi même pas prêté attention, connaissant les points faible des HMD et pensant qu'il s'agissait d'un illuminé de plus croyant qu'il suffisait de fixer sur un casque deux pico projecteurs et deux miroirs pour faire un HMD. Je me suis tellement trompé! Il a réussi à attirer l'attention de John Carmack, qui le supporte activement et va inclure une gestion native du rift dans doom3 BFG. Il a aussi le support de valve. D'autres forumeurs se sont mis en tête d'écrire un driver stéréo façon iZ3D ou DDD spécialisé pour le rift.
    liens:
    les prémices du rift, en 2010: modification d'un HMD MRG 2.2
    Le "PR2" premier véritable prototype de Palmer avant le rift.
    forum officiel oculus rift sur mean to be seen.



    Aussi pour discuter de 3D et du rift avec John Carmack, il est parfois présent sur mtbs.

    Il y a aussi une base de données conduite par les joueurs évaluant les qualités stéréoscopiques des jeux sur MTBS: le "Gamegrade3D" : http://www.mtbs3d.com/index.php?opti...682&Itemid=124, http://www.mtbs3d.com/gg3d/

  29. #59
    Pour résumer la ligne de front de ce qu'il reste à faire d'important :
    - position absolue dans l'espace (pour éviter la gerbe quand on fait des faux-mouvements, pour pouvoir faire du lean ou s'approcher d'un objet directement en bougeant la tête, ...) et à très faible latence.
    - intégration dans les jeux (perfs, gameplay, compatibilité anciens jeux).
    - dispositif qui permet de régler l'optique pour les gens à lunettes.

    Les autres problématiques semblent résolues et les specs s'amélioreront petit à petit avec le temps.

  30. #60
    Citation Envoyé par Sedjem Voir le message
    Prenons un individu lambda en exemple. Le sens de la vue occupe une trés grande zone dans le cortex cérébrale, ce qui comprend une grande quantité de neurones. Si cet individu perd la vue, tous ces neurones ne vont ni mourir ni rester à rien faire. Ils vont se connecter aux neurones qui seront les plus sollicités en fonction du ou des sens que l'individu va chercher à développer. Son cerveau s'est adapté.

    Un autre exemple beaucoup plus parlant dans le cadre de l'oculus. Un jour, un collègue de boulot s'est retrouvé comme complètement ivre. Il était incapable de tenir debout tout seul. Après analyse médicale, la cause est qu'il a "juste" perdue une oreille interne. Aujourd'hui il n'est pas en chaise roulante, il marche et court comme tout le monde. Son cerveau s'est adapté à calculer son équilibre avec une oreille interne au lieu de deux.

    Si l'oculus sort sur le marché avec quand de même une latence perceptible et que nous nous faisons violence à l'utiliser malgré cette gêne, alors oui, notre cerveau va s'habituer et nous pourrons l'utiliser sans ressentir cette gêne à nouveau. Et j'insiste sur se forcer à l'utiliser, car si on abandonne direct ou quasi-direct, on ne risque pas de s'habituer en effet.
    Oui mais non ça a beau être ma fiancée la neuropsy, là tu parle de trucs que tu maitrises pas du tout.

    La difficulté de ce genre de dispositif est bien de tromper complétement l'oreille interne.
    Inutile de compter sur de supers facultés cérébrales pour corriger le tir.

Page 2 sur 419 PremièrePremière 123456789101252102 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •