Pour préciser concernant le rendu fovéal dynamique, le principe est basé sur la physionomie de la vision humaine
https://fr.wikipedia.org/wiki/Fovea#Zone_fov%C3%A9ale
La zone fovéale fait 3-5° où il faut un rendu avec détail max, puis se dégrade vite et le rendu peut l'être aussi.
Selon ce que j'ai vu sur les forums de simu, une installation triple écran ou équivalent est du genre 100° horizontal par 35-40° vertical.
La VR grand public affiche sur genre 100°H par 100°V (qui suit la tête), 90-120° selon les casques. Et ceux à grand FOV sont plutôt sur 160°H par 100°V.
Le suivi du regard dans un casque est plus facile que devant un écran (tête qui bouge, interférences ambiantes)
Dans la pratique il faut déjà avoir un suivi du regard pas cher, efficace et fiable sur 100% des gens (ou presque). En général les systèmes actuels marchent bien, mais pas sur tout le monde, et coutent assez cher. Et un pipeline de rendu optimisé dans les moteurs populaires (Unity et UE typiquement) sans avoir à bricoler avec un SDK par fabricant de matos.
On verra ce que donne le PSVR2 dans un an et quelque, mais ils ont l'air d'avoir quelque chose qui se tiens. Pour l'instant on voit plutôt ça sur les casques pro.
Pour en revenir au sujet des GPU, c'est surtout NVidia qui bosse sur des optimisations depuis plusieurs années (
VRS warpper,
VRSS2), mais comme pour le reste, tant que ce n'est pas standardisé et facile à implémenter pour les devs on n'en verra pas grand chose. Sony doit avoir développé quelque chose aussi et l'intégrera dans son SDK.