Chauffe = dégagement de calories (conséquence d'une consommation d'électricité qui se transforme quasi-exclusivement en perte sous forme de chaleur dans un semi-conducteur type GPU, voir Effet Joule). Une carte (la RTX3090) qui consomme 350W, avec des pointes à presque 500W, je suis désolé mais c'est du délire. Les générations précédentes se limitaient à 250-300W en haut de gamme mono-GPU.
Je me contrefiche pas mal de la température de la puce qui est une fonction d'un tas de paramètres, notamment l'efficacité du refroidissement de la carte, la ventilation du boîtier et la température ambiante. Que la RTX3090 tourne à 65°C ou à 90°C en pleine charge, elle pompe 350W et en dégage autant sous forme de chaleur. A une période où on te parle de conscience écologique, où on te fait chier quand tu roules avec une voiture qui consomme 0,5L/100 de trop, on sort des cartes graphiques qui consomment 40% de plus que la génération précédente et ça ne choque pas plus que ça. C'est ça que j'appelle la chauffe délirante, et pour être bien clair, nVidia n'est pas seul dans le délire et AMD fait pareil avec les 6900XT. Sauf qu'nVidia est le leader incontestable du marché, qu'il vend 4 ou 5x plus de GPUs et montre la voie ; la voie actuelle c'est qu'on peut visiblement cramer autant de puissance qu'on veut pour jouer. Et je parle même pas des soucis potentiels de durabilité de telles cartes avec des dégagements de chaleur aussi élevés.
Avec le refroidissement particulier des RTX3080 et RTX3090 Founders Edition, il se pose un souci supplémentaire en cas de SLI: la carte du bas envoie l'air chaud sur celle du haut. En clair celle du haut doit non seulement refroidir son GPU, mais elle doit le faire avec un air déjà notablement plus chaud. Même avec des ports PCI-Express plus éloignés (pour avoir 2 slots vides entre les deux cartes) et un flux d'air très important, ça va rester très compliqué de refroidir tout ça.
A cela s'ajoutent les problèmes fondamentaux du SLI qui n'ont, à ma connaissance, jamais été totalement résolus: un support dépendant totalement du driver (ça ne marche qu'avec un profil spécifique), hors le SLI étant quasi-intégralement abandonné, plus aucun jeu nouveau n'est supporté ou presque ; une fluidité (frametime) beaucoup moins bonne que ce que peut laisser penser le nombre d'images/seconde affiché, conséquence du fait qu'il est extrêmement difficile de synchroniser le rendu de deux GPUs pour avoir une fluidité parfaite. C'est aussi un problème récurrent rencontré avec les CPUs lorsqu'on parle de multithreading, le souci n'est pas de répartir les tâches entre plusieurs cores mais d'avoir les résultats au bon moment.
On voit l'avantage du DLSS sur écran plat: plus tu montes en définition d'écran, plus le DLSS est unanimement reconnu comme efficace (en 4K le DLSS est super, en 1440p les avis sont plus mitigés, en 1080p c'est souvent assez négatif =>le DLSS est efficace quand la définition cible est élevée car la définition de base est elle-aussi plus élevée, donc on perd peu de détails). A mon sens la même chose est viable en VR: si on a des écrans de 4320x4320 pour chaque œil par exemple, mais qu'on peut se permettre de calculer le rendu en 3240x3240 avec l'équivalent du DLSS pour la VR, on bénéficie toujours de l'incroyable finesse du rendu des écrans (qu'on pourrait appeler "8K") tout en ayant un besoin en puissance équivalent au G2 aujourd'hui (à 100% dans SteamVR mon G2 a une cible de rendu de 3300x3300 par œil), malgré une multiplication par 4 de la résolution.
Et pas besoin d'un double ou triple GPU à 1500€ pour ça, ma RTX3080 (ok, c'est déjà haut-de-gamme, mais c'est 720€ pas 3000€) permet déjà de jouer à du simu ultra-gourmand (DCS World) sans véritable compromis sur la qualité graphique dans cette définition aujourd'hui. Alors ok c'est du 45-60fps, pas du 120fps, mais c'est aussi énormément lié au moteur de ce jeu qui est vieux, essentiellement mono-core CPU, etc. Dans un jeu orienté fluidité dont le moteur serait calibré pour ça me parait faisable dès aujourd'hui, même avec ma 3080, pour autant que le DLSS VR soit accessible.