Suffit de prendre un perf test de jeu qui soit bien optimisé côté CPU (j'entends par là un jeu tirant vraiment au maximum parti du CPU disponible) et gourmand en physique. J'ai trouvé Destiny 2 par exemple, c'est pris au hasard:
http://tof.cx/images/2017/10/30/d949...3de57a1705.jpg
Comme on le voit sur ce graphique, n'importe quel processeur est capable d'assurer 60fps au moins avec une GTX1060 3GB: c'est bien la carte graphique qui limite les performances. Donc si tu joues en 1080p 60Hz, tout va bien quelque soit ton CPU.
Maintenant admettons que tu aies changé ta carte graphique et ton écran et que tu veuilles jouer en 144Hz: il se passe quoi?
http://tof.cx/images/2017/10/30/a866...d4e478b47e.png
Soudainement le CPU devient un élément prépondérant et ce n'est plus le GPU qui dicte. Et si tu as un i5-2500K dans ce scénario, on voit bien que tu perds 40fps (au mini) par rapport à un i5-7600K.
Voilà pourquoi je dis qu'un CPU n'est pas limitant si tu vises les 60fps (60Hz avec Vsync on) car pratiquement tous y arrivent dans les jeux modernes, mais que dès qu'on vise 120 ou 144Hz la rapidité du CPU est tout aussi importante que celle du GPU, et on ne peut plus se contenter d'un processeur un peu âgé et avec un déficit de MHz.
C'est un truc facile à tester dans mon cas aussi: mon Ivy Bridge plafonne à 3,5GHz et ça me bride parfois sur mon écran 144Hz. Même en baissant les détails il arrive un moment où le CPU plafonne et m'empêche d'avoir plus de FPS, limitation que seul un changement de CPU me permettrait d'éviter. En pratique je m'en tape, bien sûr, parce que je suis un joueur casual qui n'utilise pas de compteur de FPS et utilise de toute manière Freesync, mais ça n'empêche que la limitation existe.