Allez, on y croit, la microarchitecture redevient mainstream.
Allez, on y croit, la microarchitecture redevient mainstream.
Envoyé par François
Ca claque bien !
Le mec est dispo pour un recrutement ? C'est bon, je vais me pendre tout seul
Il me semble que pour faire cuire une crêpe d'une épaisseur e, on peut faire cuire N sous-crêpes d'épaisseur e/N en parallèle, puis les empiler pour avoir une crêpe de l'épaisseur voulue.
Mon blog (absolument pas à jour) : Teχlog
En effet, c'est le principe du calcul billig-slice. Il y a plusieurs variantes, SIMD, MIMD ou en pipeline.
Dernière modification par Møgluglu ; 30/09/2017 à 14h03.
Cas typique de cherry-picking ou ça marche bien avec N=2 mais pas avec le reste
Envoyé par François
Je reposte ça ici pour ceux qui ne lirais pas le topic Canardware.
Vous savez si Ryzen supporte le HDCP en version 2.2 ?
Cet article sur les différences entre le SGX d'Intel et le SME d'AMD n'en parle pas directement.
Oui et il n'est pas le seul.
Si c'est des instructions que tu rencontres souvent (genre un corps de boucle), et que tu observes qu'elles produisent une séquence prédictible (genre i++), tu peux prédire leurs résultats dans les itérations suivantes. Comme tu te bases uniquement sur l'historique tu n'as même pas besoin de connaître ce que fait l'instruction pour prédire son résultat, donc peu importe la diversité des instructions (au passage, le x86 de base n'a pas tellement changé en 20 ans).
Bon, ça marche bien pour le calcul entier, pas trop pour le flottant.
Les processeurs modernes font déjà de la prédiction, non ? Uniquement pour les branchements ?
Pour les branchements, les dépendances mémoire, les voies du cache, les patterns d'accès mémoire pour le prefetch... D'après fefe dans un autre topic, le P4 Willamette aurait déjà eu une forme de prédiction de valeurs dans l'ALU aussi.
La localité de valeurs est un phénomène connu depuis longtemps, mais le consensus était jusqu'ici que la prédiction de valeur était trop coûteuse et compliquée à implémenter par rapport à ce qu'elle pouvait rapporter. L'intérêt de ces travaux, c'est pas tant de gagner beaucoup de perf en prédisant les valeurs que d'y arriver à un coût raisonnable. Et avoir un cœur simple qui a des perfs comparables à celle d'en cœur plus coûteux sur du code prédictible. Après, je laisse parler les experts (moi je cause localité de valeurs sur GPU).
C'est pas pour l'AACS 2, SGX ?
Parce que le HDCP 2.2, en dehors du fait que c'est éclaté depuis un moment (enfin, on peut extraire le truc avec du matos dédié), c'est pas vraiment lié.
Mais j'avais cru comprendre que SGX servait pour l'AACS2 des Blu-ray Ultra HD.
Même si en vrai, ça change pas grand chose pour les pirates : y a des rips de Blu-ray Ultra HD, en récupérant directement la sortie d'un lecteur. Mais ça demande du matos de ouf pour chopper le flux avant de le réencoder, genre des SSD de 2 To en RAID.
Je pars un peu en HS mais ces conneries de protections à tout va me saoulent avec les Blu-Ray.
T'as beau acheter les galettes et un lecteur pour ton PC on vient encore t'emmerder avec des protections à la con pour te vendre 100€ un lecteur multimédia qui puisse les décoder.
Du coup mes BR je leur fait sauter la protection avec DVDFab, puis je les rippe vers du HEVC h265.
Une fois que c'est fait je suis tranquille.
C'est plutôt qu'il y avait plus facile/moins couteux que ça pour récupérer de la perf séquentielle, mais c'était avant. Maintenant, ce n'est pas si évident. Le principal problème reste qu'il est difficile d'investir dans 16/32KB pour des benchmarks qui vont gagner exactement 0. On peut sans doute s'arranger avec moins mais bon, il faut regarder ce que ça coute en perf. Pour les 30%, les modèles académiques ont parfois tendances à tirer les perfs vers le haut, c'est vrai, mais en cherrypickant bien on y arrive (n'est ce pas Mr. AMD et son x2 vs. Intel sur "seismic analysis").
Envoyé par François
"Ne regardez pas ces 200 benchmarks ou mon processeur est mauvais, regardez ce benchmark ou mon processeur est bon" Blague à part, c'est plus que sur le bon type de workload le speedup peut monter assez haut, mais rester beaucoup plus bas en général.
Envoyé par François
Les gens de bon goût utilisent des dérivés de TAGE, champion du monde depuis 2006 (parmi les participants).
(On a un topic sur la prédiction de branchement : http://forum.canardpc.com/threads/86...de-branchement)
Pour la localité de valeurs sur GPU, je développe sur le topic idoine :
http://forum.canardpc.com/threads/22...9#post10711059
Je m'en doutais un peu.
Pour le moment, y a pas grand monde qui a des licences et ils veulent forcément éviter la débâcles des premiers Blu-ray/HD DVD avec le leak des clés en RAM.
L'AACS 2 a l'air plus solide et si la mémoire est protégée, ça va pas être évident. Mais comme je disais dans le pire des cas, ceux qui veulent ripper passent par la sortie directement.
Par contre, je me suis toujours demandé comment les sociétés qui font des softs de lecture illégaux chopent les clés. Dans un lecteur de salon ?