Des chercheurs de la North Carolina State University ont développé une technique d’amélioration des performances des microprocesseurs qui change des techniques habituelles (empilement en couches).
Comme vous pouvez le savoir, toute donnée utilisée par le CPU (processeur) provient de la RAM avant d’être placée en mémoire cash.
La mémoire cash quant-à-elle, a pour objectif d’accélérer les calculs en évitant au processeur de faire appel à la RAM pour, par exemple, l’accès répétitif à une information.
Le souci, c’est que la présence de plusieurs CPU crée parfois un « bouchon » et l’obtention des données est plus longue.
La stratégie mise en place par le groupe de chercheurs est basée sur la probabilité qu’une donnée soit plus urgente qu’une autre. Pour arriver à une bonne estimation, ils ont non seulement joué sur le partage de la bande passante, mais également sur les données mises en cache de chaque processeur.
En mixant leurs hypothèses avec les techniques existantes, ils ont réussi à gagner 40% (maximum) de performances. Ce qui est loin d’être négligeable ! 🙂
Source :
North Carolina State University