Des chercheurs de la North Carolina State University ont développé une technique d’amélioration des performances des microprocesseurs qui change des techniques habituelles (empilement en couches).
Comme vous pouvez le savoir, toute donnée utilisée par le CPU (processeur) provient de la RAM avant d’être placée en mémoire cash.
La mémoire cash quant-à-elle, a pour objectif d’accélérer les calculs en évitant au processeur de faire appel à la RAM pour, par exemple, l’accès répétitif à une information.

Le souci, c’est que la présence de plusieurs CPU crée parfois un « bouchon » et l’obtention des données est plus longue.

La stratégie mise en place par le groupe de chercheurs est basée sur la probabilité qu’une donnée soit plus urgente qu’une autre. Pour arriver à une bonne estimation, ils ont non seulement joué sur le partage de la bande passante, mais également sur les données mises en cache de chaque processeur.

En mixant leurs hypothèses avec les techniques existantes, ils ont réussi à gagner 40% (maximum) de performances. Ce qui est loin d’être négligeable ! 🙂

Source :
North Carolina State University

PARTAGER
Article précédentTreebot, le robot qui grimpait aux arbres…
Article suivantUn robot apprend le langage des signes ?
Président et co-fondateur de l'association Shy Robotics / Ingénieur IT chef de projet innovation usine 4.0 dans l'aéronautique jusqu'à peu / Entrepreneur startup et consultant innovation depuis peu / Journaliste pour Planète Robots / Auteur de Smart World

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here

Pour des raisons de sécurité, merci de répondre à la question suivante *