La session de Brian Goetz était une piqure de rappel pour ceux qui ont suivi son intervention l’année dernière, mais le sujet reste toujours autant d’actualité et délicat à appréhender pour le développeur lambda.
Durant une bonne partie de la présentation, Brian présente l’évolution des microprocesseurs et les diverses astuces visant à apporter toujours plus de vitesse dans le traitement ‘apparemment’ séquentiel des programmes. ré-ordonnancement des micro-opération, exécution prédictive, utilisation de registrer supplémentaires renommables et j’en passe.
Suit un exemple de synthèse qui permet de mettre en évidence la faiblesse de tout ça : il suffit d’un seul “cache miss” en accès mémoire pour réduire tous ces efforts à néant. L’exécution de plusieurs threads sur un cœur semble une solution pour palier cette faille, récupérant les cycles d’horloge d’attente de la mémoire au profit d’un autre thread.
D’après Brian, l’approche RISC pourrait bien revenir sur le devant de la scène : un die Itanium peut contenir 100 cœurs Pentium III ! Par contre, la programmation de machines aussi massivement multi-cœur n’est ni dans nos habitudes, ni dans nos outils. Ce qui amène donc en fin de présentation à la présentation de java.util.concurrent, et en particulier des fork/join.
La démo est simple mais parlante : un algorithme de tri, écrit en se basant sur le parallélisme massif et les API fork-join permet sur un système multi-cœur un gain de performance très significatif, sachant qu’on ne rencontre pour l’instant que des quad- ou octo-cœurs, mais que les labs nous préparent des processeurs bien plus parallélisés.
Pour approfondir le sujet, je ne peux que vous encourager la lecture de son bouquin, traduit en français chez Pearson. Livre dense à ne pas lire en une fois (sous peine de mal de crane) mais qui restera sur votre bureau pendant quelques années.
0 commentaires:
Enregistrer un commentaire