Microsoft veut repenser les noyaux pour le multi CPU
Aujourd'hui, l'industrie des processeurs, Intel en tête ne voit qu'un moyen de ne pas devoir déroger à la loi de Moore, ce qui serait pour eux le début de la fin, en multipliant les processeurs. La tendance ne semble pas prête de s'inverser et bientôt nos Mac Pro pour ne citer qu'eux auront jusqu'à 12 coeurs et 24 threads, avant de passer plus tard à 16 puis à ....
Pourtant, au quotidien, on ne ressent pas grand chose de cette augmentation du nombre de "têtes" dans la machine sauf à utiliser des logiciels spécifiques. La faute en revient essentiellement aux logiciels et systèmes d'exploitation qui ne savent pas trop comment utiliser au maximum ces coeurs de plus en plus nombreux (c'est un résumé, d'autres facteurs rentrent en compte).
Apple a avec Snow Leopard voulu définir de nouvelles bases permettant de tirer un meilleur parti de cette tendance au niveau du matériel. Si c'est un succès, il est encore caché, Snow Leopard nous donnant de plus en plus l'impression de se différencier de son prédécesseur pour l'essentiel par la somme qu'on a payé pour l'acheter, 29,90€...
De son côté Microsoft songe aussi à cet avenir et l'un de ses ingénieurs travaillant sur les noyaux système veut révolutionner ce qui se fait actuellement.
Il songe à un noyau qui serait radicalement différent ce que qui se fait actuellement sous Windows ou Unix. Il veut, un peu à l'image de ce qu'on fait en virtualisation, que ce futur système d'exploitation qu'il imagine en détail joue le rôle d'hyperviseur entre le matériel et les logiciels qui tourneraient au dessus.
Le problème reste entier sachant qu'il faudrait partir d'une page totalement blanche pour l'écrire, ce qui prendrait au moins quelques années et trouver le code magique qui tout en bas, au plus proche du matériel serait capable de répartir la puissance demandée parmi tous les coeurs. C'est ce qu'Apple essaye de faire avec Grand Central, même si ce dernier est matérialisé par une couche logicielle placée plus haut.