Nous utilisons des cookies pour améliorer votre expérience.

MacBidouille

Nvidia voudrait cesser de faire des versions M spécifiques de ses puces

Actuellement, les fabricants de cartes graphiques proposent deux gammes de produits, des cartes graphiques destinées aux ordinateurs de bureau et des cartes destinées aux ordinateurs portables (et hélas chez Apple aux iMac).
Si leurs dénominations sont parfois très proches, leurs architectures divergent énormément, les versions mobiles ayant moins d'unités d'instruction et de mémoire pour réduire leur consommation.

Nvidia aurait décidé de renoncer à cette pratique et voudrait proposer des architectures identiques pour les ordinateurs de bureau et portables.
Récemment, nous vous avions dévoilé des fuites sur la future Geforce GTX 1080M dont les performances étaient impressionnantes. Cette carte serait en fait identique à la GTX 1080, mais avec seulement des fréquences et une tension revues à la baisse pour diminuer sa consommation.

Arrivé à ce niveau nous vous faisons un petit rappel (schématique) sur la manière dont on peut calculer la consommation d'une carte. On peut en gros l'estimer à partir de trois facteurs, la résistance globale de la puce, la tension, et la fréquence.
La résistance est une constante en fonction de l'architecture de la puce. Elle peut seulement varier en modifiant le design des transistors et leur gravure avec toutefois de petites variations propres au procédé de production et de la position où la puce a été produite sur la galette de silicium, les "meilleures" étant celles le plus proche du centre.

La variation de la fréquence a un impact linéaire sur la consommation. Diviser la fréquence par deux va diminuer la consommation par deux et ainsi de suite.
La variation de la tension a en revanche un impact bien plus élevé puisqu'elle est montée au carré dans l'équation calculant la consommation. Ainsi, diviser par deux la tension va diminuer la consommation d'un facteur 4.
A tout cela il faut ajouter un autre facteur, plus on diminue la fréquence, plus il est possible d'abaisser la tension du courant circulant dans une puce. Là, la corrélation entre les deux facteurs n'est pas linéaire, au contraire. Plus on veut augmenter la fréquence, et plus il faut pousser fort sur la tension et donc la consommation.

Une fois ces explications avalées, on peut revenir à ces nouvelles générations de Geforce qui sont gravées en 16nm. A cette occasion la société a réussi à faire un saut énorme au niveau des fréquences du GPU qui est de l'ordre de 1,6 GHz (avec un Turbo à plus de 1,7 GHz). Globalement, la tension du courant reste juste autour de 1V à quelques centièmes près.

Il faut maintenant prendre en compte de nouvelles variables de fonctionnement de ces cartes, la manière dont elles sont calibrées pour fonctionner. Plutôt que de définir une tension constante et une fréquences fixées précisément au départ, l'électronique de la carte va se focaliser d'abord sur la température du GPU puis sur sa consommation. C'est dans le cadre de ces deux variables que les tensions et fréquences seront réglées dynamiquement.

La clé de la décision de la société de proposer les mêmes produits pour les machines de bureau et les portables est certainement ici. Il suffit en effet de définir une consommation et une température maximale adaptées à l'intégration dans un portable pour que la carte s'y sente à l'aise et donne tout ce qu'elle peut dans un contexte donné sans poser de problèmes.

Bon, ce n'est pas pour autant que l'on pourra avoir une GTX 1080 dans un Mac, mais il sera probable que Nvidia puisse produire des cartes trois fois moins puissantes dont le TDP puisse convenir à une machine Apple très fine. Ce serait déjà pas mal et en tout cas représenterait un saut de puissance très significatif par rapport à ce qu'on nous propose aujourd'hui.

Sondage

Pensez-vous encore qu'Apple puisse révolutionner vos usages informatiques ?