Découvrez en plus sur les cartes graphiques, le cerveau visuel de l'ordinateur.
Son rôle est de produire une image affichable sur un écran. La carte graphique envoie à l’écran des images stockées dans sa propre mémoire, à une fréquence (le taux de raffraichissement est exprimé en Hertz) et dans un format (16:9, 4:3, etc..) ainsi qu'une résolution (1980×1080: Full HD, 4K, etc...) qui dépendent d’une part de l’écran branché et du port (HDMI, Display Port, VGA, etc...) sur lequel il est branché (grâce au plug and play, PnP) et de sa configuration interne d’autre part.
Les premières cartes graphiques pouvant adresser un point individuel de l'affichage n'apparaissent qu'en 1981 pour le grand public, avec les cartes CGA, (Color Graphic Adapter), qui permettaient un adressage de points dans une résolution de 320 colonnes sur 200 lignes en 4 couleurs différentes.
La puissance d'une carte graphique ne peut pas réellement se mesurer telle quelle. En effet, il faudrait faire des Benchmarks (c'est à dire analyser) de la carte graphique dans différentes conditions (jeux, montage, 3D, etc...). Mais on c'est une chose, c'est que celle-ci sont plus puissantes que les processeurs. En effet, aujourd'hui elles sont de plus en plus solicitées pour les tâches lourdes (montage, minage de crypto-monnaies). Ainsi on envisage de se passer du processeur pour n'avoir qu'une carte graphique dans un ordinateur (technologie DirectStorage )
Comme dit précédement, celles-ci sont de plus en plus puissantes (ex: Nvidia Geforce RTX 4000 series), mais elles sont énormément consommatrices d'énergies. Pour la Nvidia Geforce RTX 4090, la consommation électrique est d'environ 380 Watts sans être beaucoup utilisée, c'est énorme. Il n'y a pas vraiment de chiffres précis sur la consommation électrique en utilisant à fond ses capacités.
C’est très facile, il suffit de suivre ces 5 règles :
En augmentation
Aucune statistique
Leader incontesté
Membre de l'ONU
Nous tenons pour source cet article de la revue numérique CowCotLand.
Consulter l'article