Les cartes graphiques avaient autrefois une VRAM évolutive, alors pourquoi pas aujourd'hui ?


Points clés à retenir

  • La VRAM évolutive dans les cartes graphiques a été explorée dans le passé, mais présente une complexité et des risques à l'époque moderne.
  • Certains moddeurs ont mis à niveau la VRAM sur les cartes modernes, mais cela nécessite des compétences, de l'équipement et présente un risque potentiel de dommages.
  • Les défis liés aux cartes VRAM évolutives incluent la gestion de la chaleur, la standardisation et la collaboration, ce qui en fait un choix peu rentable.



Si vous possédez une carte graphique puissante avec trop peu de VRAM, vous n’avez pas d’autre choix que d’acheter une toute nouvelle carte. Alors pourquoi ne pas simplement créer une carte graphique conçue pour avoir une VRAM évolutive ? Il s’avère que les choses ne sont pas si simples.


ATI avait des cartes graphiques avec des emplacements RAM

L’idée d’une carte graphique que vous pouvez acheter maintenant et mettre à niveau plus tard n’est pas nouvelle. ATi (avant d'être racheté par AMD) disposait d'une série de cartes graphiques avec un emplacement où l'on pouvait insérer un module SGRAM supplémentaire.

La carte graphique ATI Rage LT Pro AGP avec emplacement SGRAM visible.

Ainsi, vous pouvez acheter une carte de 4 Mo (oui, vous avez bien lu) maintenant, et plus tard, s'il s'avère que vous en avez besoin de plus, vous pourrez doubler votre mémoire avec une mise à niveau immédiate. Je ne sais pas combien de personnes ont réellement profité de cette fonctionnalité, mais il existe certainement des cartes grand public dotées de cette option.

Certaines personnes ont réussi à mettre à niveau la VRAM sur des cartes modernes

Outre le simple fait que les cartes avec mémoire évolutive existaient il y a des décennies, est-il même possible de le faire avec des cartes modernes ? La réponse courte est « oui » et les moddeurs l'ont déjà fait avec des cartes d'usine. Remplacement des puces mémoire existantes par des modules de plus grande capacité.


Cela prouve que les cartes existantes sont en principe prêtes pour les mises à niveau de VRAM en ligne, mais bien sûr, ce n'est pas facile. Même s'ils ne rencontrent aucun problème du côté du micrologiciel et du logiciel, le remplacement des pièces concernées sur une carte existante est délicat et nécessite des compétences et un équipement avancés. Ce n'est donc généralement pas quelque chose qui vaut la peine d'être fait, surtout pour une carte qui fonctionne très bien, car cette procédure risque toujours d'endommager la carte que vous essayez de modifier.

Il y a trop de défis

En principe, rien ne s'oppose à une carte conçue pour avoir une VRAM évolutive, mais cela ne veut pas dire qu'elle sera bon marché ou facile. Il y a plusieurs défis auxquels je pense qui rendraient cela difficile à justifier, et cela doit être mis en balance avec la question de savoir si les personnes qui achètent ces GPU trouveraient que cela en vaille la peine.


Contrairement à ces anciennes cartes ATi, la VRAM GPU moderne chauffe et nécessite un refroidissement actif. Donc, si vous souhaitez créer une carte dotée de modules évolutifs, vous devez la concevoir de manière à ce que la mémoire dispose d'un système de refroidissement séparé. À l'heure actuelle, la conception standard refroidit à la fois le GPU, ses modules de mémoire et d'autres composants avec un seul ensemble dissipateur thermique et ventilateur. Vous pouvez donc voir que cela compliquera déjà les conceptions et aura un effet d’entraînement en termes de coûts.

Logo Nvidia GeForce RTX sur un GPU de jeu 4070 Ti
Justin Duino / Comment faire pour Geek


Vous avez également besoin d'une sorte de format de module de mémoire standardisé, tout comme nous avons des SODIMM pour ordinateurs portables ou des modules de mémoire LPCAMM. Le développement d’une norme de module VRAM prendrait des années et nécessiterait la coopération de nombreux grands leaders de l’industrie. Créer une solution propriétaire pour une marque de carte annulerait également tout avantage technique en raison du coût élevé des solutions propriétaires. Les cartes mémoire PS Vita, ça vous tente ?

Ce n’est même pas une liste exhaustive, juste quelques défis évidents. Bien qu’il n’y ait aucune raison technique pour que cela ne puisse pas se produire, je ne pense pas que cela en vaille la peine pour qui que ce soit. Une question plus importante est de savoir pourquoi les principaux fabricants de GPU vendent des cartes sans VRAM adéquate. Pourquoi avons-nous encore des GPU en 2024 et au-delà avec seulement 8 Go de mémoire ? Après tout, la mémoire est relativement bon marché.

La réponse a plus à voir avec l’état du secteur des GPU qu’avec tout autre élément technologique. NVIDIA possède la quasi-totalité du marché des GPU discrets, AMD jouant un rôle secondaire lointain et à peine audible, et la part de marché des GPU discrets d'Intel a littéralement augmenté. tombé à zéro. Dans ce contexte de marché, cela n’a aucun sens de nous proposer des quantités de VRAM plus élevées sur les cartes grand public. NVIDIA préférerait de loin que nous achetions une carte de niveau supérieur.


C'est aussi, à mon avis, la raison pour laquelle AMD propose des tailles de VRAM plus grandes que NVIDIA sur ses cartes grand public. Il ne peut pas rivaliser en termes de performances brutes ou de fonctionnalités, il essaie donc d'améliorer la proposition de valeur par d'autres moyens.

Le matériel sera moins évolutif, pas plus

Même si je souhaite toujours que le matériel pour lequel nous dépensons autant d’argent offre un moyen de l’améliorer à long terme, dans l’ensemble, cela ne semble pas être la tendance. Bien que des projets tels que les ordinateurs portables modulaires retiennent l'attention des médias, je ne pense pas que la modularité soit l'avenir. Avec des ordinateurs portables ultra-plats, des mini-PC, des ordinateurs de poche et d'autres appareils similaires intégrant davantage de composants dans des boîtiers plus petits, il semble que l'avenir pourrait être plus étroitement intégré, et qui sait ce que cela signifie pour les ordinateurs de bureau dans leur ensemble, et encore moins le vain espoir que les GPU soient intégrés. pourrait être un peu plus flexible.



Vous pouvez lire l’article original (en Angais) sur le {site|blog}www.howtogeek.com