La loi de Moore appartient-elle au passé?

vendredi 10 avril 2009 à 22:20

Petit cours d'histoire pour les gens ayant un quelconque rapport avec l'informatique :


- Gordon Moore avait prédit que le nombre de transistors doublerait dans les processeurs tous les 2 ans. Pour les gens qui ignorent qui est ce personnage, il est simplement l'un des co-fondateur d'Intel, plus gros fournisseur de processeurs dans la micro-informatique. Il est d'ailleurs très probable que beaucoup d'entre vous est un joli "Intel Inside" ou "Pentium machin" ou "Core 2" collé sur le boitier du pc, et ça vient entre autre de ce bon monsieur.


Cependant et comme l'a remarqué IBM, l'informatique est à un niveau de puissance qui fait que dans le cadre de Monsieur Toutlemonde ou du simple working user de base, et bien on n'a plus besoin du tout de faire des machines de plus en plus puissantes. De plus, les sommes collossales à dépenser pour l'innovation sont evidemment un frein à cette avancée qui connait désormait une recession.


Mais rien de grave, un pc récent et moyen gamme est capable de faire tourner un systeme d'exploitation correctement (admettons Ubuntu et Vista comme référence). De facto, Seven devrait tourner correctement sur ces mêmes machines. Alors ce qui fut la course à la vitesse (avec des processeurs à près de 4ghz!), la course au processeur pluri-coeurs est sur le point de s'essoufler, ou plutôt si nous voulions être précis dans le débat de se diversifier et de non pas se concentrer au seul CPU, mais s'etendre à des calculs collaboratifs. L'analyse devient interessante avec cette derniere remarque, puisque la puissance des cartes graphiques moderne est telle que lors de l'utilisation d'un tableur, et bien... le GPU pourrait prêter assistance au CPU si ce dernier est trop faible non?


Et c'est là qu'est l'avenir de la loi de Moore peut-être, dans l'extension de l'unité de calcul à des sous unités bien trop souvent inexploités (m'enfin ne généralisons pas, certains metiers exploitent les pcs ou mac de façon bien plus honorable), ce qui ne se ferra pas non plus sans des architectures futures comme Larrabee d'Intel. En gros, le futur sera convergeant ou ne sera pas!


L.

News of yesterday's world | Powered by Blogger | Entries (RSS) | Comments (RSS)

Nouvelles du Monde d'Hier, tous droits reservés à l'auteur, ne pas reproduire sans autorisation.

Designed by MB Web Design | XML Coded By Cahayabiru.com