Home Actualité internationale CM – Le microprocesseur a un demi-siècle
Actualité internationale

CM – Le microprocesseur a un demi-siècle

Autre part

Nous ne fêtons pas seulement un anniversaire chez Apple cette année. Après 20 ans de Mac OS X et iPod, 30 ans de PowerBook et 40 ans d’installation d’Apple en France, c’est désormais au tour d’Intel de fêter pas moins que le 50e anniversaire de son premier microprocesseur, le fameux 4004.

Comme le dit la marque sur son site Internet, le 4004, premier microprocesseur à arriver sur le marché, est né d’une réflexion sur un projet de calculatrice pour lequel Intel était un simple sous-traitant. En 1969, la Nippon Calculating Machine Corporation (NCMC) a commandé au tout jeune Intel, fondé l’année précédente, une série de puces pour alimenter une petite imprimante informatique.

Rejoignez et soutenez la plus grande communauté Apple francophone dans le travail d’une équipe éditoriale indépendante. Le club iGen c’est :

C’est dingue, 50 ans après on s’en tient au même schéma CPU/RAM/ROM, avec beaucoup plus de complexité, de transistors, de performances mais toujours ce trio basique. C’était vraiment révolutionnaire à l’époque 😀

le pire c’est quand tu lis ceci :
« Grâce à l’utilisation de silicium à la place des anciennes techniques de grille en aluminium, ce processeur était deux fois plus dense que les puces qu’il remplaçait, avec des circuits de seulement dix microns de large, dix fois moins que cela. » Millimètre carré, avec ses seize broches, contenait une puissance de calcul comparable à celle de l’Eniac, un monstre de trente tonnes développé vingt-cinq ans plus tôt.

C’est encore plus fou : les principes architecturaux restent ceux qui le font en 45 von Neumann et quelques autres personnes de l’époque.

Désolé de ne pas avoir organisé la présentation de manière hiérarchique et je pensais que vous commentiez mon autre post 😉

Encore une fois un article clair et bien documenté. En plus des messages finement analysés et déchiffrés, il vaut la peine de pouvoir lire de nombreux articles de ce tonneau. Merci.

Merci pour cet article. Je serai vraiment très impatient de voir comment les choses vont évoluer au cours des prochaines décennies… compte tenu de l’évolution exponentielle des ordinateurs : performances, miniaturisation, logiciels, appareil photo smartphone, etc.
Le paysage high-tech des prochaines décennies est difficile à imaginer. Il y a trente ans, le paysage high-tech d’aujourd’hui avec l’évolution incroyable du matériel, des logiciels, des services, etc. n’aurait pas pu être imaginé. toujours plus puissant, notamment grâce à internet.
Je me demande quelle sera la prochaine grande révolution Internet.
Pour ma part, je suis sûr (au cours de la dernière décennie environ) que la prochaine révolution/amélioration des ordinateurs portables (court/moyen terme) serait l’évolution du clavier mécanique (dernière partie mécanique !) vers les écrans vers le retour haptique ( avec paravents sur charnière). Nous avons d’excellentes options. Le clavier, qui est configuré différemment selon les situations, l’utilisation d’un stylo pour prendre des notes, une immense surface d’affichage. Et nous aurions plus de problèmes, style clavier papillon ! fondamentalement une sorte de grande barre tactile 😜.
Un prototype de ce type existait déjà il y a quelques années. Mais c’était très difficile et Windows n’était pas du tout adapté (d’où l’avantage d’Apple en termes de matériel et de logiciel). C’était encore un prototype. Mais c’était très prometteur. Je n’ai plus de lit dans la tête.

Le paysage high-tech des prochaines décennies ?!
Il vaut certainement mieux ne pas y penser.
L’intelligence artificielle va tous nous bouffer.

Puisque nous sommes très impliqués auprès de la Fondation Isaac Asimov, et/ou lisez-la ou relisez-la : https://fr.wikipedia.org/wiki/Trois_lois_de_la_robotique
</

C’est le même mythe que le syndrome du miroir : c’était mieux avant, dans le sens où ses origines sont très similaires. La peur du changement, des évolutions, technologiques ici.

Homo a inventé la technologie il y a 3 millions d’années. Nous sommes la technologie. Plus que tout autre trait, c’est notre capacité à développer la technologie et notre dépendance à l’égard de la technologie qui nous distingue des autres espèces animales, en particulier des primates.

Dans 3 millions d’années, nous contrôlerons nos clubs, chaussures ou tentes Peau de mammouth, silex, céramiques, champs de blé, hauts fourneaux, machines à imprimer ou téléphones portables ne sont pas perdus.

Il faudrait un niveau de contrôle mutuel bien plus élevé que ce qui existe ou existera dans les décennies à venir pour approcher un point où une hypothétique perte de contrôle ne peut être stoppée en tirant sur la prise.

Il y a encore beaucoup de travail à faire pour y arriver de toute façon, si jamais on y arrive… (Interview plutôt intéressante avec Luc Julia, l’inventeur de Siri qui en parle : https://www.youtube.com/ watch? v = FSl8uMo7SzA)

Je l’écoute, mais j’ai encore du mal avec Julia car si tu l’écoutes, il voit toujours On dirait qu’il a tout inventé…

C’est intéressant ce que tu dis car ça a un peu à voir avec la réalité augmentée : comment te sens-tu avec un écran ? Je pensais qu’Apple travaillait sur un aspect assez important de la RA avec l’audio et l’audio spatial qui sont intégrés dans de plus en plus de systèmes audio Apple.
On le verra dans 10 ans, mais peut-être avons-nous un casque sur la tête et des écouteurs dans les oreilles 🙂

Merci. Réalité Augmentée, Intelligence Artificielle… Difficile de prédire où l’on va et quelle en sera l’utilisation.

« Pour ma part, je suis sûr (au cours de la dernière décennie environ) que la prochaine révolution / Amélioration dans les ordinateurs portables (court/moyen terme) l’évolution du clavier mécanique (dernière pièce mécanique !) Retour haptique »

Un clavier amélioré n’est pas une révolution. Il restera un clavier… plus cher, et une hérésie : une interface utilisateur dont les fondamentaux changent selon les applis ou le système d’exploitation… hérésie qui est parfaitement soulignée par la barre tactile.

Pour ma part, je pense que Nous attendons trois révolutions et changerons radicalement notre façon d’utiliser les outils informatiques (qui disparaîtront) = IA, AR et VR

« Il est très difficile d’imaginer le paysage high-tech des prochaines décennies. Il y a 30 ans, on aurait pu imaginer le paysage high-tech d’aujourd’hui avec l’évolution confuse du matériel, des logiciels, des services, etc. de plus en plus grâce à Internet « 

Je me permets d’être un peu moins enthousiaste : Oui, nous font de belles choses aujourd’hui, mais cela a été ruiné par de nombreuses injonctions et revers : par exemple, en 1997, j’ai passé des appels téléphoniques depuis mon ordinateur sans aucun problème (et c’était toujours un Performa 6400 😉), mon email (Eudoraaaaah) était flexible , mailing léger programmable, facile à gérer…
Globalement, l’industrie a continué à se développer, individuellement, il m’est de plus en plus difficile de faire ce que je faisais. J’ai plus de contraintes (et au-delà, automatisées), des barrières, des restrictions sur la gestion de ma vie quotidienne, plus d’objets redondants, plus de complexité de connexion (il y a 15 ans nous avons rejoint sur Mac et cela a vraiment fonctionné sans mot de passe ni empreinte trop lu.
Alors oui, vous pouvez fermer les volets de votre voiture et laisser votre aspirateur sortir du travail (et une télécommande à cœur ouvert, bien sûr, ce qui est plus basique), mais vous pouvez également envoyer des tonnes de merde derrière votre écran. , et passez 24 heures directement derrière votre console. Le progrès a sa part de gaspillage, et compte tenu de ce que nous savons maintenant faire, je n’ose pas penser à ce que nous pouvons réaliser avec un ordinateur quantique entre nos mains.

Prédiction classique, mais il devrait s’agir d’un mini implant cérébral et ce sera l’avenir.

Pour s’en convaincre, il suffit de lire les décennies de prévoyance : on se trompe toujours quand il s’agit de prévisions à long terme

Habituellement, ce type d’invention est fait à l’époque guerre, ce n’est pas le cas ici, simplement pour aider au calcul d’une calculatrice, on n’ose pas imaginer si cela aurait été pour un hachoir à viande ou pour un réfrigérateur animalier !! ! Nous donnerait-il une conférence sur l’art et la manière de conserver les aliments ?

« D’habitude ce genre d’invention se fait en temps de guerre, ici ce n’est pas le cas »

L’accélération fulgurante du Le passage de la mécanographie à l’informatique programmable remonte clairement à la Seconde Guerre mondiale avec des investissements massifs dans ces technologies qui ont produit les premières machines de laboratoire puis les premières machines commerciales après la guerre (UNIVAC I 1951).

L’informatique moderne est sortie de la guerre d’une part avec les efforts de cryptanalyse et d’autre part avec la recherche technologique dans tous les domaines, soutenue par l’une des plus grandes orgies de neurones de l’histoire humaine : le Manhattan Project.

Les efforts qui ont conduit au développement des circuits intégrés et de la premiers microprocesseurs, doivent beaucoup à une autre forme de guerre : la guerre froide.

D’une part avec le Welttr une course qui s’est cumulée avec Apollo, et d’autre part avec le généreux financement de la recherche et de l’industrie par la DARPA.

Et un retour dans le temps : la machine de Babbag qui a donné à Ada Lovelace l’opportunité de poser les bases d’un existant et de poser des programmations financées pour des intérêts militaires : la fabrication automatisée de tables de lancement de canons.

Il n’y a sans doute que l’avènement de la mécanographie, qui a été portée par des autorités plus civiles : l’obligation constitutionnelle aux États-Unis de procéder à un recensement à des fins de représentation pour s’adapter à la Chambre des représentants (Le recensement de 1890, réalisé par Hollerith, dont la société deviendra l’une des briques d’IBM après quelques péripéties en 1911)

« Il y a probablement juste l’avènement de mécanographie, motivée par des questions plus civiles « 

Si vous regardez de plus près, vous constaterez qu’il existe un certain nombre d’inventions s qui sont purement de nature civile. La plupart des énergies, par exemple, ont eu des origines bourgeoises : le feu, la vapeur, l’électricité, les moteurs thermiques…

L’influence de l’armée n’est pas à sous-estimer, mais aussi à ne pas surestimer. Et il y a aussi les religieux. C’était une autre époque. Mais quand même.

« Si vous regardez de plus près, vous constaterez qu’il existe un certain nombre d’inventions de nature purement civile »

« La machine de Babbag qui a donné à Ada Lovelace les bases de la programmation à poser a existé et a été financé pour des intérêts militaires : la fabrication automatisée de tables de lancement de canons. « 

Je ne peux vraiment pas imaginer combien de personnes font de telles fautes d’orthographe. C’est un mystère pour moi.

« Habituellement, ce type d’invention est fabriqué en temps de guerre, pas ici »,

Dans l’histoire de la technologie, des moteurs d’innovation relativement immuables peuvent être isolés :
– Échanger
– finances
– La productivité
– La conquête
– La guerre
– Les fonctions royales

Et pour paraphraser Clausewitz : La guerre n’est pas la suite de tout le reste autrement 🥸

Et pour les gens comme moi qui aiment l’histoire de l’informatique : le manuel de programmation 4004 🤓

Je me suis toujours demandé comment ils fabriquaient/gravaient de si petits éclats à l’époque, quels outils permettaient-ils ?

Excellente question ! Le principe est le même qu’avec des diapositives de films ou des vidéoprojecteurs, avec une surface sensible à la lumière et un « masque » projeté dessus. Hormis les processeurs, les objectifs réduisent l’image projetée.

« Je me suis toujours demandé comment ils fabriquaient/gravaient d’aussi petits éclats à l’époque, avec quels outils pouvaient-ils le faire ?? »

A peine caricaturant : comment aujourd’hui, mais avec des moyens moins avancés grâce à la photolithographie

« Le 6502 de MOS Technology, un clone low-cost du 6800 que Motorola avait développé pour conquérir le marché créé par Intel. « 

Alors non ! Un microprocesseur 8 bits n’est pas un  » clone  » d’un processeur 16/32 bits, surtout s’il a été créé 4 ans avant ce dernier !

Le 6502 a été fabriqué par Apple en 1976 pour son Apple 1 (puis Apple II l’année suivante) a été choisi principalement parce qu’il était bon marché.
C’était alors, et pendant longtemps, le microprocesseur qui accompagnait… les claviers des bornes d’arcade !

« Alors non ! Un microprocesseur 8 bits n’est pas un « clone » d’un processeur 16/32 bits, surtout s’il a été créé 4 ans avant ce dernier !
En 1975, la technologie MOS sort 6502
Le Motorola 68000 est sorti en 1979. « 

S’il ne s’agit pas du MC 6800, apparu en 1974, pas du 68000 😉

Le 6502 a été conçu par le grand Chuck Peddle, qui était aussi l’un des pères du 6800 chez son précédent employeur Motorola.

Et en fait, MOS a réussi à produire un processeur très similaire au 6800 et au 65001, mais coûte 12 fois moins cher.

Soyez toujours prudent lorsque vous acceptez un « Alors non ! » convaincant. La rédaction de MacGe fait un travail sérieux, vous auriez pu gagner à lui donner un coup d’oeil sérieux 😉😎

Service de presse en ligne reconnu CCPAP au 0924 W 93490. Tous droits réservés.

Version 1.3. Reset privé paramètres de données
.

Keywords:

Intel 4004,Microprocessor,Computer,Central processing unit,Busicom,Federico Faggin,Intel 4004, Microprocessor, Computer, Central processing unit, Busicom, Federico Faggin,,,informatique,puces,Intel,,

[quads id=1]