Le cyberblog du coyote

 

Extra

Editorial

Ce blog a pour objectif principal d'augmenter la culture informatique de mes élèves. Il a aussi pour ambition de refléter l'actualité technologique dans ce domaine.

mercredi 6 décembre 2017

Rétrospective sur une décennie numérique

Le numérique est tellement imbriqué dans notre quotidien qu’il est extrêmement difficile de se souvenir de l’époque où il n’y avait ni smartphone, ni Facebook. Et pourtant, c’était il y a 10 ans ! Avec une adoption aussi rapide et massive, on ne s’étonne pas de voir autant d’entreprises traditionnelles complètement désarmées face à la transformation digitale. Pour bien mesurer le chemin parcouru par les contenus et services numériques dans notre quotidien, Fred Cavazza nous propose une rétrospective de ses 10 dernières années.

Lire l'article de Fred Cavazza

lundi 4 septembre 2017

Eté 1997, l'alliance Steve Jobs-Bill Gates

Août 1997. Bill Gates, le patron de Microsoft, a annoncé son entrée dans le capital d’Apple à raison de 150 millions de dollars. Le but du deal imaginé par Steve Jobs, le petit génie fondateur d’Apple, revenu chez lui après avoir été viré il y a douze ans ? Offrir à Microsoft le système d’accès à Internet. En échange, Bill Gates s’engage à fournir une version de son logiciel Office 98 aux utilisateurs d’Apple. Une alliance jugée contre nature, voire sacrilège, par les fans de la petite pomme.

Lire l'article de 1998 sur "A travers les archives de Paris-Match".

mercredi 25 janvier 2017

Avènement de la société numérique de 1955 à nos jours : les couverture du magazine « Time »

(re)Découvrez l’avènement de l’ère numérique depuis plus d’une demi siècle à travers les couvertures du magazine Time.

Voir la page de l'espace Turing.

dimanche 26 juin 2016

La première boucle

Qui a écrit le premier programme valant la peine d’être écrit, la première boucle ? C’est Augusta Ada King, comtesse de Lovelace. Parfaitement : une femme. Et ceci bien avant qu'Alan Turing ne propose sa machine, dont l’intérêt est surtout théorique.

Lire l'article sur le blog du Dr Goulu : Pourquoi, Comment, Combien

vendredi 1 avril 2016

40 ans d'Apple : les dix Mac emblématiques qui ont fait la légende

Le 1er avril 1976 naissait Apple. L'entreprise californienne et son mythique patron Steve Jobs ont révolutionné l'informatique moderne en mettant en avant le design et l'ergonomie. De l'Apple I en passant par le Macintosh jusqu'à l'iMac qui marqua la renaissance de la marque en 1998, voici les dix modèles les plus marquants.

Lire l'article sur Futura-Sciences

mardi 22 décembre 2015

Le premier site Web fête ses 25 ans

C’était à quelques jours de Noël. Le 20 décembre 1990, Tim Berners-Lee mettait en ligne le tout premier site Web créé à partir des standards HTML qu’il a lui-même inventés, depuis un ordinateur NeXT du Conseil européen pour la recherche nucléaire (le Cern). C’était à l’adresse http://info.cern.ch, qui héberge aujourd'hui une archive de la page historique que l’on peut même visiter avec un simulateur de navigateur en ligne de commande (car oui, à l’époque il n’y avait pas encore de possibilités de clics sur les liens hypertextes, ni même d’images).

Le « projet WorldWideWeb », pour créer des liens entre les pages

Très sérieuse, la toute première page Web, dont l'adresse était, très exactement, info.cern.ch/hypertext/WWW/TheProject.html, donnait aux chercheurs des informations sur l’avancée du « projet WorldWideWeb », qui deviendrait le Web tel qu’on le connaît aujourd'hui. Le site fournissait des informations sur les protocoles techniques développés pour écrire du contenu au format HTML, utitiser l'hypertexte et donc créer des liens entre les pages, interroger des serveurs pour récupérer des pages ou envoyer des informations, etc.
La page fournissait également des liens pour se tenir au courant des avancées et permettait par exemple de s’inscrire sur la mailinglist de ce qui allait devenir plus tard le W3C (World Wide Web Consortium) pour établir les standards de façon consensuelle avec la communauté des développeurs. Vingt-cinq ans plus tard, Tim Berners-Lee dirige toujours le W3C, qui compte désormais 407 membres, essentiellement industriels.

Source : Numerama, Guillaume Champeau

samedi 10 octobre 2015

Du code au langage

Le progrès scientifique, la diffusion des sciences, reposent sur le langage. C'est pourquoi les mots ont tellement d'importance en sciences. C'est le cas aussi en informatique, une science naissante qui repose sur un vocabulaire forgé récemment et en évolution permanente. Un historien des sciences, Pierre Mounier-Kuhn revient pour Binaire sur la genèse de mots essentiels comme code ou langage. Serge Abiteboul et Gilles Dowek.

Lire l'article sur Binaire.

mercredi 22 avril 2015

Intel célèbre les 50 ans de la « loi de Moore »

Il y a un demi-siècle, Gordon Moore, cofondateur d'Intel, avançait une théorie sur la constance de l’évolution des semi-conducteurs qui allait donner naissance à la fameuse « loi de Moore ». Cinquante ans plus tard, son auteur avoue ne pas savoir combien de temps encore celle-ci restera pertinente.
Le 19 avril 1965, Gordon Moore, alors directeur du département recherche et développement de Fairchild Semiconductor, publiait un article dans la revue Electronics Magazine consacré au taux de croissance des circuits intégrés. En se basant sur ses observations, il prédit que le nombre de transistors par circuit de même taille allait doubler, à prix constants, tous les ans et ce pour les dix années à venir. « J'essayais juste de démontrer qu'il s'agissait de la direction générale dans laquelle allaient les semi-conducteurs, et que cela donnerait un avantage considérable en termes de coûts, ce qui n'était pas tout à fait vrai à l'époque [...] C'était là mon véritable objectif : faire comprendre que nous avions devant nous une technologie qui rendrait l'électronique bien plus économique », explique Gordon Moore dans un entretien réalisé à l’occasion de cet anniversaire et disponible sur Youtube. « Je pensais seulement qu'il ne s'agissait que d'une tendance générale. Mais elle s'est avérée bien plus précise que ce que j'avais pu anticiper », ajoute l’un des trois cofondateurs d’Intel.
En effet, une décennie plus tard, ce qui n’était alors qu’une hypothèse empirique se confirma. Gordon Moore révisa son postulat et annonça que le nombre de transistors dans un microprocesseur doublait tous les deux ans. On commenca alors à parler de la « loi de Moore » qui n’est pas une loi au sens strict du terme, vérifiable d’un point de vue scientifique, mais plutôt une théorie issue d’une tendance. Intel n’en fait d’ailleurs pas mystère : « Plus qu’une véritable loi de la nature, la théorie de Moore devient un fil conducteur et une source d’inspiration pour l’ensemble de l’industrie des semi-conducteurs qui se fait un devoir d’aller aussi vite que le rythme prédit ». Par la suite, Intel a simplifié le concept et posé que la puissance des processeurs double tous les 18 mois.
Par extrapolation, l’industrie high-tech a adapté ce principe de doublement pour en faire un mètre étalon qu’elle n’applique plus seulement aux semi-conducteurs mais de manière générale aux performances de ses produits. D'un point de vue marketing, cette idée d’une amélioration constante des capacités des appareils électroniques s’est peu à peu imposée dans l’esprit des consommateurs et sert avantageusement le discours portant sur l'obsolescence programmée.

Cinquante ans plus tard, où en est la loi de Moore ?

En 1971, le premier microprocesseur conçu par Intel, le fameux 4004, comportait 2.300 transistors pour une fréquence de 740 kHz. Il était capable d’effectuer 90.000 opérations à la seconde. À l’époque, précise Intel, un transistor avait la même taille que la gomme d’un crayon. Aujourd’hui, la dernière génération de processeurs Core i5 gravée en 14 nm intègre 1,3 milliard de transistors et est 3.500 fois plus performante. Pour pouvoir observer un transistor à l’œil nu, le fondeur explique qu’il faudrait que la taille du processeur soit équivalente à celle d’une maison.
Dans son dossier consacré à l’anniversaire de la loi de Moore, le géant nord-américain s’amuse à appliquer ses principes à d’autres domaines : « Si l’efficacité énergétique du carburant avait augmenté au même rythme que la loi de Moore, une personne pourrait conduire sa vie entière avec un seul réservoir. Si le prix de l’immobilier avait chuté au même taux que le coût des transistors, une personne pourrait s’acheter une maison pour le prix d’un bonbon ».
Reste que la miniaturisation extrême des composants électroniques n’est pas loin d’atteindre les limites physiques. Chercheurs et ingénieurs explorent d’autres solutions techniques susceptibles de maintenir cette hausse constante des performances à coût égal : architecture en trois dimensions, nanotubes de carbone, graphène, photonique, l’informatique quantique… La loi de Moore est aujourd’hui toujours valide mais pour combien de temps encore ? Son auteur lui-même avoue ne pas le savoir. « C'est une technologie bien plus ouverte que ce que j'aurais pu imaginer en 1965 ou en 1975 et il n'est pas facile de savoir quand sa progression s’achèvera. »

Source : Futura-Sciences (Marc Zaffagni)

vendredi 18 avril 2014

UNIVAC

L'UNIVAC I (UNIVersal Automatic Computer I) est le premier ordinateur commercial réalisé aux États-Unis. Il a été créé par J. Presper Eckert et John Mauchly, déjà à l'origine de l'ENIAC. Avant que d'autres machines ne sortent dans la même série, l'UNIVAC I était tout simplement appelé UNIVAC.
Le premier ordinateur est livré à l'United States Census Bureau le 30 mars 1951 et mis en service le 14 juin. Le cinquième (construit pour l'Atomic Energy Commission) a été utilisé par CBS pour prédire l'issue de l'élection présidentielle de 1952 (alors que les sondages réalisés "humainement" donnaient Eisenhower perdant). À partir d'un échantillon d'un pour cent des votants il prédit qu'Eisenhower aurait été élu président, chose que personne n'aurait pu croire, mais UNIVAC avait vu juste.
L'UNIVAC a été un symbole de l'informatique, apparaissant entre autres dans Objectif Lune de Hergé et Un cerveau d'un milliard de dollars de Ken Russel.

Sources : Wikipedia, histoire de l'informatique

samedi 5 avril 2014

Lancement de l’Apple I : 11 avril 1976

L'Apple I de la marque Apple, fut l'un des tout premiers micro-ordinateurs individuels.


Conçu par Steve Wozniak, Steve Jobs et Ronald Wayne dans le garage des Jobs, il fut le premier produit d'Apple mis en vente en avril 1976. Son prix était alors de 666,66 $, ce qui correspondrait aujourd'hui à 2700 dollars (2070 Euros) en prenant en compte l'inflation. Environ 200 unités furent produites. Une cinquantaine d'entre elles ont été vendues par un magasin d'électronique de Mountain View. À la différence d'autres ordinateurs amateurs de cette époque qui étaient vendus en kit, l'Apple I était constitué uniquement d'une carte assemblée comprenant des composants électroniques dont environ 21 circuits intégrés.
Maison des parents de Steve Jobs, 2066 Crist Drive, Los Altos (Californie). L'histoire d'Apple débute dans leur garage en 1975. Cependant, pour en faire un ordinateur fonctionnel, les utilisateurs devaient encore l'intégrer dans un boîtier avec une alimentation, un clavier, et un écran de télévision. Une carte facultative, fournissant une interface pour un lecteur de cassette, fut proposée plus tard pour un prix de 75 $. L'utilisation d'un clavier et d'un moniteur distinguait l'Apple I des machines concurrentes, telle que l'Altair 8800, qui étaient généralement programmées avec des interrupteurs et utilisaient des lumières clignotantes pour l'affichage. Cela faisait de l'Apple I une machine innovante pour son époque, malgré son manque de graphismes ou de fonctions sonores. La production fut arrêtée en mars 1977, avec l'apparition de son successeur, l'Apple II.
L'Apple I est parfois considéré comme le premier ordinateur individuel vendu sous une forme entièrement assemblée. Cependant, certains pensent que cette caractéristique reviendrait légitimement à d'autres machines, telles que le Datapoint 2200.
Il existe encore six exemplaires de l'Apple I en état de marche, faisant de lui un article de collection.

Source : Espace Turing

vendredi 24 janvier 2014

Pour ses 30 ans, un Macintosh 128 se souvient de sa jeunesse

Lancé le 24 janvier 1984, l'ancêtre des Mac d'aujourd'hui a bien voulu revenir sur son heure de gloire, quand il est né au milieu d'un monde d'ordinateurs sans souris.

Lire "l'interview" sur Futura-Sciences

lundi 13 janvier 2014

Bruit d'un modem

Vous rappelez-vous le bruit que faisait un modem quand il se connectait ?

samedi 2 novembre 2013

Personal Computer Museum, Brantford, Canada

Pour savoir à quoi ressemblaient les premiers ordinateurs personnels : Personal Computer Museum, Brantford, Canada.

vendredi 5 avril 2013

La naissance des systèmes d'exploitation

La conception des systèmes d’exploitation des ordinateurs est soumise à une tension entre deux objectifs contradictoires : améliorer le confort des utilisateurs ; exploiter efficacement les ressources physiques des machines. Le début de l’histoire de ces systèmes traduit bien le va-et-vient entre ces objectifs.

Lire l'article sur Interstices

lundi 10 décembre 2012

Ada Lovelace

Ada Lovelace aurait eu aujourd’hui 197 ans, cette jeune femme est considérée comme l’une des pionnières de l’informatique puisqu’elle est la première programmatrice du monde. La passion pour les mathématiques l’a conduira auprès de Charles Babbage.
Ada Lovelace était passionnée par les mathématiques grâce à sa mère. Son éducation tourne donc autour des sciences et sera amenée à rencontrer Mary Sommerville. Cette dernière l’invite à continuer son apprentissage et lui présente en 1833 Charles Babbage. Grâce à lui, Ada sera mondialement connue pour son ouvrage destiné à la machine analytique de Babbage. Après avoir mis sa passion entre parenthèses pour fonder une famille, elle décide de lire un article consacré à cette machine. La jeune femme, qui parle assez bien le français doit le traduire en anglais pour le journal Scientific Memoirs. Après avoir fait quelques écritures, Charles Wheastone lui propose de présenter son propre mémoire sur cette machine. Ada Lovelace consacre donc tout son temps à l’écriture de ce dossier.

Une pionnière de l’informatique

Grâce à la collaboration de Babbage, Ada Lovelace rédige sept notes qui suscitent l’admiration de son entourage. Charles Babbage va alors annoter son travail de la lettre A à G. Cette dernière devient même historique notamment pour le domaine de l’informatique. Ada Lovelace proposait à l’époque un algorithme très élaboré écrit avec les nombres de Bernoulli. À cet instant, la jeune femme vient de proposer le premier programme informatique. Au fil de son travail, elle est reconnue notamment pour les notes qui accompagnent des illustrations « La machine pourrait composer de manière scientifique et élaborée des morceaux de musique de n’importe quelle longueur ou degré de complexité ». La reconnaissance, elle l’obtiendra après sa mort. Elle succombe le 27 novembre 1852 à la suite d’un cancer de l’utérus.

Un Doodle Ada Lovelace

Ada Lovelace refait son apparition dans un des programmes du Ministère de la Défense américain. Jack Copper du Naval Material Command décide donc en juillet 1978 de rebaptiser le programme en l’appelant Langage Ada. À partir de cet instant, son travail est examiné et elle est considérée comme la première programmatrice de toute l’histoire de l’informatique. Le portrait d’Ada Lovelace est également à l’intérieur de l’hologramme d’authentification des programmes de la firme de Redmond. Aujourd’hui, c’est Google qui a décidé de lui rendre hommage en proposant un Doodle à son effigie. Au fil des lettres du mot Google, vous pouvez constater le cheminement de l’informatique pour arriver aux tablettes et ordinateurs qui inondent aujourd’hui le monde. La tablette représente également un piano, car le dessin illustre parfaitement l’une des annotations d’Ada Lovelace à propos de la machine de Babbage.


Source : Begeek.fr

lundi 26 novembre 2012

Witch, l’un des plus vieux ordinateurs du monde a redémarré

Au Royaume-Uni, le musée national de l’informatique de Bletchley Park a remis en service l’un des plus vieux ordinateurs du monde créé en 1949. Démantelé voilà des décennies, cet engin électromécanique, qui utilisait de curieuses lampes à gaz, a été restauré durant trois ans. Il fonctionne. Mais comptez une petite dizaine de secondes pour multiplier deux nombres...

C’est un ancêtre de l’informatique qui s’est réveillé après un sommeil de près de quarante ans. Il s’appelle le Witch, il pèse 2,5 tonnes, mesure 2 mètres de haut pour 6 mètres de largeur, consomme 1,5 kW d’électricité, et a été construit en 1949, ce qui en fait l’un des premiers ordinateurs du monde. Exposé au musée national de l’informatique de Bletchley Park (Royaume-Uni), ce mastodonte a été remis en marche la semaine dernière après trois ans de restauration.
À l’origine, la machine s’appelait le Dekatron d’Harwell. Elle a démarré pour la première fois en 1951 et faisait partie de la douzaine d’ordinateurs de la planète. Entre 1952 et 1957, le Dekatron était exploité pour la recherche fondamentale sur le nucléaire au centre de recherche atomique d’Harwell. Il a ensuite été cédé à l’université de Wolverhampton où il a troqué son nom pour Wolverhampton Instrument for Teaching Computing from Harwell (Witch). Il servait alors à enseigner l’informatique aux étudiants. Entre 1973 et 1997, il a été entreposé dans un musée de Birmingham, pour enfin tomber dans l’oubli, démantelé dans un entrepôt. Le Witch a été redécouvert en 2009. Depuis, il a été restauré pour retrouver son panache originel.


Dans cette séquence vidéo, le Dekatron d’Harwell (alias le Witch) redémarre 39 ans après son arrêt. On peut voir clignoter les tubes à gaz qui mémorisent temporairement les données. La machine comportait également 480 relais et 7.073 circuits électromécaniques. © The National Museum of Computing

Le Dekatron aussi rapide que les humains, mais plus endurant

Pour fonctionner, le Dekatron (alias le Witch) ingurgitait les données dans sa mémoire vive à partir de bandes perforées. Cette mémoire employait des relais pour effectuer des calculs. À la sortie, les résultats étaient imprimés sur une machine à écrire électromécanique ou mémorisés en perforant des bandes.
Conçu avant l’arrivée des premiers transistors, le Witch utilise 828 tubes à gaz Dekatron pour stocker les données et charger les programmes. Aussi appelé tube compteur décimal, ce type de tube électronique était alors utilisé comme compteur pour les machines à calculer, et en particulier dans le nucléaire, comme compteur de particules. Avec ces Dekatron, les traitements sont réalisés en décimal, et non pas en binaire comme les ordinateurs purement électroniques qui ont suivi.
Witch n'était pas véloce : il avait besoin de 5 à 10 secondes pour multiplier deux nombres. Très lent donc, mais endurant. Il avait été conçu pour remédier aux carences de l’être humain, qui n’est pas capable de réaliser des calculs 24 heures durant. Autonome et fiable, il pouvait ainsi rester des jours entiers en fonctionnement sans aucune intervention. Jack Howlett (1912-1999), un des pionniers de l’informatique qui a utilisé le Witch dans les années 1950, racontait qu’il se rappelait de vacances de fin d’année durant lesquelles la machine avait avalé et traité des kilomètres de données en toute autonomie durant dix jours et ce sans aucun souci.

Source : Futura-Sciences

mardi 25 septembre 2012

Le premier article scientifique de l’histoire de l’informatique ?

Menabrea. Si ce nom ne vous évoque, au mieux, que le souvenir d’une bière piémontaise (excellente au demeurant) et que vous vous intéressez aux origines de l’ordinateur, vous aurez à cœur de découvrir un personnage que l’Histoire de l’informatique a laissé dans l’ombre malgré une contribution significative.

Lire l'article sur Interstices

jeudi 3 mai 2012

Xerox PARC et la naissance de l’informatique contemporaine

Au début des années 1970, les équipes du centre de recherche Xerox de Palo Alto élaborent les concepts et les outils qui vont définir le visage de l’informatique actuelle.

Lire l'article sur Interstices

vendredi 27 avril 2012

Le web a son panthéon

WASHINGTON et GENÈVE--(BUSINESS WIRE)--Les noms des tout premiers membres du Panthéon de l'Internet ont été annoncés aujourd'hui lors de la conférence Global INET 2012 de l'Internet Society qui a lieu à Genève, en Suisse. Des pionniers et sommités de l'Internet provenant du monde entier se sont retrouvés à la conférence pour marquer le 20e anniversaire de l'Internet Society et pour assister à un gala de remise de prix visant à honorer les membres 2012 suivants :

Cercle des pionniers

Reconnaissance d'individus ayant joué un rôle décisif dans la conception et le développement précoces de l'Internet : Paul Baran, Vint Cerf, Danny Cohen, Steve Crocker, Donald Davies, Elizabeth Feinler, Charles Herzfeld, Robert Kahn, Peter Kirstein, Leonard Kleinrock, John Klensin, Jon Postel, Louis Pouzin et Lawrence Roberts.

Innovateurs

Reconnaissance d'individus ayant réalisé des avancées technologiques, commerciales et politiques très importantes et ayant aidé à étendre la portée de l'Internet : Mitchell Baker, Tim Berners-Lee, Robert Cailliau, Van Jacobson, Lawrence Landweber, Paul Mockapetris, Craig Newmark, Raymond Tomlinson, Linus Torvalds et Philip Zimmermann.

Connecteurs mondiaux

Reconnaissance d'individus venant du monde entier ayant apporté des contributions significatives à la croissance et à l'utilisation mondiales de l'Internet : Randy Bush, Kilnam Chon, Al Gore, Nancy Hafkin, Geoff Huston, Brewster Kahle, Daniel Karrenberg, Toru Takahashi et Tan Tin Wee.
S'exprimant au sujet des membres du Panthéon de l'Internet 2012, Lynn St.Amour, présidente et directrice générale de l'Internet Society, a déclaré : « Cette assemblée historique de visionnaires, d'innovateurs et de leaders de l’Internet représente une étendue extraordinaire de vision et de travail. Tandis que les membres ont des origines extrêmement diversifiées et représentent de nombreux pays différents, chaque individu nourrit une passion incroyable pour son travail. Nous profitons tous de leurs exceptionnelles contributions à l'Internet mondial, faisant de celui-ci l'un des catalyseurs de développement économique et sociétal les plus formidables de tous les temps ».
Raúl Echeberría, président du conseil d'administration de l'Internet Society, a déclaré : « L'Internet, qui relie plus de deux milliards de personnes à travers le monde aujourd'hui, est le résultat de nombreuses contributions importantes de la part d'individus créatifs et visionnaires au cours des dernières décennies. Le Panthéon de l'Internet 2012 célèbre les avancées de 33 personnes talentueuses ayant apporté des contributions significatives à la conception, au développement et à l'expansion de l'Internet ».
Conjointement à cette annonce, l'Internet Society a lancé un site Web à l'adresse www.internethalloffame.org qui présentera les membres et leurs contributions de façon permanente. Le site Web, qui comprend des photographies et biographies des membres, comportera une série de reportages exclusifs rédigés par Wired. De multiples membres seront mis en avant chaque mois dans le cadre d'entretiens sous la forme de questions/réponses. Le premier entretien présentera le pionnier du Panthéon de l'Internet Vint Cerf.

À propos du Panthéon de l'Internet

Le Panthéon de l'Internet (« Internet Hall of Fame ») est un programme annuel de remise de prix mis en place par l'Internet Society afin de reconnaître publiquement un groupe prestigieux et restreint de leaders et sommités ayant apporté d'importantes contributions au développement et à l'avancement de l'Internet mondial. De plus amples informations au sujet du programme sont disponibles sur www.internethalloffame.org.

À propos de l'Internet Society

L'Internet Society est la source de confiance indépendante d'informations sur l'Internet et le leadership éclairé du monde entier. Avec sa vision de principe et sa base technologique substantielle, l'Internet Society promeut le dialogue ouvert sur les politiques, la technologie et le développement futur de l'Internet auprès des utilisateurs, des entreprises, des gouvernements et d'autres organisations. Travaillant conjointement avec ses membres et sections à travers le monde, l'Internet Society permet l'évolution et la croissance continues de l'Internet au bénéfice de tous. Pour de plus amples informations, rendez-vous sur le site : http://www.internetsociety.org

Source : BusinessWire.com

lundi 12 décembre 2011

Google rend hommage à Robert Noyce

Aujourd'hui 12 décembre 2011, Google rend hommage à Robert Noyce avec un très beau doodle.


Robert Noyce (12 décembre 1927 - 3 juin 1990) surnommé « le maire de la Silicon Valley », co-fondateur de la société Intel en 1968 avec Gordon Moore et Andrew Grove.
Il devient la figure la plus éminente de toute la Silicon Valley en inventant les circuits intégrés (puces) en silicium en 1958 qui ont révolutionné l'électronique moderne et la Silicon Valley. Jack Kilby de la société Texas Instruments fait la même invention simultanément et indépendamment de son côté la même année.

Source : Wikipédia