Le cyberblog du coyote

 

Extra
Langues :

Editorial

Ce blog a pour objectif principal d'augmenter la culture informatique de mes élèves. Il a aussi pour ambition de refléter l'actualité technologique dans ce domaine.



mercredi 6 décembre 2017

Rétrospective sur une décennie numérique

Le numérique est tellement imbriqué dans notre quotidien qu’il est extrêmement difficile de se souvenir de l’époque où il n’y avait ni smartphone, ni Facebook. Et pourtant, c’était il y a 10 ans ! Avec une adoption aussi rapide et massive, on ne s’étonne pas de voir autant d’entreprises traditionnelles complètement désarmées face à la transformation digitale. Pour bien mesurer le chemin parcouru par les contenus et services numériques dans notre quotidien, Fred Cavazza nous propose une rétrospective de ses 10 dernières années.

Lire l'article de Fred Cavazza

lundi 4 septembre 2017

Eté 1997, l'alliance Steve Jobs-Bill Gates

Août 1997. Bill Gates, le patron de Microsoft, a annoncé son entrée dans le capital d’Apple à raison de 150 millions de dollars. Le but du deal imaginé par Steve Jobs, le petit génie fondateur d’Apple, revenu chez lui après avoir été viré il y a douze ans ? Offrir à Microsoft le système d’accès à Internet. En échange, Bill Gates s’engage à fournir une version de son logiciel Office 98 aux utilisateurs d’Apple. Une alliance jugée contre nature, voire sacrilège, par les fans de la petite pomme.

Lire l'article de 1998 sur "A travers les archives de Paris-Match".

mercredi 25 janvier 2017

Avènement de la société numérique de 1955 à nos jours : les couverture du magazine « Time »

(re)Découvrez l’avènement de l’ère numérique depuis plus d’une demi siècle à travers les couvertures du magazine Time.

Voir la page de l'espace Turing.

dimanche 26 juin 2016

La première boucle

Qui a écrit le premier programme valant la peine d’être écrit, la première boucle ? C’est Augusta Ada King, comtesse de Lovelace. Parfaitement : une femme. Et ceci bien avant qu'Alan Turing ne propose sa machine, dont l’intérêt est surtout théorique.

Lire l'article sur le blog du Dr Goulu : Pourquoi, Comment, Combien

vendredi 1 avril 2016

40 ans d'Apple : les dix Mac emblématiques qui ont fait la légende

Le 1er avril 1976 naissait Apple. L'entreprise californienne et son mythique patron Steve Jobs ont révolutionné l'informatique moderne en mettant en avant le design et l'ergonomie. De l'Apple I en passant par le Macintosh jusqu'à l'iMac qui marqua la renaissance de la marque en 1998, voici les dix modèles les plus marquants.

Lire l'article sur Futura-Sciences

lundi 7 mars 2016

Ray Tomlinson, l'inventeur méconnu de l'e-mail, est mort

En 1971, Ray Tomlinson imaginait un moyen de créer une messagerie électronique entre ordinateurs distants alors qu'Internet n'existait pas encore. L'e-mail était créé. Pour séparer le nom de la personne de celui du serveur, il a cherché un caractère original et peu utilisé sur son clavier, l'arobase : @.

Lire l'article sur Futura-Sciences

mardi 22 décembre 2015

Le premier site Web fête ses 25 ans

C’était à quelques jours de Noël. Le 20 décembre 1990, Tim Berners-Lee mettait en ligne le tout premier site Web créé à partir des standards HTML qu’il a lui-même inventés, depuis un ordinateur NeXT du Conseil européen pour la recherche nucléaire (le Cern). C’était à l’adresse http://info.cern.ch, qui héberge aujourd'hui une archive de la page historique que l’on peut même visiter avec un simulateur de navigateur en ligne de commande (car oui, à l’époque il n’y avait pas encore de possibilités de clics sur les liens hypertextes, ni même d’images).

Le « projet WorldWideWeb », pour créer des liens entre les pages

Très sérieuse, la toute première page Web, dont l'adresse était, très exactement, info.cern.ch/hypertext/WWW/TheProject.html, donnait aux chercheurs des informations sur l’avancée du « projet WorldWideWeb », qui deviendrait le Web tel qu’on le connaît aujourd'hui. Le site fournissait des informations sur les protocoles techniques développés pour écrire du contenu au format HTML, utitiser l'hypertexte et donc créer des liens entre les pages, interroger des serveurs pour récupérer des pages ou envoyer des informations, etc.
La page fournissait également des liens pour se tenir au courant des avancées et permettait par exemple de s’inscrire sur la mailinglist de ce qui allait devenir plus tard le W3C (World Wide Web Consortium) pour établir les standards de façon consensuelle avec la communauté des développeurs. Vingt-cinq ans plus tard, Tim Berners-Lee dirige toujours le W3C, qui compte désormais 407 membres, essentiellement industriels.

Source : Numerama, Guillaume Champeau

samedi 10 octobre 2015

Du code au langage

Le progrès scientifique, la diffusion des sciences, reposent sur le langage. C'est pourquoi les mots ont tellement d'importance en sciences. C'est le cas aussi en informatique, une science naissante qui repose sur un vocabulaire forgé récemment et en évolution permanente. Un historien des sciences, Pierre Mounier-Kuhn revient pour Binaire sur la genèse de mots essentiels comme code ou langage. Serge Abiteboul et Gilles Dowek.

Lire l'article sur Binaire.

mercredi 22 avril 2015

Intel célèbre les 50 ans de la « loi de Moore »

Il y a un demi-siècle, Gordon Moore, cofondateur d'Intel, avançait une théorie sur la constance de l’évolution des semi-conducteurs qui allait donner naissance à la fameuse « loi de Moore ». Cinquante ans plus tard, son auteur avoue ne pas savoir combien de temps encore celle-ci restera pertinente.
Le 19 avril 1965, Gordon Moore, alors directeur du département recherche et développement de Fairchild Semiconductor, publiait un article dans la revue Electronics Magazine consacré au taux de croissance des circuits intégrés. En se basant sur ses observations, il prédit que le nombre de transistors par circuit de même taille allait doubler, à prix constants, tous les ans et ce pour les dix années à venir. « J'essayais juste de démontrer qu'il s'agissait de la direction générale dans laquelle allaient les semi-conducteurs, et que cela donnerait un avantage considérable en termes de coûts, ce qui n'était pas tout à fait vrai à l'époque [...] C'était là mon véritable objectif : faire comprendre que nous avions devant nous une technologie qui rendrait l'électronique bien plus économique », explique Gordon Moore dans un entretien réalisé à l’occasion de cet anniversaire et disponible sur Youtube. « Je pensais seulement qu'il ne s'agissait que d'une tendance générale. Mais elle s'est avérée bien plus précise que ce que j'avais pu anticiper », ajoute l’un des trois cofondateurs d’Intel.
En effet, une décennie plus tard, ce qui n’était alors qu’une hypothèse empirique se confirma. Gordon Moore révisa son postulat et annonça que le nombre de transistors dans un microprocesseur doublait tous les deux ans. On commenca alors à parler de la « loi de Moore » qui n’est pas une loi au sens strict du terme, vérifiable d’un point de vue scientifique, mais plutôt une théorie issue d’une tendance. Intel n’en fait d’ailleurs pas mystère : « Plus qu’une véritable loi de la nature, la théorie de Moore devient un fil conducteur et une source d’inspiration pour l’ensemble de l’industrie des semi-conducteurs qui se fait un devoir d’aller aussi vite que le rythme prédit ». Par la suite, Intel a simplifié le concept et posé que la puissance des processeurs double tous les 18 mois.
Par extrapolation, l’industrie high-tech a adapté ce principe de doublement pour en faire un mètre étalon qu’elle n’applique plus seulement aux semi-conducteurs mais de manière générale aux performances de ses produits. D'un point de vue marketing, cette idée d’une amélioration constante des capacités des appareils électroniques s’est peu à peu imposée dans l’esprit des consommateurs et sert avantageusement le discours portant sur l'obsolescence programmée.

Cinquante ans plus tard, où en est la loi de Moore ?

En 1971, le premier microprocesseur conçu par Intel, le fameux 4004, comportait 2.300 transistors pour une fréquence de 740 kHz. Il était capable d’effectuer 90.000 opérations à la seconde. À l’époque, précise Intel, un transistor avait la même taille que la gomme d’un crayon. Aujourd’hui, la dernière génération de processeurs Core i5 gravée en 14 nm intègre 1,3 milliard de transistors et est 3.500 fois plus performante. Pour pouvoir observer un transistor à l’œil nu, le fondeur explique qu’il faudrait que la taille du processeur soit équivalente à celle d’une maison.
Dans son dossier consacré à l’anniversaire de la loi de Moore, le géant nord-américain s’amuse à appliquer ses principes à d’autres domaines : « Si l’efficacité énergétique du carburant avait augmenté au même rythme que la loi de Moore, une personne pourrait conduire sa vie entière avec un seul réservoir. Si le prix de l’immobilier avait chuté au même taux que le coût des transistors, une personne pourrait s’acheter une maison pour le prix d’un bonbon ».
Reste que la miniaturisation extrême des composants électroniques n’est pas loin d’atteindre les limites physiques. Chercheurs et ingénieurs explorent d’autres solutions techniques susceptibles de maintenir cette hausse constante des performances à coût égal : architecture en trois dimensions, nanotubes de carbone, graphène, photonique, l’informatique quantique… La loi de Moore est aujourd’hui toujours valide mais pour combien de temps encore ? Son auteur lui-même avoue ne pas le savoir. « C'est une technologie bien plus ouverte que ce que j'aurais pu imaginer en 1965 ou en 1975 et il n'est pas facile de savoir quand sa progression s’achèvera. »

Source : Futura-Sciences (Marc Zaffagni)

vendredi 18 avril 2014

UNIVAC

L'UNIVAC I (UNIVersal Automatic Computer I) est le premier ordinateur commercial réalisé aux États-Unis. Il a été créé par J. Presper Eckert et John Mauchly, déjà à l'origine de l'ENIAC. Avant que d'autres machines ne sortent dans la même série, l'UNIVAC I était tout simplement appelé UNIVAC.
Le premier ordinateur est livré à l'United States Census Bureau le 30 mars 1951 et mis en service le 14 juin. Le cinquième (construit pour l'Atomic Energy Commission) a été utilisé par CBS pour prédire l'issue de l'élection présidentielle de 1952 (alors que les sondages réalisés "humainement" donnaient Eisenhower perdant). À partir d'un échantillon d'un pour cent des votants il prédit qu'Eisenhower aurait été élu président, chose que personne n'aurait pu croire, mais UNIVAC avait vu juste.
L'UNIVAC a été un symbole de l'informatique, apparaissant entre autres dans Objectif Lune de Hergé et Un cerveau d'un milliard de dollars de Ken Russel.

Sources : Wikipedia, histoire de l'informatique