Le cyberblog du coyote

 

Extra
Langues :

Editorial

Ce blog a pour objectif principal d'augmenter la culture informatique de mes élèves. Il a aussi pour ambition de refléter l'actualité technologique dans ce domaine.



lundi 26 novembre 2012

Witch, l’un des plus vieux ordinateurs du monde a redémarré

Au Royaume-Uni, le musée national de l’informatique de Bletchley Park a remis en service l’un des plus vieux ordinateurs du monde créé en 1949. Démantelé voilà des décennies, cet engin électromécanique, qui utilisait de curieuses lampes à gaz, a été restauré durant trois ans. Il fonctionne. Mais comptez une petite dizaine de secondes pour multiplier deux nombres...

C’est un ancêtre de l’informatique qui s’est réveillé après un sommeil de près de quarante ans. Il s’appelle le Witch, il pèse 2,5 tonnes, mesure 2 mètres de haut pour 6 mètres de largeur, consomme 1,5 kW d’électricité, et a été construit en 1949, ce qui en fait l’un des premiers ordinateurs du monde. Exposé au musée national de l’informatique de Bletchley Park (Royaume-Uni), ce mastodonte a été remis en marche la semaine dernière après trois ans de restauration.
À l’origine, la machine s’appelait le Dekatron d’Harwell. Elle a démarré pour la première fois en 1951 et faisait partie de la douzaine d’ordinateurs de la planète. Entre 1952 et 1957, le Dekatron était exploité pour la recherche fondamentale sur le nucléaire au centre de recherche atomique d’Harwell. Il a ensuite été cédé à l’université de Wolverhampton où il a troqué son nom pour Wolverhampton Instrument for Teaching Computing from Harwell (Witch). Il servait alors à enseigner l’informatique aux étudiants. Entre 1973 et 1997, il a été entreposé dans un musée de Birmingham, pour enfin tomber dans l’oubli, démantelé dans un entrepôt. Le Witch a été redécouvert en 2009. Depuis, il a été restauré pour retrouver son panache originel.


Dans cette séquence vidéo, le Dekatron d’Harwell (alias le Witch) redémarre 39 ans après son arrêt. On peut voir clignoter les tubes à gaz qui mémorisent temporairement les données. La machine comportait également 480 relais et 7.073 circuits électromécaniques. © The National Museum of Computing

Le Dekatron aussi rapide que les humains, mais plus endurant

Pour fonctionner, le Dekatron (alias le Witch) ingurgitait les données dans sa mémoire vive à partir de bandes perforées. Cette mémoire employait des relais pour effectuer des calculs. À la sortie, les résultats étaient imprimés sur une machine à écrire électromécanique ou mémorisés en perforant des bandes.
Conçu avant l’arrivée des premiers transistors, le Witch utilise 828 tubes à gaz Dekatron pour stocker les données et charger les programmes. Aussi appelé tube compteur décimal, ce type de tube électronique était alors utilisé comme compteur pour les machines à calculer, et en particulier dans le nucléaire, comme compteur de particules. Avec ces Dekatron, les traitements sont réalisés en décimal, et non pas en binaire comme les ordinateurs purement électroniques qui ont suivi.
Witch n'était pas véloce : il avait besoin de 5 à 10 secondes pour multiplier deux nombres. Très lent donc, mais endurant. Il avait été conçu pour remédier aux carences de l’être humain, qui n’est pas capable de réaliser des calculs 24 heures durant. Autonome et fiable, il pouvait ainsi rester des jours entiers en fonctionnement sans aucune intervention. Jack Howlett (1912-1999), un des pionniers de l’informatique qui a utilisé le Witch dans les années 1950, racontait qu’il se rappelait de vacances de fin d’année durant lesquelles la machine avait avalé et traité des kilomètres de données en toute autonomie durant dix jours et ce sans aucun souci.

Source : Futura-Sciences

vendredi 23 novembre 2012

100'000 Stars : naviguer dans la Voie lactée depuis un ordinateur

Un site Web, proposé par Google en partenariat avec l’Esa et la Nasa, offre de naviguer dans la banlieue du Système solaire et de visualiser notre galaxie, la Voie lactée. Un joli voyage…
Après la Terre et ses océans, Google propose une escapade dans les étoiles. L'ambitieux projet 100,000 Stars propose en effet de naviguer au sein de la Voie lactée et de ses milliards d'étoiles. Le projet a été monté en partenariat avec la Nasa et l’Esa. Cette plateforme Web en 3D fonctionne sur tous les navigateurs compatibles avec les technologies WebGL, CSS 3D et Web Audio.
Sur le site Web, l’interface permet de visualiser les étoiles voisines de notre Soleil et fournit des informations sur chacune d’elles. Il suffit de cliquer sur leurs noms, mais il faut réviser son anglais car la version francophone se fait attendre. Un peu à la manière de Google Maps, il est possible de zoomer ou dézoomer et des mouvements de la souris simulent des déplacements dans les trois dimensions.


Un voyage parmi les étoiles de la Voie lactée, tel qu’on peut le faire avec l’application elle-même, en pilotant à la souris. © Google, YouTube

Promenade en banlieue du Soleil

Au faible grossissement, par exemple, on s’offre un panorama de la Galaxie entière, que l’on peut faire pivoter dans tous les sens. En grossissant, quel que soit le point de départ, on zoome sur la banlieue du Soleil puis sur notre propre système planétaire. En haut à gauche, un bouton lance une balade toute prête et un autre transforme l’image de chaque étoile en un carré coloré dont la teinte indique la température de surface de l’astre.
De quoi admirer la forme de notre galaxie et visiter notre banlieue, où se pressent de nombreuses étoiles que l’on s’amusera ensuite à repérer sur la voûte céleste, comme Sirius ou Altaïr.

lundi 19 novembre 2012

ownCloud

Comme son nom l'indique, ownCloud permet de se créer son propre nuage sur son serveur pour sauvegarder ses fichiers et pouvoir les consulter, les sauver et les récupérer via son navigateur préféré. Trés simple d'installation et d'utilisation. Gratuit.

dimanche 18 novembre 2012

Supercalculateurs : les États-Unis N°1 avec le Cray XK7 Titan

Le deuxième classement annuel Top 500 des supercalculateurs les plus puissants du moment voit les États-Unis maintenir leur domination avec le Cray XK7 Titan et ses 17,59 pétaflops de puissance de calcul. Basé au laboratoire national d’Oak Ridge, Titan servira notamment aux recherches sur les propriétés magnétiques des matériaux, la combustion du carburant, le nucléaire et le climat.
L'année 2012 aura vu la domination totale des États-Unis en matière de supercalculateurs. Après avoir repris la première place du classement Top 500 en juin dernier avec le système BlueGene/Q Sequoia d’IBM, ils la conservent avec un autre supercalculateur, le XK7 Titan de Cray. Selon le dernier classement Top 500 de novembre, Titan est le nouveau numéro un avec une puissance de calcul de 17,59 pétaflops (c'est-à-dire 17,59 millions de milliards de flops, floating-point operations per second, opérations en virgule flottante par seconde) mesurée avec le Benchmark Linpack. Ce monstre de puissance embarque 299.008 processeurs AMD Opteron dotés de 16 cœurs chacun combinés avec 18.688 processeurs graphiques NVidia Tesla K20. Cette architecture hybride permet de surmonter les limites inhérentes à la puissance et l’espace physique nécessaire pour déployer une telle installation.
La consommation d’énergie est l’autre facteur qui conditionne l’évolution des supercalculateurs. « Ajouter des centaines de milliers de cœurs de calcul a ses limites, pour une raison principale, qui est que les processeurs sont rapides mais gourmands en énergie. Pour que les supercalculateurs puissent évoluer du pétaoctet vers la classe exascale [avec une une puissance d'au moins un exaflops, NDLR], ils doivent devenir plus économes en énergie », explique le laboratoire national d’Oak Ridge (Tennessee) où est installé Titan. Et d’ajouter : « Parce qu’ils gèrent des centaines de calculs simultanément, les processeurs graphiques (Graphic Processing Unit ou GPU) peuvent en traiter beaucoup plus que les processeurs centraux sur un temps donné ». Résultat, Titan est en deuxième position au classement du meilleur rapport puissance/consommation avec 2.450 mégaflops/watt.
Comme c’est généralement le cas avec les supercalculateurs, le laboratoire d’Oak Ridge compte se servir de Titan pour mener des simulations de grande ampleur dans plusieurs domaines scientifiques comme les propriétés magnétiques des matériaux afin de faire avancer les travaux sur les futurs moteurs électriques, la combustion du carburant pour améliorer le rendement des moteurs à explosion, le nucléaire avec pour objectif de prolonger la durée de vie des réacteurs, ou encore le climat.
Si l’on se penche sur le reste du classement Top 500, on constate que les États-Unis placent 5 supercalculateurs dans les 10 premières places (N°1, 2, 4, 7 et 10). Derrière, c’est le Japon qui fait meilleure figure avec le K conçu par Fujitsu. L’Allemagne place deux supercalculateurs dans le top 10 aux 5e et 6e rangs avec les Juqueen BlueGeneQ et le SuperMUC d’IBM. Ce dernier est pour l’instant le supercalculateur le plus puissant d’Europe et surtout le plus écologiste grâce à un système de refroidissement par eau qui permet d’économiser 40 % d’énergie. La France quant à elle a quitté le top 10, rétrogradée à la 11e place avec le Curie Thin nodes installé au CEA de Bruyères-le-Châtel.
Dans sa synthèse de présentation du classement, l’organisation Top 500 souligne que 23 supercalculateurs ont atteint ou dépassé le pétaflop, 4 ans et demi après le premier exemplaire à avoir franchi ce seuil. Les systèmes équipés de processeurs multicœur sont majoritaires avec 84,6 % des 500 supercalculateurs recensés équipés de puces à six cœurs ou plus. Intel équipe 76 % des systèmes suivi d’AMD (12 %) et d’IBM (10,6 %).

Source : Futura-Sciences

mardi 13 novembre 2012

Big Data

L'apparition du Big Data, autrement dit la gestion de données très volumineuses, bouleversent la manière de les traiter, et donc les métiers y afférant.
Les données sont le terreau de notre compréhension du monde. C'est sur elles que nous bâtissons des métriques pour évaluer rationnellement nos décisions, et donc les améliorer. L'apparition de données très volumineuses (Big Data) sera l'un des challenges des prochaines années, mais elle entraine aussi des bouleversements sur la manière de traiter ces données, et donc sur les métiers y afférant.

BOULEVERSEMENTS INFORMATIQUES

La chute vertigineuse du prix des systèmes de stockage de données et des plateformes de calcul ouvre des horizons encore peu explorés : ce qui coûtait des sommes folles il y a encore dix ans, est accessible pour quelques milliers d'euros aujourd'hui ; nous pouvons collecter et traiter des données gigantesques sur de nombreuses machines à faible coût.
Car c'est bien là l'enjeu majeur de cette nouvelle révolution numérique : l'exploitation de ces données volumineuses s'accompagne d'un coût de développement logiciel (et donc humain) bien supérieur. En effet, les logiciels scientifiques ne sont pas encore adaptés à ces nouveaux environnements de calcul ; il faut alors soi-même re-développer la logique d'exploitation du matériel informatique.
Par ailleurs, les outils de reporting doivent également être repensés. Pour mieux comprendre les données et évaluer les résultats de nos calculs, il devient nécessaire de développer de nouveaux outils de visualisation des résultats, par exemple au travers d'applications web dédiées au reporting.

BOULEVERSEMENTS MATHEMATIQUES

La compréhension scientifique d'un phénomène consiste souvent à déterminer l'effet quantitatif de différents facteurs sur celui-ci. C'est par exemple le cas en marketing, lorsque nous cherchons à comprendre l'effet du salaire sur l'attrait du consommateur pour un produit. Dans ce contexte, les modélisations proposées sont souvent simples (modèles linéaires) afin de permettre d'isoler et de quantifier l'effet d'une variable.
La complexité et la richesse des "Big Data" nous incitent cependant à abandonner le fantasme de comprendre le modèle mathématique sous-jacent. Celui-ci devient alors une boite noire, plus performante dans la prévision, mais qui ne permet plus d'isoler l'effet de chacune des variables. Ces nouveaux modèles mathématiques, plus complexes, font appel à des connaissances avancées.

CONNAISSANCES PLURI-DISCIPLINAIRES

Les nouveaux enjeux de l'analyse des données demandent donc à la fois des connaissances étendues en mathématiques, en informatique, et de l'expertise métier (connaissance des pratiques du secteur, etc), car avant de trouver les bonnes réponses, il faut se poser les bonnes questions. Ces nouveaux besoins pluri-disciplinaires enrichissent le travail de l'analyste mais restreignent sensiblement la quantité de personnes pouvant adresser ces questions.

Source : Le Monde

jeudi 8 novembre 2012

My Watermark

My watermark est un petit programme simple, portable, qui permet d'ajouter un filigrane à des images sélectionnées, ou à tout un dossier. Vous pouvez personnaliser la taille, la position du filigrane, choisir une police personnalisée et sa couleur. Les images ainsi traitées peuvent être enregistrées avec un "_wm" ajouté au nom de fichier ou copié dans un sous-dossier pour ne pas écraser les originaux...

OS: Windows XP/Vista/7/8 (32/64-bit)
Taille: 89 Ko
Langue: Anglais
Prix: Gratuit

samedi 3 novembre 2012

Explorer un Data Center de Google

jeudi 1 novembre 2012

La pénible mort des données

Alors comme ça vous voulez enlever vos photos de biture de Facebook ou donner votre vieil ordi à votre maman sans les traces de vos visites à des sites olé-olé ? Pas simple de détruire des informations alors que le rôle des mémoires informatiques est précisément de les conserver.

Lire la suite sur le blog du Dr Goulu Pourquoi, comment, combien.