Le cyberblog du coyote

 

Extra
Langues :

Editorial

Ce blog a pour objectif principal d'augmenter la culture informatique de mes élèves. Il a aussi pour ambition de refléter l'actualité technologique dans ce domaine.

mardi 11 octobre 2011

Google dévoile son langage Dart, concurrent de Javascript

Nous avions déjà évoqué Dart, le nouveau langage que Google lance dans l'espoir de remplacer JavaScript dans les navigateurs. Google vient de dévoiler quelques éléments du langage et donne accès à une série d'outils open-source pour que les développeurs puissent s'y intéresser sur le site www.dartlang.org. La syntaxe ressemble fort à celle de JavaScript, si ce n'est qu'elle est davantage orientée objet (plus proche de Java, donc). Le langage se veut structuré mais flexible, et cible de hautes performances.

dimanche 28 août 2011

Jurackerfest 2011


27 août 2011 : bienvenue chez les Geeks !

D'autres photos du concours sont disponibles sur le site de la BIMO.

vendredi 11 mars 2011

Le Prix Turing 2010 au vainqueur du Jeopardy

Leslie Valiant, dont les travaux ont notamment servi à mettre au point Watson, l’ordinateur d’IBM qui a gagné contre des humains au jeu télévisé Jeopardy, vient d’être récompensé par l’ACM Turing Award 2010, considéré comme la plus haute distinction pour les informaticiens.
Comme nous l’assurait Bruno Bonnell, la victoire de l’ordinateur Watson au jeu télévisé Jeopardy, équivalent américain de notre Questions pour un champion, représente un exploit important dans l’histoire de l’informatique, du même ordre que celle de Deep Blue contre Gary Kasparov, champion du monde d’échecs, en 1997.
Derrière cette puissante machine se trouvent des logiciels capables de comprendre une question exprimée en langage courant et d’en extraire les mots les plus significatifs. Pour parvenir à cette avancée, les ingénieurs d’IBM se sont appuyés sur les travaux théoriques du Britannique Leslie Valiant. Depuis plus de trente ans, ce mathématicien, qui professe aujourd’hui à l’université Harvard, aux États-Unis, a plusieurs fois été récompensé pour ses travaux en mathématiques et en informatique, qui ont eu des implications en matière d’intelligence artificielle. On lui doit notamment les algorithmes holographiques (un concept de mathématique), la démonstration d’un théorème important de la théorie de la complexité, depuis appelé théorème de Valiant–Vazirani, et l’introduction de la classe #P, qui permet de classer les problèmes selon la complexité à les résoudre.

Apprendre à un ordinateur… à apprendre

Les travaux de Leslie Valiant ont notamment fait progresser les outils logiciels pour permettre à un ordinateur d’engranger des connaissances, ce qui a conduit à la victoire de Watson. Leslie Valiant vient de recevoir une récompense supplémentaire et non des moindres : celle délivrée par l’ACM (Association for Computering Machinery), considérée comme l’équivalent d’un prix Nobel ou de la médaille Fields (en mathématiques).
Baptisée Turing Award, cette récompense (assortie de 250.000 dollars) rend ainsi hommage à Alan Turing, mathématicien britannique que l’on peut qualifier de génial et qui a posé les bases de la programmation et de l’algorithmique avec des « calculateurs universels programmables », que l’on appellera plus tard ordinateurs.

Source : Futura-Sciences

lundi 28 février 2011

Quand les boîtes de GMail se vident

Plusieurs centaines de milliers de boîtes GMail se sont retrouvées vidées dimanche, et certaines le sont encore aujourd'hui. Les équipes de Google n'ont pas encore expliqué la source du problème, qu'elles résolvent progressivement et qui montre les limites de l'informatique en cloud.
C'est la révolution informatique que les industriels tentent d'imposer aux consommateurs depuis plusieurs années, et contre laquelle s'opposent des initiatives en gestation comme la FreedomBox. Avec le cloud, ou « informatique en nuage », les entreprises comme Google, Microsoft, Apple ou Yahoo veulent rendre les utilisateurs dépendants des services en ligne, pour transformer leurs ordinateurs en terminaux d'accès – sous un motif écologique à la mode mais contestable. Les données ne sont plus stockées localement mais à distance, ce qui a le double avantage pour l'entreprise d'enfermer l'utilisateur dans le service en ligne qu'il a choisi (particulièrement lorsqu'il est impossible ou difficile d'en changer sans perdre ses fichiers), et de lui faire payer un loyer pour l'hébergement de ses données. Loyer qui peut être payé soit par la communication de données personnelles exploitées commercialement (revente de fichiers, publicité ciblée...), soit par abonnements payants.

Le courrier dans les nuages

Google fait figure de leader dans ce domaine, avec ses très nombreux services en ligne comme YouTube, Google Docs, Google Maps, ou encore GMail. L'utilisateur n'a plus besoin d'installer de logiciels et de les mettre à jour, il doit juste disposer d'un navigateur Internet, ce qui est l'objectif de Chrome OS. Les données seront sauvegardées à distance et pourront être retrouvées depuis n'importe quel appareil dans le monde. C'est la promesse d'une informatique simplifiée et la fin des données perdues après le crash d'un disque dur ou la perte d'une clé USB. Sauf lorsque le service plante et que tout devient inaccessible. Ce fut le cas dimanche de GMail. Selon le propre aveu des équipes de Google, un peu moins de 0,29 % des boîtes des utilisateurs de GMail (soit tout de même plusieurs centaines de milliers d'internautes) ont été vidées de leur contenu. Cinq heures après la première alerte publiée, le problème touchait encore 0,08 % des utilisateurs. À priori aucun message n'est perdu, mais les équipes de la firme de Mountain View doivent réparer des bases données endommagées pour récupérer les données.
Ce genre de problème est le cauchemar de tout éditeur de services en cloud, et met en exergue le risque de confier toutes ses données à un tiers distant. Le jour où le service tombe en panne, ferme ses portes ou désactive le compte de l'utilisateur, toutes les données sont perdues.

Source : Futura-Sciences

lundi 6 décembre 2010

Supercalculateur : le CEA passe le pétaflop

Un supercalculateur, baptisé Tera 100 et installé au Commissariat à l'énergie atomique (CEA), vient de dépasser la barre du pétaflop, autrement dit plus d'un million de milliards d'opérations par seconde. C'est le premier en Europe - il est installé dans le centre de Bruyères le Châtel (Essonne) - à franchir cette barre. A l'échelle mondiale, il devrait faire partie du groupe de tête des supercalculateurs, dont le classement est mis à jour tous les mois ici sur le Top 500.
Tera 100 a même franchi la barre avec une petite marge, sa performance est de 1,05 million de milliards d’opérations par seconde (1,05 pétaflops). L'opération s'effectue sur un test standardisé, dit du Linpack, afin de comparer entre elles des machines d'architectures différentes.
Tera 100 est un cluster de 4 370 serveurs conçus par Bull, équipé de 17.480 processeurs Intel® Xeon® 7500. Sa mémoire centrale intègre plus de 140 000 barrettes mémoires pour atteindre une capacité de 300 téraoctets. Il est doté en outre d’une capacité de disques de 20 pétaoctets (Po) accessibles à un débit de 500 Go/s, un record mondial en la matière.

Source : Libération (9/11/2010)

mardi 26 octobre 2010

Le BIOS prend sa retraite en 2011

Inventé il y a plus de trente ans par des ingénieurs d'IBM, le célèbre BIOS ne serait plus totalement compatible avec les ordinateurs modernes. En effet, d'après le patron de l'UEFI Forum (Unified Extensible Firmware Interface), Mark Doran, des astuces auraient été trouvées jusqu'à présent pour permettre à l'architecture BIOS de reconnaitre les claviers USB dans les anciens ordinateurs équipés de port PS/2, mais aussi pour forcer à reconnaître une clé USB en tant que lecteur disquette ou disque dur.
Cependant, avec l'apparition de nouveaux périphériques tels que les tablettes numériques, le BIOS a atteint ses limites et se doit d'évoluer pour correspondre aux ordinateurs modernes. Ainsi, l'UEFI devrait remplacer progressivement le BIOS dans les cartes-mères de la majorité des PC d'ici l'année 2011. Il semblerait alors que son architecture soit plus souple. Selon Mark Doran, l'UEFI ne dit pas qu'un clavier doit être présent sur un port précis, mais que quelque part sur l'ordinateur, un périphérique produisant les informations d'un clavier est présent. De plus, il permettrait également de gagner un temps précieux au démarrage, en ramenant la durée du boot à seulement quelques secondes.

Source : Sur-la-Toile

lundi 7 juin 2010

Les supercalculateurs, un monde qui appartient à Linux

Selon le site Top500, qui recense les supercalculateurs du monde entier, à cette date, plus de 91% de ceux-ci sont sous un OS libre, les États-Unis en tête avec 282 machines, soit environ 56%, quand le Royaume-Uni en compte 38 et la France 27 ; en tête de liste, le « Jaguar » installé au laboratoire national d'Oak Ridge aux États-Unis.
Ses performances ont de quoi à faire tourner la tête, il a atteint les 1,759 PFlops/sec fin 2009, il est équipé de pas moins de 224162 processeurs six coeurs AMD. La France pour sa part arrive en 18e place mondiale avec un supercalculateur du nom de « Jade », développant 237,8 Teraflops pour les 267 prévus, installé fin 2009, il est équipé de 23040 processeurs Intel EM64T Xeon E54xx cadencés à 3Ghz, il est installé au CINES à Montpellier.
Suite à ce classement, BBC News propose un tableau graphique et ludique pour mieux voir qui possède quoi.

Source : Sur-la-Toile

jeudi 3 juin 2010

Mise sous tension de Tera 100, supercalculateur le plus puissant d’Europe

La Direction des Applications Militaires du CEA et Bull annoncent la mise sous tension du supercalculateur Tera 100. D’une puissance théorique de 1,25 Petaflops, Tera 100 se classe parmi les 3 premiers supercalculateurs mondiaux. Tera 100 est issu d'un vaste programme associant étroitement Bull et le CEA.
Issu d’un programme de collaboration initié en 2008 entre Bull et le CEA, Tera 100 est le premier supercalculateur pétaflopique (pétaflopique : qui est capable de réaliser un million de milliards d'opérations par seconde) conçu et développé en Europe. Sa puissance théorique de 1,25 Petaflops le classe parmi les trois supercalculateurs les plus puissants au Monde. Tera 100 est destiné au Programme Simulation du CEA, destiné à garantir la fiabilité des armes de la dissuasion nucléaire.
Tera 100 a été mis sous tension le 26 mai 2010, quelques semaines seulement après le début de son installation en mars 2010. Tera 100 est constitué de 4300 serveurs – de type bullx série S, annoncés par Bull en Avril 2010. Il intègre 140 000 cœurs Intel® Xeon® série 7500, 300 To de mémoire centrale et disposera d’une capacité totale de plus de 20 Po de stockage. En outre son débit de 500Go/sec constitue un record du monde pour ce type de système.
Tera 100 offre une capacité de calcul exceptionnelle. Pour comparaison, la machine peut réaliser plus d'opérations en une seconde que ce que la population mondiale ferait en 48 heures, à raison d'une opération par seconde par personne. C’est aussi une capacité de transfert d'information équivalente à 1 million de personnes regardant en même temps des films HD ; et enfin une capacité de stockage équivalente à plus de 25 milliards de livres.
"La mise sous tension de Tera 100 constitue un important succès industriel. Elle souligne le savoir faire du CEA et de Bull dans le développement de technologies ultra performantes, au meilleur niveau mondial ; elle valide pleinement le partenariat industrie et recherche que le CEA et Bull ont su développer, partenariat dont les bénéfices iront sans délais à toute la communauté scientifique et industrielle européenne", déclare Jean Gonnord, chef du projet simulation numérique et informatique du CEA.
"Nous sommes extrêmement fiers de cette réussite dans le domaine des systèmes pétaflopiques. Fondamentales dès aujourd’hui pour des applications comme celles du CEA, ces technologies le sont également pour la conception des centrales numériques du futur et des grands cloud computing. C’est pourquoi la maîtrise des technologies pétaflopiques est un atout majeur pour la France et pour l’Europe" souligne Philippe Miltin, Vice-Président de la Division Produits et Systèmes de Bull.
"Constituant aujourd’hui le plus grand système jamais conçu autour de processeurs Intel® Xeon®, Tera 100 montre la pertinence de l’utilisation de processeurs Intel pour le monde du calcul haute performance, tant en termes de coûts, de consommation que de puissance de calcul. Nous sommes très heureux de participer à ce grand projet, aux côté du CEA et de Bull", déclare Kirk Skaugen, Vice-Président et Directeur Général du Groupe Data Center, Intel.
Par rapport à Tera 10, mis en production en 2005, Tera 100 est 20 fois plus puissant, occupe le même emplacement au sol et son rendement énergétique est multiplié par 7 . Quelques mois après la désignation aux Etats-Unis de bullx comme meilleur super calculateur au monde, Tera 100 confirme ainsi la maîtrise technologique acquise par Bull et le savoir-faire du CEA dans les infrastructures complexes pour le Calcul Haute Performance. Le succès de Tera 100 souligne également la position de premier plan acquise dans le Calcul Haute Performance par les architectures à base de composants standards, en particulier celles associant processeurs Intel® Xeon®, système Linux® et logiciels Open Source.

Source : Techno-Science.net

vendredi 7 mai 2010

La Chine veut les noms des internautes

La Chine considère sérieusement l'option de demander le nom réel de ses 400 millions d'internautes. Il y a une semaine déjà, la Chine a annoncé un renforcement d'une loi protégeant les secrets de l'État. Cette loi exige de la part des opérateurs Internet et de téléphonie mobile de s'enquérir à propos de leurs clients et de coopérer avec la police lorsqu'elle demande des informations. Cela fait longtemps que la Chine discute de l'idée d'enregistrer tous les utilisateurs en ligne et cela semble se concrétiser à présent. Les internautes chinois ne peuvent déjà plus réaliser de commentaires anonymes sur les portails d'information et ils peuvent toujours utiliser des pseudonymes qui cachent leur identité réelle. Dans ce pays où les médias sont très contrôlés, les Chinois se tournent vers Internet pour débattre d'idées et critiquer éventuellement le gouvernement.
Les associations concernées par les droits de l'Homme confirment que la Chine est actuellement en train de resserrer la vis sur les médias et Internet et regarde de près les organisations non gouvernementales, activistes et autres avocats qui sont considérés comme des menaces potentielles pour la stabilité sociale du pays (selon le gouvernement chinois).

Source : Sur-la-Toile

jeudi 29 avril 2010

La dernière année de la disquette...

Sony, 30 ans après l'avoir inventée, vient de sonner la fin de la disquette en annonçant une décision historique : à la fin du mois de mars 2011, ses usines cesseront de fabriquer des disquettes 3,5 pouces.
Devenue obsolète après l'avènement du disque optique (CD et DVD R et RW), puis de la clé USB et du stockage en réseau, la disquette de 3,5 pouces continuait toutefois à se vendre, même si les fabricants ont depuis plusieurs années supprimé le lecteur de disquette de leurs ordinateurs. Selon la presse japonaise, qui a relayé l'annonce de Sony, environ 12 millions d'unités de disquettes ont été écoulées par la marque en 2009 au Japon, contre près de 47 millions il y a une dizaine d'années.
Hors Japon, les ventes de disquettes Sony ont déjà cessé dans la plupart des pays, à l'exception de quelques marchés, comme l'Inde, qui sont encore demandeur.

Un parfum évanescent des eighties

Les premières disquettes furent lancées en 1967 par IBM, en format 8 pouces (rappelons qu'un pouce vaut 2,54 centimètres). Le successeur, la disquette de 5,25, a connu la célébrité avec l'IBM PC, premier micro-ordinateur d'IBM sorti en 1981. Cette même année, Sony a proposé le format 3,5 pouces et introduit une amélioration : le disque souple était contenu dans un boîtier rigide. Apple l'adoptera sur le Lisa 2 et sur le Macintosh.
Victime de sa fragilité et de sa faible capacité de stockage (généralement 1,4 Mo, une valeur quasiment figée depuis 1987 malgré plusieurs tentatives louables, comme le Zip ou la Nano Cubic), la disquette 3,5 pouces a été abandonnée au début des années 2000 au profit du CD permettant de stocker plusieurs centaines de mégaoctets. Ce disque optique a lui-même était délaissé pour la clé USB qui permet d'emporter avec soi plusieurs gigaoctets de données.

Source : Futura-Sciences