Le cyberblog du coyote

 

Extra

Editorial

Ce blog a pour objectif principal d'augmenter la culture informatique de mes élèves. Il a aussi pour ambition de refléter l'actualité technologique dans ce domaine.

mardi 11 octobre 2011

Google dévoile son langage Dart, concurrent de Javascript

Nous avions déjà évoqué Dart, le nouveau langage que Google lance dans l'espoir de remplacer JavaScript dans les navigateurs. Google vient de dévoiler quelques éléments du langage et donne accès à une série d'outils open-source pour que les développeurs puissent s'y intéresser sur le site www.dartlang.org. La syntaxe ressemble fort à celle de JavaScript, si ce n'est qu'elle est davantage orientée objet (plus proche de Java, donc). Le langage se veut structuré mais flexible, et cible de hautes performances.

dimanche 28 août 2011

Jurackerfest 2011


27 août 2011 : bienvenue chez les Geeks !

D'autres photos du concours sont disponibles sur le site de la BIMO.

vendredi 11 mars 2011

Le Prix Turing 2010 au vainqueur du Jeopardy

Leslie Valiant, dont les travaux ont notamment servi à mettre au point Watson, l’ordinateur d’IBM qui a gagné contre des humains au jeu télévisé Jeopardy, vient d’être récompensé par l’ACM Turing Award 2010, considéré comme la plus haute distinction pour les informaticiens.
Comme nous l’assurait Bruno Bonnell, la victoire de l’ordinateur Watson au jeu télévisé Jeopardy, équivalent américain de notre Questions pour un champion, représente un exploit important dans l’histoire de l’informatique, du même ordre que celle de Deep Blue contre Gary Kasparov, champion du monde d’échecs, en 1997.
Derrière cette puissante machine se trouvent des logiciels capables de comprendre une question exprimée en langage courant et d’en extraire les mots les plus significatifs. Pour parvenir à cette avancée, les ingénieurs d’IBM se sont appuyés sur les travaux théoriques du Britannique Leslie Valiant. Depuis plus de trente ans, ce mathématicien, qui professe aujourd’hui à l’université Harvard, aux États-Unis, a plusieurs fois été récompensé pour ses travaux en mathématiques et en informatique, qui ont eu des implications en matière d’intelligence artificielle. On lui doit notamment les algorithmes holographiques (un concept de mathématique), la démonstration d’un théorème important de la théorie de la complexité, depuis appelé théorème de Valiant–Vazirani, et l’introduction de la classe #P, qui permet de classer les problèmes selon la complexité à les résoudre.

Apprendre à un ordinateur… à apprendre

Les travaux de Leslie Valiant ont notamment fait progresser les outils logiciels pour permettre à un ordinateur d’engranger des connaissances, ce qui a conduit à la victoire de Watson. Leslie Valiant vient de recevoir une récompense supplémentaire et non des moindres : celle délivrée par l’ACM (Association for Computering Machinery), considérée comme l’équivalent d’un prix Nobel ou de la médaille Fields (en mathématiques).
Baptisée Turing Award, cette récompense (assortie de 250.000 dollars) rend ainsi hommage à Alan Turing, mathématicien britannique que l’on peut qualifier de génial et qui a posé les bases de la programmation et de l’algorithmique avec des « calculateurs universels programmables », que l’on appellera plus tard ordinateurs.

Source : Futura-Sciences

lundi 28 février 2011

Quand les boîtes de GMail se vident

Plusieurs centaines de milliers de boîtes GMail se sont retrouvées vidées dimanche, et certaines le sont encore aujourd'hui. Les équipes de Google n'ont pas encore expliqué la source du problème, qu'elles résolvent progressivement et qui montre les limites de l'informatique en cloud.
C'est la révolution informatique que les industriels tentent d'imposer aux consommateurs depuis plusieurs années, et contre laquelle s'opposent des initiatives en gestation comme la FreedomBox. Avec le cloud, ou « informatique en nuage », les entreprises comme Google, Microsoft, Apple ou Yahoo veulent rendre les utilisateurs dépendants des services en ligne, pour transformer leurs ordinateurs en terminaux d'accès – sous un motif écologique à la mode mais contestable. Les données ne sont plus stockées localement mais à distance, ce qui a le double avantage pour l'entreprise d'enfermer l'utilisateur dans le service en ligne qu'il a choisi (particulièrement lorsqu'il est impossible ou difficile d'en changer sans perdre ses fichiers), et de lui faire payer un loyer pour l'hébergement de ses données. Loyer qui peut être payé soit par la communication de données personnelles exploitées commercialement (revente de fichiers, publicité ciblée...), soit par abonnements payants.

Le courrier dans les nuages

Google fait figure de leader dans ce domaine, avec ses très nombreux services en ligne comme YouTube, Google Docs, Google Maps, ou encore GMail. L'utilisateur n'a plus besoin d'installer de logiciels et de les mettre à jour, il doit juste disposer d'un navigateur Internet, ce qui est l'objectif de Chrome OS. Les données seront sauvegardées à distance et pourront être retrouvées depuis n'importe quel appareil dans le monde. C'est la promesse d'une informatique simplifiée et la fin des données perdues après le crash d'un disque dur ou la perte d'une clé USB. Sauf lorsque le service plante et que tout devient inaccessible. Ce fut le cas dimanche de GMail. Selon le propre aveu des équipes de Google, un peu moins de 0,29 % des boîtes des utilisateurs de GMail (soit tout de même plusieurs centaines de milliers d'internautes) ont été vidées de leur contenu. Cinq heures après la première alerte publiée, le problème touchait encore 0,08 % des utilisateurs. À priori aucun message n'est perdu, mais les équipes de la firme de Mountain View doivent réparer des bases données endommagées pour récupérer les données.
Ce genre de problème est le cauchemar de tout éditeur de services en cloud, et met en exergue le risque de confier toutes ses données à un tiers distant. Le jour où le service tombe en panne, ferme ses portes ou désactive le compte de l'utilisateur, toutes les données sont perdues.

Source : Futura-Sciences

lundi 6 décembre 2010

Supercalculateur : le CEA passe le pétaflop

Un supercalculateur, baptisé Tera 100 et installé au Commissariat à l'énergie atomique (CEA), vient de dépasser la barre du pétaflop, autrement dit plus d'un million de milliards d'opérations par seconde. C'est le premier en Europe - il est installé dans le centre de Bruyères le Châtel (Essonne) - à franchir cette barre. A l'échelle mondiale, il devrait faire partie du groupe de tête des supercalculateurs, dont le classement est mis à jour tous les mois ici sur le Top 500.
Tera 100 a même franchi la barre avec une petite marge, sa performance est de 1,05 million de milliards d’opérations par seconde (1,05 pétaflops). L'opération s'effectue sur un test standardisé, dit du Linpack, afin de comparer entre elles des machines d'architectures différentes.
Tera 100 est un cluster de 4 370 serveurs conçus par Bull, équipé de 17.480 processeurs Intel® Xeon® 7500. Sa mémoire centrale intègre plus de 140 000 barrettes mémoires pour atteindre une capacité de 300 téraoctets. Il est doté en outre d’une capacité de disques de 20 pétaoctets (Po) accessibles à un débit de 500 Go/s, un record mondial en la matière.

Source : Libération (9/11/2010)

mardi 26 octobre 2010

Le BIOS prend sa retraite en 2011

Inventé il y a plus de trente ans par des ingénieurs d'IBM, le célèbre BIOS ne serait plus totalement compatible avec les ordinateurs modernes. En effet, d'après le patron de l'UEFI Forum (Unified Extensible Firmware Interface), Mark Doran, des astuces auraient été trouvées jusqu'à présent pour permettre à l'architecture BIOS de reconnaitre les claviers USB dans les anciens ordinateurs équipés de port PS/2, mais aussi pour forcer à reconnaître une clé USB en tant que lecteur disquette ou disque dur.
Cependant, avec l'apparition de nouveaux périphériques tels que les tablettes numériques, le BIOS a atteint ses limites et se doit d'évoluer pour correspondre aux ordinateurs modernes. Ainsi, l'UEFI devrait remplacer progressivement le BIOS dans les cartes-mères de la majorité des PC d'ici l'année 2011. Il semblerait alors que son architecture soit plus souple. Selon Mark Doran, l'UEFI ne dit pas qu'un clavier doit être présent sur un port précis, mais que quelque part sur l'ordinateur, un périphérique produisant les informations d'un clavier est présent. De plus, il permettrait également de gagner un temps précieux au démarrage, en ramenant la durée du boot à seulement quelques secondes.

Source : Sur-la-Toile

lundi 7 juin 2010

Les supercalculateurs, un monde qui appartient à Linux

Selon le site Top500, qui recense les supercalculateurs du monde entier, à cette date, plus de 91% de ceux-ci sont sous un OS libre, les États-Unis en tête avec 282 machines, soit environ 56%, quand le Royaume-Uni en compte 38 et la France 27 ; en tête de liste, le « Jaguar » installé au laboratoire national d'Oak Ridge aux États-Unis.
Ses performances ont de quoi à faire tourner la tête, il a atteint les 1,759 PFlops/sec fin 2009, il est équipé de pas moins de 224162 processeurs six coeurs AMD. La France pour sa part arrive en 18e place mondiale avec un supercalculateur du nom de « Jade », développant 237,8 Teraflops pour les 267 prévus, installé fin 2009, il est équipé de 23040 processeurs Intel EM64T Xeon E54xx cadencés à 3Ghz, il est installé au CINES à Montpellier.
Suite à ce classement, BBC News propose un tableau graphique et ludique pour mieux voir qui possède quoi.

Source : Sur-la-Toile

jeudi 3 juin 2010

Mise sous tension de Tera 100, supercalculateur le plus puissant d’Europe

La Direction des Applications Militaires du CEA et Bull annoncent la mise sous tension du supercalculateur Tera 100. D’une puissance théorique de 1,25 Petaflops, Tera 100 se classe parmi les 3 premiers supercalculateurs mondiaux. Tera 100 est issu d'un vaste programme associant étroitement Bull et le CEA.
Issu d’un programme de collaboration initié en 2008 entre Bull et le CEA, Tera 100 est le premier supercalculateur pétaflopique (pétaflopique : qui est capable de réaliser un million de milliards d'opérations par seconde) conçu et développé en Europe. Sa puissance théorique de 1,25 Petaflops le classe parmi les trois supercalculateurs les plus puissants au Monde. Tera 100 est destiné au Programme Simulation du CEA, destiné à garantir la fiabilité des armes de la dissuasion nucléaire.
Tera 100 a été mis sous tension le 26 mai 2010, quelques semaines seulement après le début de son installation en mars 2010. Tera 100 est constitué de 4300 serveurs – de type bullx série S, annoncés par Bull en Avril 2010. Il intègre 140 000 cœurs Intel® Xeon® série 7500, 300 To de mémoire centrale et disposera d’une capacité totale de plus de 20 Po de stockage. En outre son débit de 500Go/sec constitue un record du monde pour ce type de système.
Tera 100 offre une capacité de calcul exceptionnelle. Pour comparaison, la machine peut réaliser plus d'opérations en une seconde que ce que la population mondiale ferait en 48 heures, à raison d'une opération par seconde par personne. C’est aussi une capacité de transfert d'information équivalente à 1 million de personnes regardant en même temps des films HD ; et enfin une capacité de stockage équivalente à plus de 25 milliards de livres.
"La mise sous tension de Tera 100 constitue un important succès industriel. Elle souligne le savoir faire du CEA et de Bull dans le développement de technologies ultra performantes, au meilleur niveau mondial ; elle valide pleinement le partenariat industrie et recherche que le CEA et Bull ont su développer, partenariat dont les bénéfices iront sans délais à toute la communauté scientifique et industrielle européenne", déclare Jean Gonnord, chef du projet simulation numérique et informatique du CEA.
"Nous sommes extrêmement fiers de cette réussite dans le domaine des systèmes pétaflopiques. Fondamentales dès aujourd’hui pour des applications comme celles du CEA, ces technologies le sont également pour la conception des centrales numériques du futur et des grands cloud computing. C’est pourquoi la maîtrise des technologies pétaflopiques est un atout majeur pour la France et pour l’Europe" souligne Philippe Miltin, Vice-Président de la Division Produits et Systèmes de Bull.
"Constituant aujourd’hui le plus grand système jamais conçu autour de processeurs Intel® Xeon®, Tera 100 montre la pertinence de l’utilisation de processeurs Intel pour le monde du calcul haute performance, tant en termes de coûts, de consommation que de puissance de calcul. Nous sommes très heureux de participer à ce grand projet, aux côté du CEA et de Bull", déclare Kirk Skaugen, Vice-Président et Directeur Général du Groupe Data Center, Intel.
Par rapport à Tera 10, mis en production en 2005, Tera 100 est 20 fois plus puissant, occupe le même emplacement au sol et son rendement énergétique est multiplié par 7 . Quelques mois après la désignation aux Etats-Unis de bullx comme meilleur super calculateur au monde, Tera 100 confirme ainsi la maîtrise technologique acquise par Bull et le savoir-faire du CEA dans les infrastructures complexes pour le Calcul Haute Performance. Le succès de Tera 100 souligne également la position de premier plan acquise dans le Calcul Haute Performance par les architectures à base de composants standards, en particulier celles associant processeurs Intel® Xeon®, système Linux® et logiciels Open Source.

Source : Techno-Science.net

vendredi 7 mai 2010

La Chine veut les noms des internautes

La Chine considère sérieusement l'option de demander le nom réel de ses 400 millions d'internautes. Il y a une semaine déjà, la Chine a annoncé un renforcement d'une loi protégeant les secrets de l'État. Cette loi exige de la part des opérateurs Internet et de téléphonie mobile de s'enquérir à propos de leurs clients et de coopérer avec la police lorsqu'elle demande des informations. Cela fait longtemps que la Chine discute de l'idée d'enregistrer tous les utilisateurs en ligne et cela semble se concrétiser à présent. Les internautes chinois ne peuvent déjà plus réaliser de commentaires anonymes sur les portails d'information et ils peuvent toujours utiliser des pseudonymes qui cachent leur identité réelle. Dans ce pays où les médias sont très contrôlés, les Chinois se tournent vers Internet pour débattre d'idées et critiquer éventuellement le gouvernement.
Les associations concernées par les droits de l'Homme confirment que la Chine est actuellement en train de resserrer la vis sur les médias et Internet et regarde de près les organisations non gouvernementales, activistes et autres avocats qui sont considérés comme des menaces potentielles pour la stabilité sociale du pays (selon le gouvernement chinois).

Source : Sur-la-Toile

jeudi 29 avril 2010

La dernière année de la disquette...

Sony, 30 ans après l'avoir inventée, vient de sonner la fin de la disquette en annonçant une décision historique : à la fin du mois de mars 2011, ses usines cesseront de fabriquer des disquettes 3,5 pouces.
Devenue obsolète après l'avènement du disque optique (CD et DVD R et RW), puis de la clé USB et du stockage en réseau, la disquette de 3,5 pouces continuait toutefois à se vendre, même si les fabricants ont depuis plusieurs années supprimé le lecteur de disquette de leurs ordinateurs. Selon la presse japonaise, qui a relayé l'annonce de Sony, environ 12 millions d'unités de disquettes ont été écoulées par la marque en 2009 au Japon, contre près de 47 millions il y a une dizaine d'années.
Hors Japon, les ventes de disquettes Sony ont déjà cessé dans la plupart des pays, à l'exception de quelques marchés, comme l'Inde, qui sont encore demandeur.

Un parfum évanescent des eighties

Les premières disquettes furent lancées en 1967 par IBM, en format 8 pouces (rappelons qu'un pouce vaut 2,54 centimètres). Le successeur, la disquette de 5,25, a connu la célébrité avec l'IBM PC, premier micro-ordinateur d'IBM sorti en 1981. Cette même année, Sony a proposé le format 3,5 pouces et introduit une amélioration : le disque souple était contenu dans un boîtier rigide. Apple l'adoptera sur le Lisa 2 et sur le Macintosh.
Victime de sa fragilité et de sa faible capacité de stockage (généralement 1,4 Mo, une valeur quasiment figée depuis 1987 malgré plusieurs tentatives louables, comme le Zip ou la Nano Cubic), la disquette 3,5 pouces a été abandonnée au début des années 2000 au profit du CD permettant de stocker plusieurs centaines de mégaoctets. Ce disque optique a lui-même était délaissé pour la clé USB qui permet d'emporter avec soi plusieurs gigaoctets de données.

Source : Futura-Sciences

mercredi 24 mars 2010

Google quitte la Chine

Depuis lundi, les accès au site chinois du moteur de recherche de Google sont reroutés vers le site de Hong-Kong. Mais pour les Chinois, malgré ce détour, le contenu des pages récupérées reste toujours filtré par les autorités.
Google n'a pas opté pour le compromis dans le différend qui l'oppose au gouvernement chinois et n'appliquera plus la censure imposée par les autorités de Pékin sur les résultats des recherches des internautes. Le moteur de recherche chinois de Google est désormais fermé. Son adresse, http://www.google.cn/, renvoie à un autre site, http://www.google.com.hk/, installé, lui, à Hong-Kong (territoire intégré à la Chine mais jouissant d'un statut spécial).
Sur le blog officiel de Google, un vice-président de l'entreprise, David Drummond, explique que le moteur du site de Hong-Kong n'applique aucune censure. Mais pour les internautes chinois, la censure, assurée auusi par le contrôle des autorités sur les flux Internet, est toujours là. Certains parlent désormais de « Chineternet », voire « d'intranet chinois ».
L'entreprise Google reste présente en Chine, conservant ses locaux et maintenant ses autres services commerciaux. A terme, l'avenir de la société sur le territoire chinois pourrait cependant être menacé.
Les autorités ont réagi immédiatement, critiquant la décision de Google mais précisant toutefois qu'il ne s'agit que d'une affaire commerciale avec une entreprise. La traduction en langage diplomatique est que la Chine ne veut pas ajouter l'affaire Google aux bisbilles qui se multiplient avec les Etats-Unis.

Source : Futura-Sciences

mercredi 3 mars 2010

CyberCamp'10

Pour la quatrième année consécutive, le DIUF (département d'informatique de l'université de Fribourg) organise un camp d’été sur le thème de l’informatique ouvert aux étudiant(e)s du secondaire II.

Le camp durera 4 jours du lundi 5 au jeudi 8 juillet 2010 et prendra place dans les nouveaux locaux du département d'informatique sur le site de Pérolles II à Fribourg.

Au programme :

  • Construction et programmation d’un robot
  • Création d’une application Java pour téléphone portable
  • Virus informatiques : vers et autres trojans…
Inscriptions en ligne sur le site http://cybercamp.unifr.ch jusqu’au 19 avril 2010

jeudi 28 janvier 2010

Apple dévoile son iPad

En décembre, on spéculait sur le iSlate, l'équivalent d'un iPhone sous forme de tablette. Apple a finalement dévoilé le projet qui portera le nom de iPad. Très fine (13 mm), cette tablette de 242 x 189 mm affichera du 1024x768 sur un écran tactile de 9.7 pouces. Deux séries seront disponibles en 16, 32 et 64 Go, la première (à partir de 499 $) offrira une connexion WiFi, la seconde (629 $ et +) une connexion WiFi ou 3G. La batterie permettra une autonomie d'une dizaine d'heures.

mardi 19 janvier 2010

Une faille d'IE en partie responsable du hacking de Google

Microsoft a déclaré qu'une faille de sécurité dans son navigateur Internet Explorer a effectivement joué un rôle dans l'attaque récente contre Google, et au moins une vingtaine d'autres sociétés. Microsoft a précisé que cette dernière peut être évitée en paramétrant la sécurité du navigateur sur « haute », et va prochainement émettre une mise à jour. Les anciennes versions d'Internet Explorer sont davantage vulnérables, en particulier IE6 sous Windows XP.
Google a annoncé plus tôt cette semaine que des pirates chinois se sont introduits dans les comptes de messagerie appartenant aux activistes des droits de l'Homme qui s'opposent aux actions du gouvernement chinois. Les représentants de Google ont menacé de quitter la Chine, à moins que le gouvernement de ce pays n'accepte de revoir les règles de censure concernant son moteur de recherche. Le gouvernement chinois a répondu que le pays accueillait volontiers les entreprises étrangères, pour autant qu'elles respectent ses lois...

Source : Sur-la-Toile

samedi 9 janvier 2010

Le décryptage franchit une nouvelle étape

Des chercheurs de l’EPFL (Suisse), l’INRIA (France), NTT (Japon), l’Université de Bonn (Allemagne) et CWI (Pays-Bas) ont mis en commun leurs capacités de calcul et sont parvenus à "casser" une clé de sécurité. Ils démontrent ainsi que les standards de cryptage actuels demeurent solides, mais que les utilisateurs devront migrer à moyen terme vers des systèmes plus sûrs et conformes aux nouveaux standards recommandés.
Les systèmes cryptographiques garantissent la sécurité des échanges de données sur Internet et ils sont au cœur du commerce électronique, que ce soit sur les sites "htpp" ou "https". S’assurer de leur fiabilité est dès lors crucial. Une équipe internationale de scientifiques est parvenue à "casser" la clé RSA de 768 bits, en extrayant les facteurs premiers de ses 232 chiffres. Grâce notamment à la puissance de traitement des processeurs modernes, ce nouveau record a été atteint en moins de deux ans et demi de travaux.
Des calculs du même type ont permis de montrer la vulnérabilité des clés RSA de 512 bits en 1999, puis des 663 bits en 2005 et enfin maintenant des 768 bits. On peut déjà s’attendre à ce que la clé RSA de 1024 bits perde son inviolabilité au cours de la prochaine décennie. Pour Arjen Lenstra, du Laboratoire de cryptologie algorithmique à l’EPFL, "ce résultat doit nous inciter à utiliser de plus hauts niveaux de sécurité que ceux offerts par la clé RSA de 1024 bits». Mais, rassure le professeur, "les utilisateurs ne courent pas de grands risques à conserver ce système de chiffrement durant ces prochaines années de transition".
Pour cette expérience, le Laboratoire de cryptologie algorithmique, à l’EPFL, a joué le rôle de coordinateur et de centre de collecte des données. Quant aux logiciels utilisés, ils se sont largement basés sur un développement effectué au début des années 2000 par l’Institut de mathématiques, à l’Université de Bonn.

dimanche 22 novembre 2009

Le Jaguar, un roi dans la jungle des superordinateurs !

C'est aux Etats-Unis, dans les locaux du laboratoire national d'Oak Ridge dans le Tennessee, que se trouve l'ordinateur actuellement le plus puissant au monde, capable d'effectuer 1,75 million de milliards d'opérations à virgule flottante par seconde !
Alors que la puissance de nos ordinateurs personnels ne cesse de croître d'année en année, il en va de même pour les ordinateurs dédiés à la recherche. Appelés superordinateurs ou supercalculateurs, ces machines sont dédiées à des utilisations toutes autres que la gestion d'une suite bureautique ou la lecture d'une vidéo... La science demande toujours plus aux systèmes informatiques. Que ce soit pour analyser des données acquises par des radiotélescopes ou décoder l'ADN, la puissance de calcul requise augmente sans cesse. Cependant, il est un domaine particulier qui n'est jamais contenté par l'évolution technologique, la simulation.
Qu'elles soient liées à la climatologie ou à l'astrophysique les simulations sont infiniment gourmandes en ressources. En effet, une simulation virtuelle d'éléments réels n'est jamais vraiment finie et est proportionnellement lissée suivant le temps et la capacité de calculs qui lui sont impartis. Aussi la course à la puissance des superordinateurs alimentée par des organes d'Etats et des entreprises comme IBM est-elle du pain béni pour les chercheurs dans leur quête à la simulation la plus réaliste et aboutie.

Chocs aux Flops

Jadis détenu par le Nouveau-Mexique avec le Roadrunner d'IBM et ses 1,04 petaflops (1,04 billiard d'opérations à virgules flottantes par seconde, donc 1,04 x 1015 flops), la coupe de la plus grande capacité de calcul passe au Tennessee avec le Jaguar de Cray et ses 1,75 petaflops. Par comparaison, le Zuse 3, considéré comme le premier ordinateur faisait preuve d'une capacité de calcul de 20 flopsF, soit, pour employer les mêmes unités, 20 x 10-15 petaflops ! Une carte graphique basée sur l'architecture récente Fermi de nVidia possède une puissance de calcul de l'ordre de 1,1 teraflops, soit 1,1 x 10-3 petaflops. A terme, Cray espère dépasser les 2 petaflops. Le point faible de Jaguar par rapport au Roadrunner d'IBM est le rapport performances / consommation. Basé sur des microprocesseurs AMD Opteron dotés de 6 cœurs cadencés à 2,6 GHz, le superordinateur abrite 224.162 cœurs... et doit les alimenter. Le Jaguar consomme trois fois plus d'énergie que le Roadrunner pour une vitesse seulement 75% supérieure.
Malgré sa gourmandise énergétique, la bête domptée par Cray attire de nombreux chercheurs désireux d'éffectuer les modélisations de leurs rêves.

Source : Futura-Sciences

jeudi 18 juin 2009

Grandir sur Internet (reportage de Temps Présent)

Ce soir, sur TSR1, à 20h05, Temps Présent diffuse un reportage sur les jeunes et Internet.

Toujours plus d'ados et d'enfants mènent leur vie, tissent leurs liens sociaux et font même leur éducation sur internet. Avec tous les risques et les dérapages que cela peut générer. La génération web déboussole les adultes : les profs déplorent que leurs élèves délaissent les livres pour l'écran et les parents craignent de perdre contact avec leurs enfants, immergés dans des mondes virtuels qui échappent à tout contrôle.

Auparavant l'internet et le monde numérique appartenaient aux adultes. Aujourd'hui, les ados et les enfants s'en sont emparés. Et dans beaucoup de familles, ce sont même eux qui ont la haute main sur toute l'informatique de la maison. Ce qui peut poser problème lorsque l'usage intense du web échappe au regard parental. Les jeunes internautes s'exposent à toutes sortes de dérives et de périls. Tourné dans une petite ville américaine, le reportage proposé par Temps Présent retrace notamment les mésaventures d'une jeune écolière de 14 ans, timide, qui s'est créé un personnage «gothique» et qui a mis en ligne des photos d'elle dans des poses provocatrices. Ses parents sont tombés des nues en découvrant, par hasard, des images quasi pornographiques de leur fille, pourtant si réservée. Le danger ne vient donc pas des seuls prédateurs sexuels qui chassent leurs proies sur le net. Il découle aussi de l'inconscience de certains ados qui s'exhibent eux-mêmes ou qui balancent sur le web des photos et des infos concernant leurs copains. Dans le reportage, le père d'un jeune homme raconte comment son fils s'est fait harceler par des élèves de son collège, lesquels ont largement répandu sur le net des insultes et des rumeurs malveillantes. Houspillé et menacé publiquement, le jeune homme a fini par craquer et s'est suicidé.

Rediffusion le vendredi 19 juin 2009 à 0h50 et le lundi 22 juin 2009 à 14h sur TSR2.

lundi 16 mars 2009

Cybercamp 2009

L'Université de Fribourg organise un camp d'été sur le thème de l'informatique. Le camp durera 4 jours du lundi 6 au jeudi 9 juillet 2009 et prendra place dans les nouveaux locaux du département d'informatique sur le site de Pérolles II à Fribourg.

Attention: Les inscriptions se font en ligne jusqu’au 30 avril 2009 sur le site cybercamp.unifr.ch

vendredi 13 mars 2009

Le web fête ses 20 ans

Le World Wide Web fête ses 20 ans. L'anniversaire est célébré ce vendredi après-midi là où il a été créé - au CERN, à Genève.
C'est en effet pour améliorer la diffusion des informations internes de l'Organisation européenne pour la recherche nucléaire (CERN) qu'un projet de système de liens hypertexte y a été proposé en 1989 par l'informaticien Tim Berners-Lee, bientôt rejoint par l'ingénieur Robert Cailliau. Ces deux hommes ont construit le Web jusqu'à son adolescence.

Pour le grand public, le Web a véritablement pris naissance au début de l'année 1993, avec le développement par le Centre national de superinformatique (NCSA), de l'université de l'Illinois, de la première version de son navigateur, Mosaic, qui fut vite disponible pour Mac et PC.
A l'époque, le monde du Web était gris, parsemé quasi exclusivement de liens hypertextes bleus, qui une fois cliqués, viraient au pourpre. On ne dénombrait alors que 500 serveurs, et le « WWW » ne représentait que 1 % du trafic d'Internet.
A la fin de 1994, le nombre de serveurs était passé à 10 000, et le Web comptait déjà 10 millions d'utilisateurs. Aujourd'hui, c'est presque sur un autre média que nous surfons. Certes, le protocole est resté le même. Mais le Web, qui accueille de nouvelles technologies, comme Flash, Ajax, se diffuse désormais sur les mobiles.
Quant aux utilisateurs, ils sont aujourd'hui plusieurs centaines de millions qui, dans tous les pays du monde, visitent en ce début d'année 2009 l'un des 216 millions de sites Internet en activité sur le Réseau.

Pour en savoir plus

lundi 26 janvier 2009

Insomni'hack 2009


Suite au succès de sa première édition, Insomni'hack revient en 2009. Réservez d'ores et déjà la date du Vendredi 6 Février 2009.
Préparez-vous à vous mesurer aux diverses épreuves touchant à plusieurs domaines de la sécurité des systèmes d'informations dans le plus grand challenge de hacking éthique de suisse romande.
Inscription sur www.scrt.ch