Le cyberblog du coyote

 

Extra
Langues :

Editorial

Ce blog a pour objectif principal d'augmenter la culture informatique de mes élèves. Il a aussi pour ambition de refléter l'actualité technologique dans ce domaine.

vendredi 27 novembre 2009

Les robots parmi nous d'ici 2030 ?

Les robots seront capables de diriger un orchestre mais aussi de nous amener le petit déjeûner au lit d'ici 2030. C'est ce qui a été annoncé au Festival de la Science de Gênes. D'ici une vingtaine d'années, les robots anthropomorphes seront construits de telle sorte à être de plus en plus proches de l'Homme, comme par exemple avec un revêtement qui rappelle la peau, et ils vivront à nos côtés, établissant un contact rapproché avec nous.
Au cours de la conférence "Les robots, de plus en plus proches de l'Homme dans tous les sens du terme", Antonio Bicchi, professeur d'Automatique et de Robotique à l'université de Pise et Darwin Caldwell, un des directeurs de l'Institut Italien de Technologie de Gênes se sont exprimés sur le sujet lors du festival: "Il s'agit d'une réalité déjà existante même si elle n'est pas encore appliquée. L'idée est de faire vivre des robots au contact des personnes, les rendant plus proches et plus agréables aux contacts: ils seront construits à partir de matériaux légers et devront être semblables aux humains."
Les premiers domaines d'application seront ceux de la production et le monde industriel, mais l'objectif est de les introduire dans la vie quotidienne des personnes, en les utilisant pour les travaux domestiques, dans l'assistance aux personnes âgées et handicapées par exemple. Les deux intervenants ont conclu en ajoutant: "La technologie est déjà très avancée, et ce, grâce aux études conduites à Gênes et à Pise ; son utilisation pratique est envisageable d'ici 2030."

Source : Techno-Sciences

dimanche 25 octobre 2009

Les ordinateurs à ADN deviennent logiques à l'Institut Weizmann des Sciences

Les ordinateurs biomoléculaires, faits d'ADN et d'autres molécules biologiques, existent aujourd'hui seulement dans quelques laboratoires spécialisés. Néanmoins, Tom Ran et Shai Kaplan, deux étudiants qui développent leur recherche dans le laboratoire du Professeur Ehud Shapiro de l'Institut de Chimie Biologique, d'Informatique et de Mathématiques Appliquées ont trouvé une façon de rendre ces dispositifs microscopiques de calcul "conviviaux" en exécutant des calculs complexes et en répondant à des questions compliquées, comme rapporté dans l'article publié en ligne dans Nature Nanotechnology.

Shapiro et son équipe avaient déjà découvert en 2001 les 1ers ordinateurs à ADN programmables et autonomes, si petits qu'un milliard de ces systèmes est contenu dans une goutte d'eau. Trois ans plus tard, une nouvelle version de ces systèmes pouvait détecter des cellules cancéreuses dans une éprouvette et les détruire. En plus de pouvoir imaginer qu'un jour de tels dispositifs pourront être utilisés chez l'être humain, tels des nano-docteurs pouvant localiser et soigner les maladies, ces ordinateurs d'ADN pourront effectuer des millions de calculs en parallèle.

L'ordinateur biomoléculaire développé aujourd'hui suit la logique suivante : il est programmé avec une règle telle que "Tous les hommes sont mortels" et un fait tel que "Socrate est un homme". Lorsque l'on demande alors à l'ordinateur si Socrate est mortel, il répond correctement dans tous les cas. Parallèlement, l'équipe a développé un programme permettant la communication entre le langage de programmation classique d'un ordinateur et le code de fonctionnement de l'ordinateur à ADN. Pour parvenir à la réponse, différents brins d'ADN correspondants aux règles, faits et questions sont assemblés selon un processus hiérarchique par un système robotisé. Afin de visualiser la solution, des molécules naturellement fluorescentes ont été greffées sur certains brins d'ADN, avec une seconde protéine masquant l'émission de lumière. Une enzyme spécialisée est alors attirée sur le site de la réponse correcte, et "découvre" la molécule fluorescente, permettant ainsi la visualisation de la réponse.

Les ordinateurs biomoléculaires contenus dans ces gouttes d'eau ont pu ainsi répondre à des questions bien plus complexes en combinant différents fluorophores.

Source : bulletins-electroniques.com

jeudi 15 octobre 2009

WikiReader, un futur cas d'école ?

L’élève : Monsieur, je peux utiliser mon WikiReader en cours ?

Le professeur : Ton quoi ? Qu’est-ce que c’est que ce nouveau gadget encore !

L’élève : C’est génial, c’est tout Wikipédia dans un petit lecteur à écran tactile ! Même pas besoin d’être connecté à Internet, l’intégralité est enregistré dans un carte mémoire à mettre à jour quand on le souhaite. Pas besoin de fil non plus avec ses piles qui tiennent un an.

Lire la suite sur Framablog

samedi 20 juin 2009

Project Natal

Project Natal est le nom de code d’une technologie d’interaction développée par Microsoft. Elle est basée sur un périphérique d'entrée branché sur la console Xbox 360. Il permet d’interagir par commande vocale, reconnaissance de mouvement et d’image. La technologie a été annoncée lors du salon E3 2009.

jeudi 4 juin 2009

Une mémoire informatique gravée pour un milliard d'années

En glissant une minuscule particule de fer à l'intérieur d'un nanotube de carbone, on peut enregistrer une information binaire qui résistera au temps. Cet exploit de laboratoire répond à un problème majeur : comment assurer la conservation des données à très long terme ?

Que trouveront les archéologues du futur, d'ici quelques siècles voire quelques milliers d'années ? Des pierres taillées du paléolithique certainement, des peintures pariétales sans doute, des hiéroglyphes à coup sûr, des rouleaux de parchemins probablement, de livres peut-être. Mais que deviendront les milliards de milliards d'informations engrangées dans les disques durs, qui se démagnétisent, et sur les disques optiques, qui redoutent la lumière du soleil ?
Même si l'on ne soucie pas des traces laissées à nos lointains descendants, l'archivage à l'échelle des décennies est un problème pris au sérieux et quelques-uns cherchent des solutions exotiques. Dans la revue Nanoletters, une équipe américaine de l'université de Californie, menée par Alex Zettl, propose d'utiliser des nanotubes de carbone, décidément accommodés à toutes les sauces depuis quelques années. Ce n'est d'ailleurs pas la première fois que l'on pense aux nanotubes de carbone pour réaliser une mémoire électronique. Leur cousin, le graphène, est lui aussi annoncé comme un bon candidat.
La solution imaginée par Alex Zettl et ses collègues est toutefois complètement originale. Ces spécialistes de la physique du solide introduisent une nanoparticule cristalline de fer à l'intérieur de ces tubes dont le diamètre intérieur dépasse à peine la vingtaine de nanomètres.

Mémorisez ce texte, il s'autodétruira dans quelques siècles seulement

La position de cette nanoparticule peut être modifiée par l'application d'une tension électrique entre les deux extrémités du nanotube de carbone. Les chercheurs sont ainsi parvenus à la faire glisser sur toute la longueur. Une vidéo présente d'ailleurs ce mouvement à l'intérieur d'un nanotube. A l'inverse, le passage d'un courant électrique permet de mesurer une résistance qui n'est pas la même selon que le minuscule cristal se trouve à une extrémité ou à une autre. Le système peut donc mémoriser une information binaire, de type 0 et 1, avec un dispositif électronique d'une grande simplicité. La densité d'information qu'il serait possible d'atteindre est excellente puisque l'équipe parle de 1012 bits par pouce carré (un nombre à diviser par 6,25 pour obtenir le centimètre carré comme référence).
L'écriture et la lecture n'ont sans doute rien de spécialement rapide mais les chercheurs sont persuadés que ce positionnement de la nanoparticule métallique est thermodynamiquement extrêmement stable. Ils n'hésitent pas à annoncer une valeur se chiffrant en centaines de milliers d'années. De quoi laisser de la lecture aux générations suivantes...
Même si ces valeurs restent à démontrer, même si l'expérience n'est que la réalisation d'un procédé de laboratoire et pas d'un nouveau type de mémoire, le travail témoigne des efforts actuels pour sécuriser l'information à très long terme.

Source : Futura-science

samedi 23 mai 2009

Commander son ordinateur par la pensée avec OpenVibe

Lancé en 2005 par l'Institut national de la recherche en informatique et en automatique (Inria) et l'Institut national de la santé et de la recherche médicale (Inserm), le projet OpenVibe permet de commander son ordinateur par simple pensée. C'est ce que l'on nomme une interface BCI ou Brain-Computer Interfaces.
Pour l'instant, pour que le logiciel fonctionne, l'utilisateur doit se munir d'un casque électroencéphalographique, lui permettant de "connecter" des electrodes sur son crane, afin de capter son activité cérébrale (différents signaux émis par le cortex moteur du cerveau).
Il s'agit d'un logiciel "intelligent" qui "apprend" en fonction des signaux émis par son utilisateur: dans un premier temps, l'utilisateur devra réaliser plusieurs mouvements demandés (lever une main, écarter les bras..), afin que le logiciel détecte et analyse le signal cérébral reçu. Dans un second temps, l'utilisateur devra penser au mouvement demandé, sans le faire pour autant. Chacun des signaux émis sera recueilli, analysé, et traduit en commandes informatiques.
A terme, de nouvelles applications pourraient révolutionner le monde du jeu vidéo. Cette technique pourrait également venir en aide aux personnes handicapées dans l'utilisation quotidienne des outils informatiques. Nous pourrions enfin imaginer une communication avec une personne dans le coma: tenter de l'interroger et de détecter l'expression cérébrale d'une réponse.

Le logiciel libre et ouvert est téléchargeable depuis: http://openvibe.inria.fr
Une démonstration est présentée à l'adresse : http://videotheque.inria.fr/videotheque/doc/615

Source : Techno-science

mardi 23 décembre 2008

L'ordinateur pourrait-il lire dans les pensées ?

Un ordinateur est parvenu à analyser l'activité cérébrale avec suffisamment de précision pour déterminer la forme géométrique, en l'occurrence une lettre, que regardait le sujet.
Ces expériences ont été conduites par un spécialiste du domaine, Yukiyasu Kamitani, responsable des laboratoires informatiques de neurologie d'ATR (Advanced Telecommunications Research Institute International) à Kyoto, et Frank Tong, de l’université de Princeton. Leurs surprenants résultats viennent d'être publiés dans la revue Neuron.
Dans un premier temps, des volontaires regardaient diverses représentations composées de lignes obliques alignées sous différentes orientations, tandis que l’activité de leur cortex visuel était analysée par IRM.
Les scientifiques ont d’abord noté les caractéristiques de ce flux pour chacune des images. Ils ont ensuite créer un logiciel devant choisir l'un de ces modèles selon l’activité cérébrale détectée. Et effectivement, ce programme a pu déterminer ce que les volontaires observaient... De plus, si deux images différentes étaient projetées simultanément devant les sujets à qui on demandait de se concentrer sur l'une d'elles, il était aussi possible de déterminer laquelle recevait toute leur attention.
Dans une deuxième série d’expériences, deux images étaient projetées, mais l’une d’entre elles clignotait tellement rapidement que les sujets ne pouvaient matériellement pas l’identifier, ni même la percevoir consciemment. Pourtant, en analysant l’activité de leur cerveau, les chercheurs ont pu déterminer de quelle image il s’agissait, alors même que les volontaires n’en avaient aucun souvenir.

Visualiser les pensées !

Enfin, et c’est là l’aspect le plus spectaculaire de l’expérience, les scientifiques ont réussi à s’affranchir de la série de modèles préétablis utilisés lors des premiers essais.
Pour cela, ils ont projeté devant les sujets les six lettres N, E, U, R, O, N dans un ordre aléatoire, et ont analysé le signal directement issu du nerf optique transmis dans le cortex visuel. L’information a ensuite été décodée par ordinateur, qui avait reçu au préalable les types de signaux produits en réponse à une stimulation, sur les mêmes sujets, suite à la perception d’une suite de 400 images différentes.
Le résultat est étonnant. L’ordinateur a réussi à reconstituer l’image de la lettre de l’alphabet telle qu’elle a été perçue sur la rétine de chaque volontaire, et à la représenter sur écran. Le procédé est bien sûr limité et exige de dresser préalablement un tableau de correspondances entre formes et signaux pour chaque individu. Mais cette technique ne se réclame d’aucune rupture technologique et met en œuvre des moyens scientifiques connus et éprouvés, ouvrant ainsi la voie à une expérimentation que de nombreux centres de recherche poursuivront certainement...


A partir des signaux visuels recueillis chez le sujet regardant une lettre, l'ordinateur a pu reconstituer la forme géométrique de ce caractère.... Crédit ATR


Source : Futura-Science

jeudi 3 juillet 2008

Le web du futur

En offrant une sorte de bibliothèque universelle permettant l’accès à des milliards de ressources hétérogènes et distribuées (documents textuels, images, bases de données…), le Web a constitué une révolution culturelle... qui évolue encore. Le Web du futur se prépare actuellement dans les laboratoires de recherche et dans le consortium W3C - guidé aussi par les nouveaux usages.
Ce tour d'horizon des nouvelles perspectives du Web est extrait de la conférence donnée par Rose Dieng-Kuntz le 31 mai 2006 dans le cadre des journées de l'Académie des sciences à Sophia Antipolis.
Après un rappel de l'origine du Web et de son fonctionnement actuel, Rose Dieng-Kuntz présente l'évolution qui se dessine d'un Web de documents vers un Web d'information, de services et de collaboration.

S'appuyant sur les langages de la famille XML (langages de requêtes, langages de règles…), de nombreux travaux portent sur l'intégration des ressources multimédias, qu'il s'agisse de médias statiques (texte, images, équations) ou dynamiques (vidéo, son). Pour que ces ressources deviennent exploitables par des programmes, leur sens doit être pris en compte, c'est ce qu'on appelle le « Web sémantique ». Il s'agit également de développer les programmes accessibles via le Web. Pour cela, il est nécessaire de se placer du point de vue des utilisateurs, sans négliger la diversité des appareils par lesquels se fera l'accès au Web (notamment les appareils mobiles).

La présentation de 18 min en XML/SMIL : les transparents synchronisés avec la vidéo de l'oratrice.

La mise en forme en XML/SMIL a été réalisée par Pierre Jancène. Pour visionner ce document, utiliser RealPlayer.