Le cyberblog du coyote

 

Extra
Langues :

Editorial

Ce blog a pour objectif principal d'augmenter la culture informatique de mes élèves. Il a aussi pour ambition de refléter l'actualité technologique dans ce domaine.

dimanche 12 février 2012

Réelle ou virtuelle ?


© Olivier Ponsonnet (reiv). All rights reserved.

Voir le site de l'auteur

vendredi 20 janvier 2012

L'art assisté par ordinateur

En quoi l'art assisté par ordinateur relève-t-il de la création artistique ? Quelques exemples pour amorcer une réflexion.

Lire l'article sur Interstices

jeudi 12 janvier 2012

PQ Codes, le plus rapide pour retrouver une image parmi des millions

Pour retrouver les similitudes entre une image et celles d'une vaste base de données, l'Inria a mis au point un algorithme étonnamment efficace. Baptisé PQ Codes, il réduit une image à un nombre très faible de caractéristiques, qui finissent par ne plus occuper que quelques octets. L’objectif de ce comparateur d'images est de gagner du temps de calcul pour afficher les résultats le plus rapidement possible.
Pour repérer des montages photo, on peut utiliser les services d’un comparateur d’images. Ce type de moteur ne permet pas de retrouver un document à l'aide de mots clés, mais de chercher toutes les copies et les modifications d’une image publiées sur le Web à partir de celle-ci. Un tel système est le rêve de tout photographe professionnel qui souhaite débusquer les contrefaçons de ses clichés, mais aussi des éditeurs audiovisuels traquant le piratage de leurs productions puisque le procédé fonctionne aussi bien avec les vidéos.
Parmi les comparateurs d’images connus, citons TinEye ou Cydral. Leurs algorithmes se basent sur l’analyse des pixels d’une image pour en extraire ses caractéristiques. Ce système fonctionne même si les couleurs de l’image ou sa taille ont été modifiés. Mais voilà, les calculs sont plutôt longs et lourds pour les serveurs. Par rapport au déploiement de puissance colossal, les résultats ne sont pas forcément au rendez-vous.

Le seul frein : le temps de calcul

Et c’est sur cette question du temps de calcul qu’a planché un chercheur de l’Inria, Hervé Jégou, avec son projet baptisé PQ Codes. Il ne faut que 20 millisecondes pour trouver une photo ou une vidéo semblable à une autre dans une base de 10 millions de fichiers !


Dans cette démonstration de PQ Codes réalisée par l'Inria, la recherche à partir d'une image dans une base de 10 millions d'images prend environ 20 millisecondes. Chaque image de la base occupe 21 octets. La seule limitation reste le temps d'affichage des résultats. © Inria Rennes

Comment une telle prouesse est possible ? Contrairement aux systèmes se basant sur l’analyse des pixels, PQ Codes construit une représentation mathématique de l’image. Le programme va donc extraire de l'image un ensemble de valeurs indiquant différentes positions sur des zones caractéristiques. Ces valeurs produisent un certain nombre de vecteurs.
Et pour aller encore plus loin, les vecteurs d'une même zone sont rassemblés dans un même groupe. L’algorithme choisit le plus représentatif pour constituer un seul supervecteur. Il sera moins précis, mais amplement suffisant pour conserver les caractéristiques de l’image. C’est ce que l’on appelle la quantification vectorielle, une technique très utilisée en reconnaissance de parole, compression de parole, etc.

PQ Codes : le comparateur d'image avec seulement 20 octets

Ainsi, les caractéristiques d’une image peuvent être définies avec seulement 20 octets. Ce qui explique le gain important de calcul. « Si l'on fixe la taille des descripteurs à 100 octets par image, la qualité de la recherche est meilleure, au prix d'une recherche plus lente et de 5 fois plus de mémoire. En utilisant 100 octets par image, on peut indexer 1 milliard d'images avec un serveur de 128 giga-octets de mémoire pour héberger la base » explique Hervé Jégou.
Au final, la comparaison de deux images se résume à celles de deux supervecteurs. Difficile de faire mieux… Avec ce système, comme les pixels et les couleurs ne sont pas du tout pris en compte, même une image qui a été modifiée, ou une vidéo piratée de mauvaise qualité, peut être repérée parmi des millions d’autres.
Côté application concrète, cette technologie pourrait, bien entendu, être intégrée par les moteurs de recherche que nous utilisons au quotidien. Toutefois, souligne Hervé Jégou, le père du projet, « pour le moment, seul un gros industriel a acheté une licence et un autre envisage de le faire. Étant donné sa relative simplicité, plusieurs groupes industriels et de recherche (ETHZ, NTT, Xerox…) ont réimplémenté la technique pour leur besoins propres ».

Source : Futura-Sciences

mercredi 14 décembre 2011

Ajouter simplement un objet 3D à une photographie

Jusqu'à aujourd'hui, il fallait être un « Pro » de la retouche d'images et de la modélisation 3D pour être capable d'ajouter des objets tridimensionnels à une photographie classique. Kevin Karsch va bientôt montrer (lors du Siggraph à Hong-Kong) une nouvelle technique pour obtenir chez soi en quelques minutes des résultats dignes des professionnels, même si l'on est (d'après lui), complètement novice en la matière.
Il ne faut de plus qu'une seule photo. Le principe sous-jacent est que le logiciel construit un modèle 3D de la scène. L'utilisateur peut préciser au logiciel des détails à ce niveau. Ensuite, la lumière est ajoutée et peut tenir compte des réflexions et créant des couches successives.

Rendering Synthetic Objects into Legacy Photographs from Kevin Karsch on Vimeo.


Source : Sur-la-Toile

jeudi 13 octobre 2011

Plus d'images floues, merci Adobe et Lytro!

La sagesse populaire voulait qu'une photo floue soit irrécupérable, une bonne partie des informations étant perdue. Mais Adobe vient de dévoiler un filtre Photoshop qui fait exactement cela. Une démonstration a eu lieu à la conférence MAX 2011. L'algorithme analyse la photo pour déterminer le sens du mouvement qui a causé le flou, puis corrige l'image pour arriver à un résultat très net, bien que probablement en résolution plus faible que l'original. (Les nombreux mégapixels des appareils actuels jouent cependant en faveur de ce type de filtrage.)
Bien que la stratégie soit totalement différente, ce n'est pas sans rappeler la fonctionnalité des nouveaux appareils photo Lytro qui permettent de réajuster le focus après avoir pris une photo. Selon Lytro, ces appareils ont des capteurs particuliers qui enregistrent davantage d'informations sur le champ lumineux: la couleur, l'intensité, mais aussi la direction des rayons lumineux. L'appareil permet du même coup de faire des photos 3D ou des prises de vues dans des conditions de faible luminosité. Vous pouvez tester leur technologie en cliquant sur les photos présentées ici.

Source : Sur-la-Toile

samedi 3 septembre 2011

Des images 5 fois plus légères sans pertes visibles grâce à JPEGmini.

Une startup israélienne, ICVT, a récemment dévoilé et mis à disposition une technologie de compression permettant de réduire jusqu'à 5 fois le poids d'une image JPEG sans pour autant en dégrader la qualité. Cette technologie, baptisée JPEGmini, repose d'abord sur un algorithme qui va se charger d'analyser l'image afin de déterminer à partir de quel niveau de compression cette dernière subit une perte de qualité. Vient ensuite un encodeur optimisé d'image qui va permettre de générer la nouvelle image JPEGmini, pleinement compatible avec la norme JPEG.
Grâce à cette technique, le gain de taille s'échelonne de 30 à 50% pour une image 2 millions de pixels et va de 70 à 80% pour une image de 8 millions de pixels. Cette technologie n'est pour l'instant disponible que via un service de la startup, mais il est fort probable qu'elle se retrouve bientôt dans nos smartphones, appareils photos numériques, et même dans les services d'hébergement d'images.

Source : Sur-la-Toile

dimanche 3 avril 2011

Créer une galaxie en 2 minutes

Vous ne vous êtes jamais dit qu'il était curieux de contempler des images spectaculaires et en couleurs de l'espace alors qu'Hubble envoie des images exclusivement en noir et blanc du fond de l'espace ? Eh bien ne vous étonnez plus et regardez plutôt comment faire vous-même votre galaxie.

mardi 23 novembre 2010

London 80 gigapixels

La plus grande photo (actuelle) du monde est un panoramique à 360° de Londres. Elle est tellement précise que certaines parties ont dû être censurées... Si l'on devait imprimer cette photographie à son niveau de résolution, elle serait longue d'une trentaine de mètres.
Pour la voir, c'est sur le site www.360cities.net

samedi 3 avril 2010

Paris 26 Gigapixels

Paris 26 Gigapixels est un assemblage de 2346 photos individuelles représentant une vue panoramique de très haute résolution de la capitale (354159x75570 px). Plongez dans l'image et visitez Paris comme jamais auparavant !
Et puisque c'est la période de Pâques, découvrez les Easter eggs qui y sont cachés...

mardi 28 octobre 2008

On peut retrouver les couleurs d'une image en noir et blanc

Qui n’a jamais rêvé d’ajouter de la couleur à ses vieilles photos noir et blanc ? On peut croire l'exploit impossible. Il a pourtant été réussi par une équipe franco-allemande. Etonnant...
Lors de l’édition 2008 de la European Conference on Computer Vision qui s’est tenue la semaine dernière à Marseille, une équipe de chercheurs (Guillaume Charpiat, Matthias Hofmann et Bernhard Schölkopf) ont présenté une nouvelle méthode permettant de convertir une image noir et blanc en une image couleur. Ce problème est difficile car il n’existe bien sûr pas de correspondance unique entre un niveau de gris et une teinte RVB (rouge, vert et bleu). Il est facile de convertir une photographie en couleurs en un cliché noir et blanc, mais le chemin inverse impose d'ajouter de l'information...
Plutôt que d’utiliser le niveau de gris, les trois chercheurs se basent sur l’information de texture et s'appuient sur une comparaison avec une image, choisie à l'avance, et qui présente des similitudes avec l'image en noir et blanc. Sur cet original, les textures associées aux régions de chaque pixel sont comparées à celles de l'image similaire en couleurs. Il devient alors possible d’établir certaines relations entre les textures des deux images et la couleur.


En haut à gauche (A), une image de La Joconde, convertie en noir et blanc. En B, une image similaire, en couleurs, choisie par les chercheurs. Il s'agit d'une reproduction de La Madone aux fuseaux, un tableau peint également par Léonard de Vinci. En C, la reconstitution des couleurs réussie par le logiciel, assez proche de l'original (D)... © G. Charpiat, M. Hofmann, B.Schölkopf / Montage Futura-Sciences

De cette manière, on peut estimer la probabilité qu’un pixel, appartenant à une certaine texture, ait une certaine teinte. Pour colorer l’image, le moyen le plus simple consiste alors à utiliser la couleur maximisant cette probabilité. Mais cette méthode, dite locale, introduirait du bruit dans l’image. En effet, il se pourrait que deux pixels voisins aient des couleurs très différentes.
Afin d’ajouter une cohérence à l'échelle de l’image, les auteurs assignent les couleurs des pixels de manière globale. Chaque coloration de pixel influe ainsi sur celle de ses voisins et le poids d’une couleur d’un pixel dépend de la probabilité associée à la texture de ce pixel. Les résultats obtenus sont très intéressants et les auteurs prévoient d’utiliser leur méthode pour la coloration de films.

Source : Futura-Sciences