Le cyberblog du coyote

 

Extra

Editorial

Ce blog a pour objectif principal d'augmenter la culture informatique de mes élèves. Il a aussi pour ambition de refléter l'actualité technologique dans ce domaine.

samedi 27 mai 2017

AlphaGo, l'ordinateur prodige au jeu de go, prend sa retraite

Le superordinateur AlphaGo de Google a battu samedi pour la troisième fois d'affilée le petit génie chinois du go, un jeu de stratégie asiatique, et va maintenant cesser de se mesurer aux humains, a indiqué son développeur.
AlphaGo l'a de nouveau emporté face au Chinois Ke Jie, 19 ans, dans la dernière partie d'une série de trois matchs disputés cette semaine à Wuzhen, dans l'est de la Chine.
Mais selon son développeur DeepMind Technologies, une filiale de Google spécialisée dans l'intelligence artificielle et située à Londres, ces trois parties sont les dernières qu'AlphaGo jouera contre un humain.
Désormais, les informaticiens à l'origine du logiciel vont s'attaquer "à relever de nouveaux défis et développer des algorithmes qui pourront un jour aider les chercheurs à résoudre certains des problèmes les plus complexes auxquels nous faisons face" dans le domaine médical notamment, a expliqué Demis Hassabis, le fondateur de DeepMind.
AlphaGo avait déjà fait sensation l'an dernier en battant le grand du jeu de go maître sud-coréen Lee Se-Dol par quatre parties à une. C'était la première fois qu'un logiciel écrasait un joueur chevronné lors d'un match entier.
La victoire d'AlphaGo avait été saluée comme une percée technologique pour les ordinateurs, désormais capables non seulement de conduire des voitures mais aussi d'aider l'humanité à résoudre quelques-uns des problèmes scientifiques, techniques ou médicaux les plus ardus. AlphaGo est ainsi doté d'algorithmes qui lui permettent d'apprendre de ses expériences.
Déjà en 1997, le champion du monde d'échecs Garry Kasparov avait été vaincu par l'ordinateur Deep Blue d'IBM.
Mais le défi pour la machine semblait bien plus relevé au jeu de go, dans lequel deux adversaires tentent d'occuper le plus d'espace sur un plateau quadrillé en plaçant alternativement des pierres noires et blanches.
La taille du tablier (19 lignes sur 19) offre un nombre incalculable de configurations possibles - davantage qu'il y a d'atomes dans l'univers - et le déroulement du jeu obéit à des concepts stratégiques qui vont au-delà du simple calcul mathématique, aussi puissant soit-il.
Ce qui signifie que l'intuition et la créativité sont essentielles pour gagner à très haut niveau. Deux domaines dans lesquels l'humain, croyait-on, était nécessairement supérieur à la machine.

Source : Sciences et Avenir.fr

jeudi 25 mai 2017

Jeu de go : AlphaGo remporte son premier duel contre le N° 1 mondial

À l'occasion du Sommet sur l'avenir du go qui se tient en Chine, l'IA AlphaGo de Google DeepMind s'est lancé dans une série de matchs qui le voit notamment affronter l'actuel numéro un mondial, le Chinois Ke Jie. Le premier duel a tourné à l'avantage de la machine, mais le combat fut serré.

Lire l'article sur Futura-Sciences

dimanche 7 mai 2017

Vous avez dit « machine learning » ? Quand l’ordinateur apprend à apprendre

Le terme a été défini dès 1959 par Arthur Samuel. Qu’est-ce que le machine learning ? Un champ d’études qui donne aux ordinateurs la capacité d’apprendre des tâches pour lesquelles ils ne sont pas spécifiquement programmés. En clair, il s’agit de tout un ensemble de méthodes de calcul s’appuyant sur l’expérience pour améliorer les performances des ordinateurs et leur permettre de faire de bonnes prédictions. Par expérience, il faut entendre les données collectées dans le passé, ce qui suppose de les étiqueter et catégoriser. Et la qualité comme la taille de la base de données se révéleront donc cruciales pour la précision des prédictions.
Ces dernières caractéristiques, le machine learning les partage avec la modélisation statistique. Là aussi, il s’agit d’abord de collecter des données et de s’assurer qu’elles sont « propres », c’est-à-dire sans lacunes, sans aberrations ou données non pertinentes. Et dans un second temps, ces données sont utilisées pour tester des hypothèses et faire des prédictions. L’objectif, alors, consiste à représenter des notions complexes en termes généraux, capables de décrire un grand nombre de phénomènes. Autrement dit, l’algorithme est statique : il lui faut un programmeur pour lui indiquer ce qu’il doit faire dire une fois les données rassemblées.
Avec le machine learning, le processus est inversé. Au lieu de nourrir un modèle avec des données, ce sont les données qui déterminent quel modèle doit être construit pour en comprendre la réalité sous-jacente. En d’autres termes, il s’agit de sélectionner et d’entraîner un algorithme, qui donc n’est plus statique. Dès que des données lui sont fournies, il les analyse et s’ajuste pour coller au mieux à la situation. Pour résumer, on peut dire que l’algorithme « apprend » à partir des données, et en extrait du savoir.
La méthode est donc basée sur l’itération. Un algorithme n’est en effet rien de plus qu’un ensemble d’instructions données à un ordinateur pour transformer des séries de données. L’apprentissage lui permet de faire des petits réajustements à chaque itération, jusqu’à ce qu’un certain nombre de conditions soient respectées. Et pour évaluer la robustesse d’un tel algorithme, on lui fournit généralement des données qui n’ont pas participé à cet entraînement, en regardant dans quelle mesure elles permettant d’avoir de bonnes prédictions.

L’apprentissage, une question de données

On l’a vu, les données jouent un rôle fondamental dans le machine learning. Mais plus que les données, c’est aussi leur structure qui va s’avérer déterminante dans le processus d’apprentissage. Avec des variantes suivant les méthodes. Nous vous en présentons trois.
En machine learning supervisé, l’ordinateur est entraîné sur des données bien catégorisées. Pour chaque entrée, nous connaissons la sortie correspondante. Par exemple, si nous voulons apprendre à un ordinateur à faire la différence entre un chien et d’autres animaux, nous allons poser des étiquettes (chien, pas chien). Cette tâche doit être effectuée par le programmeur, et une fois que l’algorithme aura appris la différence, il pourra classer les nouvelles informations qui lui seront fournies et déterminer s’il s’agit ou non d’un chien.
En s’appuyant sur le même principe, le machine learning supervisé peut concerner des tâches plus compliquées. Par exemple, reconnaître des chiffres ou des lettres manuscrits. Chaque personne n’écrit pas de la même manière le chiffre 1 ou la lettre A, là-dessus, aucun doute. Or, en alimentant l’algorithme avec un grand nombre de « 1 » ou de « A », on l’entraîne à distinguer les différentes variantes de ces symboles. Il apprend les variantes, et devient de plus en plus compétent pour les identifier. Et c’est ainsi qu’aujourd’hui, les ordinateurs sont meilleurs que les humains pour reconnaître des motifs manuscrits.

En machine learning non supervisé, la machine est entraînée sur un jeu de données sans catégories préalablement définies. L’algorithme ne sait donc pas ce qu’elles représentent. Et le processus d’apprentissage dépend de l’identification de motifs récurrents dans le jeu de données. Pour reprendre l’exemple avec les chiens, la machine va faire des catégories en examinant les caractéristiques qui reviennent d’une image à l’autre. Autrement dit, s’appuyer sur des méthodes d’inférence pour découvrir des relations et corrélations dans les images qui lui sont fournies, ce qui lui permettra ensuite de classer de nouvelles données.
Dernière méthode utilisée : l’apprentissage par renforcement, inspiré des recherches en neurobiologie. Une méthode qui se rapproche de la précédente, dans la mesure où les données ne sont pas non plus étiquetées quand elles sont fournies à l’algorithme. Avec une différence, néanmoins : chaque prédiction est évaluée comme étant vraie ou fausse. Et cette évaluation crée une boucle de retour d’information, qui permet à l’algorithme de savoir si la solution qu’il a choisie résout ou non le problème sur lequel il travaille. Il s’agit donc d’une version informatique de la méthode par essais et erreurs.
Cette méthode permet à la machine d’élaborer des stratégies. C’est-à-dire, de définir pour chacune d’elles un ensemble d’actions à valeur prescriptrice, par opposition au caractère descriptif du machine learning non-supervisé. On y a eu recours dans le travail de DeepMind, compagnie acquise par Google en 2014, qui a entraîné son algorithme à jouer à des jeux Atari.


Autre exploit récent dans le domaine : la création d’AlphaGo, qui a battu à 4 contre 1 le meilleur joueur de Go humain, un des jeux les plus complexes au monde.
Aujourd’hui, le machine learning est utilisé dans bien des domaines. Grâce à ce type d’apprentissage, les machines peuvent lire sur les lèvres plus rapidement que nous. Les voitures autonomes de Google fonctionnent-elles aussi grâce au machine learning. Et cette technologie a infiltré pratiquement tous les secteurs de la finance, qu’il s’agisse de gestion des portefeuilles, de détection des fraudes, des services clients, de l’analyse de l’actualité, ou de l’élaboration des stratégies d’investissement.

Source : The Conversation