Le cyberblog du coyote

 

Extra

Editorial

Ce blog a pour objectif principal d'augmenter la culture informatique de mes élèves. Il a aussi pour ambition de refléter l'actualité technologique dans ce domaine.

samedi 10 avril 2021

C'est la première fois qu'un robot apprend à marcher tout seul

Cassie, un robot bipède développé par Agility Robotics, a appris à marcher tout seul grâce à une nouvelle méthode mise en place par des chercheurs américains. Grâce à la combinaison de l'apprentissage par renforcement et de deux environnements virtuels, le robot a pu s'entraîner à marcher et a réussi à transférer ses acquis dans le monde réel.

Lire l'article d'Edward Back sur Futura

mardi 5 février 2019

5 choses que vous ignorez sur le deep learning

Le deep learning, ou apprentissage profond, n'est qu'une composante de l'intelligence artificielle et du machine learning. Inspiré du réseau de neurones humains, cette technologie s'applique déjà au quotidien dans les logiciels, les réseaux sociaux et bientôt dans les voitures autonomes. À cet effet, les cours de deep learning ou encore de machine learning ou d'intelligence artificielle sont de plus en plus prisés. La plateforme d'apprentissage de cours en ligne d'Udemy propose en effet une série de formations complètes en français sur ces sujets rencontrant beaucoup de succès auprès de l'audience française.

Lire l'article de la rédaction de Futura-Sciences.

jeudi 5 juillet 2018

L'IA de Google DeepMind apprend le travail d'équipe en jouant à Quake III Arena

DeepMind a enseigné à plusieurs IA à collaborer aussi bien entre elles qu'avec des humains en jouant au célèbre jeu vidéo Quake III Arena grâce à une technique d'apprentissage renforcé.

Lire l'article de Marc Zaffagni sur Futura Sciences

vendredi 8 décembre 2017

AlphaZero : l'IA de Google DeepMind devient imbattable aux échecs

DeepMind, filiale de Google, a fait une nouvelle démonstration des performances de son programme d'intelligence artificielle. AlphaZero, une variante d'AlphaGo qui pratique l'apprentissage par renforcement, n'a mis que quatre heures en partant des règles de base pour vaincre le meilleur programme de jeux d'échecs actuel.
Après avoir démontré l'implacable supériorité de son intelligence artificielle (IA) au jeu de go, DeepMind, filiale de Google, cherche désormais à rendre celle-ci plus généraliste. L'objectif est de créer une IA réussissant à accomplir des tâches complexes dans le monde réel avec un minimum de connaissances a priori. Pour cela, il faut que le programme puisse évoluer de manière autonome sans s'appuyer sur un apprentissage supervisé par des humains.
Il y a peu, DeepMind a fait un pas important dans cette direction avec AlphaGo Zero, une nouvelle version de son programme de jeu de go qui n'a mis que trois jours à vaincre son prédécesseur en pratiquant un apprentissage « tabula rasa » par renforcement (reinforcement learning, en anglais). AlphaGo Zero ne disposait que des règles du jeu et de la position des pierres sur le plateau. Partant de cette base, elle est allée encore un peu plus loin.
Dans un nouvel article scientifique, DeepMind dévoile ainsi AlphaZero, qui reprend le principe de l'apprentissage autodidacte par renforcement dans une approche moins spécialisée. En disposant pour seule base des règles des jeux d'échecs, de go et de shogi (variante japonaise des échecs), cette IA est parvenue à atteindre un « niveau de jeu surhumain » et à battre les meilleurs programmes existant dans ces trois disciplines.

AlphaZero a battu Stockfish en quatre heures

La performance est d'autant plus impressionnante qu'il lui aura fallu moins de vingt-quatre heures pour y parvenir :

  • Après huit heures d'entraînement et 21 millions de parties jouées contre lui-même, AlphaZero a battu AlphaGo-Lee, la première IA à avoir dominé un joueur humain.
  • Pour les échecs, AlphaZero n'a eu besoin que de quatre heures de pratique et 44 millions de parties pour vaincre Stockfish, l'un des meilleurs moteurs d'échecs actuels.
  • Deux heures et 24 millions de parties lui suffirent pour terrasser Elmo, le meilleur programme de shogi.
Cette polyvalence et cette rapidité rapprochent encore un peu plus DeepMind et Google de leur objectif : créer une intelligence artificielle généraliste susceptible de travailler dans des domaines concrets, notamment pour la science et la médecine. Google en retirerait aussi beaucoup d'avantages pour faire évoluer ses propres services. Le prochain grand défi pour DeepMind et sa maison mère sera de pouvoir battre les humains au jeu vidéo StarCraft.

Source : Marc Zaffagni, Futura-Sciences

lundi 4 décembre 2017

Une intelligence artificielle peut apprendre une langue sans aide humaine

Des chercheurs travaillant sur des projets indépendants ont créé des intelligences artificielles bilingues qui peuvent apprendre une nouvelle langue sans piocher dans un dictionnaire existant, et même sans intervention humaine. Une avancée remarquable.

Lire l'article de Marc Zaffagni sur Futura-Sciences

dimanche 7 mai 2017

Vous avez dit « machine learning » ? Quand l’ordinateur apprend à apprendre

Le terme a été défini dès 1959 par Arthur Samuel. Qu’est-ce que le machine learning ? Un champ d’études qui donne aux ordinateurs la capacité d’apprendre des tâches pour lesquelles ils ne sont pas spécifiquement programmés. En clair, il s’agit de tout un ensemble de méthodes de calcul s’appuyant sur l’expérience pour améliorer les performances des ordinateurs et leur permettre de faire de bonnes prédictions. Par expérience, il faut entendre les données collectées dans le passé, ce qui suppose de les étiqueter et catégoriser. Et la qualité comme la taille de la base de données se révéleront donc cruciales pour la précision des prédictions.
Ces dernières caractéristiques, le machine learning les partage avec la modélisation statistique. Là aussi, il s’agit d’abord de collecter des données et de s’assurer qu’elles sont « propres », c’est-à-dire sans lacunes, sans aberrations ou données non pertinentes. Et dans un second temps, ces données sont utilisées pour tester des hypothèses et faire des prédictions. L’objectif, alors, consiste à représenter des notions complexes en termes généraux, capables de décrire un grand nombre de phénomènes. Autrement dit, l’algorithme est statique : il lui faut un programmeur pour lui indiquer ce qu’il doit faire dire une fois les données rassemblées.
Avec le machine learning, le processus est inversé. Au lieu de nourrir un modèle avec des données, ce sont les données qui déterminent quel modèle doit être construit pour en comprendre la réalité sous-jacente. En d’autres termes, il s’agit de sélectionner et d’entraîner un algorithme, qui donc n’est plus statique. Dès que des données lui sont fournies, il les analyse et s’ajuste pour coller au mieux à la situation. Pour résumer, on peut dire que l’algorithme « apprend » à partir des données, et en extrait du savoir.
La méthode est donc basée sur l’itération. Un algorithme n’est en effet rien de plus qu’un ensemble d’instructions données à un ordinateur pour transformer des séries de données. L’apprentissage lui permet de faire des petits réajustements à chaque itération, jusqu’à ce qu’un certain nombre de conditions soient respectées. Et pour évaluer la robustesse d’un tel algorithme, on lui fournit généralement des données qui n’ont pas participé à cet entraînement, en regardant dans quelle mesure elles permettant d’avoir de bonnes prédictions.

L’apprentissage, une question de données

On l’a vu, les données jouent un rôle fondamental dans le machine learning. Mais plus que les données, c’est aussi leur structure qui va s’avérer déterminante dans le processus d’apprentissage. Avec des variantes suivant les méthodes. Nous vous en présentons trois.
En machine learning supervisé, l’ordinateur est entraîné sur des données bien catégorisées. Pour chaque entrée, nous connaissons la sortie correspondante. Par exemple, si nous voulons apprendre à un ordinateur à faire la différence entre un chien et d’autres animaux, nous allons poser des étiquettes (chien, pas chien). Cette tâche doit être effectuée par le programmeur, et une fois que l’algorithme aura appris la différence, il pourra classer les nouvelles informations qui lui seront fournies et déterminer s’il s’agit ou non d’un chien.
En s’appuyant sur le même principe, le machine learning supervisé peut concerner des tâches plus compliquées. Par exemple, reconnaître des chiffres ou des lettres manuscrits. Chaque personne n’écrit pas de la même manière le chiffre 1 ou la lettre A, là-dessus, aucun doute. Or, en alimentant l’algorithme avec un grand nombre de « 1 » ou de « A », on l’entraîne à distinguer les différentes variantes de ces symboles. Il apprend les variantes, et devient de plus en plus compétent pour les identifier. Et c’est ainsi qu’aujourd’hui, les ordinateurs sont meilleurs que les humains pour reconnaître des motifs manuscrits.

En machine learning non supervisé, la machine est entraînée sur un jeu de données sans catégories préalablement définies. L’algorithme ne sait donc pas ce qu’elles représentent. Et le processus d’apprentissage dépend de l’identification de motifs récurrents dans le jeu de données. Pour reprendre l’exemple avec les chiens, la machine va faire des catégories en examinant les caractéristiques qui reviennent d’une image à l’autre. Autrement dit, s’appuyer sur des méthodes d’inférence pour découvrir des relations et corrélations dans les images qui lui sont fournies, ce qui lui permettra ensuite de classer de nouvelles données.
Dernière méthode utilisée : l’apprentissage par renforcement, inspiré des recherches en neurobiologie. Une méthode qui se rapproche de la précédente, dans la mesure où les données ne sont pas non plus étiquetées quand elles sont fournies à l’algorithme. Avec une différence, néanmoins : chaque prédiction est évaluée comme étant vraie ou fausse. Et cette évaluation crée une boucle de retour d’information, qui permet à l’algorithme de savoir si la solution qu’il a choisie résout ou non le problème sur lequel il travaille. Il s’agit donc d’une version informatique de la méthode par essais et erreurs.
Cette méthode permet à la machine d’élaborer des stratégies. C’est-à-dire, de définir pour chacune d’elles un ensemble d’actions à valeur prescriptrice, par opposition au caractère descriptif du machine learning non-supervisé. On y a eu recours dans le travail de DeepMind, compagnie acquise par Google en 2014, qui a entraîné son algorithme à jouer à des jeux Atari.


Autre exploit récent dans le domaine : la création d’AlphaGo, qui a battu à 4 contre 1 le meilleur joueur de Go humain, un des jeux les plus complexes au monde.
Aujourd’hui, le machine learning est utilisé dans bien des domaines. Grâce à ce type d’apprentissage, les machines peuvent lire sur les lèvres plus rapidement que nous. Les voitures autonomes de Google fonctionnent-elles aussi grâce au machine learning. Et cette technologie a infiltré pratiquement tous les secteurs de la finance, qu’il s’agisse de gestion des portefeuilles, de détection des fraudes, des services clients, de l’analyse de l’actualité, ou de l’élaboration des stratégies d’investissement.

Source : The Conversation

mercredi 18 mai 2016

L’apprentissage automatique, ou comment les ordinateurs apprennent à partir des données

L’apprentissage automatique, ou machine learning en anglais, est le moteur de la Data Science. En fait c’est avant tout un champ d’étude de l’intelligence artificielle. La discipline est d’ailleurs relativement ancienne puisqu’elle voit ses origines dans les années 1950. Si le terme est aujourd'hui un Buzz Word, c’est parce que les récents progrès technologiques liés au Big Data accélèrent le développement d’outils permettant l’industrialisation de la Data Science.

Lire l'article de Somin Keith sur Decideo.

samedi 30 avril 2016

L’apprentissage profond : une idée à creuser ?

Il y a en science quelques buzz-words — littéralement « mots-rumeurs » — qui font la Une avant de céder la place au mot à la mode suivant. Le deep-learning — ou en français « apprentissage profond » — en est un.
En effet, des scientifiques ont su médiatiser cette méthode avec des résultats expérimentaux spectaculaires. Cette approche a permis plusieurs avancées majeures : la plus connue est sans doute le programme de reconnaissance des visages de Facebook, récemment c'est la victoire d'AlphaGo qui a fait la Une, mais cela s'applique aussi à des secteurs comme l'automobile avec NVIDIA qui fournit des outils d'aide à la conduite assistée et autonome (ADAS), ou la santé avec la recherche de cellules cancéreuses par la start-up DreamQuark, ou encore la reconnaissance de parole.

Lire l'article sur Interstices

vendredi 8 avril 2016

Le deep learning — Science étonnante #27

jeudi 10 mars 2016

Jeu de go : le champion du monde de nouveau battu par l'ordinateur de Google

Dans la partie de jeudi qui a duré 4h30, Lee Se-dol a échoué pour la deuxième fois à battre l'ordinateur de Google.
Un programme informatique conçu par Google a enfoncé le clou jeudi, au deuxième jour du combat de l'homme contre la machine. L'ordinateur a en effet remporté à Séoul la deuxième manche d'une série de cinq parties face au champion du monde du jeu de go.

Un "Everest" pour l'Intelligence artificielle

Au lendemain de sa première victoire contre le grand maître sud-coréen de la discipline, Lee Se-Dol, le superordinateur AlphaGo a prouvé en quatre heures et demie que sa réussite surprise de mercredi n'était pas due à la chance. DeepMind, filiale de Google qui a développé ce programme d'intelligence artificielle (IA), avait comparé le jeu de go, inventé il y a environ 3.000 ans en Chine, à l'"Everest" de l'IA. En 1997, l'ordinateur Deep Blue d'IBM avait créé la sensation en terrassant le champion du monde d'échecs Garry Kasparov.

Des coups "extraordinairement inhabituels"

Le défi semblait bien plus relevé pour la machine au jeu de go, dans lequel deux adversaires tentent d'occuper le plus d'espace sur un plateau quadrillé en plaçant alternativement des pions noirs et blancs. La taille du tablier - 19 lignes sur 19 - offre un nombre incalculable de configurations possibles, davantage qu'il n'y a d'atomes dans l'univers, dit-on. Ce qui signifie que l'intuition et la créativité sont essentielles pour gagner à très haut niveau. Deux domaines dans lesquels l'humain, croyait-on, était nécessairement supérieur à la machine.
Au final, c'est le champion sud-coréen qui, de nouveau, a été mis au supplice jeudi par les coups "extraordinairement inhabituels" de l'ordinateur, selon le commentateur et joueur professionnel Kim Seong-Ryong. "Si vous interrogez les 1.300 joueurs professionnels que comptent la Corée du Sud, le Japon et la Chine, aucun n'aurait choisi ces coups", a-t-il dit pendant cette rencontre diffusée en direct par les télévisions des trois pays.

Un ordinateur conçu comme le cerveau d'un humain

Le programme de Google utilise notamment "l'apprentissage profond" (Deep learning), méthode d'apprentissage automatique conçue sur la base de couches de "neurones" artificiels, imitant ceux du cerveau humain. Cette technique, conjuguée à l'augmentation de la puissance de calcul des ordinateurs et à la disponibilité d'énormes bases de données sur lesquelles entraîner les machines, a permis des avancées considérables. AlphaGo utilise des algorithmes lui permettant d'apprendre de son expérience.

Source : Europe 1

mercredi 9 mars 2016

L'ordinateur inflige un premier revers au grand maître du jeu de go

Un superordinateur mis au point par Google a créé mercredi la sensation en remportant à Séoul face au champion du monde du jeu de go la première manche d'un combat qui doit déterminer qui, de l'homme ou la machine, est le plus fort. Après trois heures et demie de partie dans un grand hôtel de la capitale, le grand maître sud-coréen Lee Se-Dol, qui domine la discipline depuis une décennie, a décidé de lâcher l'affaire, réalisant que cette première manche ne pouvait plus échapper à l'ordinateur AlphaGo. Cette machine surpuissante avait pulvérisé 5-0 en octobre le champion d'Europe Fan Hui. Mais, vu la différence de niveau entre ce dernier et Lee Se-Dol, rares étaient les experts de ce jeu inventé il y a environ 3.000 ans en Chine qui avaient enterré d'avance les chances du champion du monde. Les créateurs d'AlphaGo s'étaient pourtant montrés confiants, faisant valoir que leur bébé, qui utilise des algorithmes lui permettant d'apprendre de son expérience, était encore plus fort qu'à l'automne. "Je suis stupéfié par le résultat", a reconnu Lee Se-Dol après la partie. "AlphaGo a fait des coups qu'aucun humain ne fera jamais. Cela m'a vraiment surpris", a-t-il poursuivi, en ajoutant que l'ordinateur avait "parfaitement" fermé le jeu. "J'ai commis des erreurs dans les premiers moments du match, mais si je fais attention à cela, je pense que j'ai toujours des chances de gagner", a-t-il poursuivi. Au-delà, ce match sur cinq jours est aussi un test des progrès effectués depuis une dizaine d'années dans le domaine de l'intelligence artificielle (IA).

Tout le monde sous le choc

En cas de victoire d'AlphaGo, les craintes de certains scientifiques et entrepreneurs sur les risques de l'IA devraient être confortées alors que la puissance des ordinateurs double environ tous les deux ans. Comme l'enthousiasme de ceux qui en attendent des progrès importants. Le résultat du match est au moins aussi attendu à cet égard que celui qui s'était soldé, en 1997, par la défaite du champion du monde d'échecs Garry Kasparov contre l'ordinateur Deep Blue d'IBM. Mais la comparaison a ses limites. Car le go propose un défi tout autre à la machine. Dans ce jeu, les deux adversaires placent alternativement des pions (pierres) noirs et blancs sur les intersections d'un plateau quadrillé ("goban"). Le but est d'occuper le plus d'espace, en bloquant peu à peu les pions de l'adversaire et en les capturant. La taille du tablier -19 lignes sur 19- offre un nombre incalculable de configurations possibles -davantage qu'il n'y a d'atomes dans l'univers, dit-on. Ce qui signifie que l'intuition et la créativité sont essentielles pour gagner à très haut niveau. "Nous sommes très, très enthousiastes en ce moment historique, et très, très contents de la façon dont AlphaGo a joué", a déclaré après la partie Demis Hassabis, directeur général de DeepMind, qui a développé l'ordinateur. "Lee reviendra demain avec de nouvelles stratégies, en essayant autre chose", a-t-il poursuivi. "Il faudra voir ce qu'en fait AlphaGo." La bataille suscite un intérêt tel en Asie qu'elle est diffusée en direct par des télévisions sud-coréenne, chinoise et japonaise, ainsi que sur internet. "Tout le monde est sous le choc", a déclaré le commentateur sud-coréen de jeu de go Kim Seong-Ryong, lui même joueur professionnel. "Personne n'imaginait que cela puisse arriver." Alors qu'il y a quinze jours il pensait pouvoir "remporter une écrasante victoire, cette fois-ci du moins", Lee Se-dol avait toutefois paru douter un peu mardi après avoir été briefé sur le programme informatique. "A présent, je crois que je ne pourrai peut-être pas vaincre AlphaGo avec une marge aussi importante que 5-0. Je dois être un peu plus stressé", avait-il dit. Le programme de Google utilise notamment "l'apprentissage profond" (Deep learning), méthode d'apprentissage automatique conçue sur la base de couches de "neurones" artificiels, imitant ceux du cerveau humain. Cette technique, conjuguée à l'augmentation de la puissance de calcul des ordinateurs et à la disponibilité d'énormes bases de données sur lesquelles entraîner les machines, a permis des avancées considérables.

Source : afp

vendredi 26 février 2016

Une machine en boîtes d'allumettes qui apprend à jouer au morpion

En 1961, Donald Michie met au point MENACE, une des premières learning machines pour jouer au Tic-Tac-Toe - plus connu sous le nom de Morpion en France - construite à l’aide d’exactement 304 boîtes d’allumettes vides et de quelques billes de couleur.

Lire l'article sur Images des mathématiques

Il existe un simulateur de MENACE écrit en javascript.

mardi 23 juin 2015

L’apprentissage automatique : pas à pas !

Du 6 au 11 juillet, Lille accueille ICML (International Conference on Machine Learning), le rendez-vous annuel des chercheurs en machine learning, ce qu’on traduit souvent en français par apprentissage automatique ou apprentissage artificiel.

Lire l'article de présentation sur Binaire.

jeudi 2 décembre 2010

Quand la machine apprend le langage

Un article intéressant du Monde, qui analyse un article du New York Times, traitant de l'apprentissage de la langue par les machines.