vendredi 6 septembre 2019
On vous présente Norman, la première intelligence artificielle «psychopathe»
Par coyote, vendredi 6 septembre 2019 à 08:20 - Intelligence artificielle
Une équipe de chercheurs au Massachusetts Institute of Technology (MIT) vient de créer la première intelligence artificielle psychopathe: Norman. Son nom est directement inspiré du personnage de Norman Bates mis en scène par Alfred Hitchcock dans le film Psychose. Vous savez ce personnage (attention spoiler) qui empaille sa mère et finit par s’habiller comme elle.
Les scientifiques du MIT Media Lab, un laboratoire dédié aux projets de recherche mêlant design, multimédia et technologie, ont entraîné Norman grâce à des descriptions écrites de photos et vidéos explicites montrant de morts violentes puisées dans les recoins les plus sombres de Reddit –un site communautaire qui propose du contenu absolument sur tous les sujets imaginables.
Norman: un scénario digne de la science-fiction
Norman est différent des autres intelligences artificielles. Après avoir été soumis au test de Rorschach, les scientifiques ont conclu que Norman était un «psychopathe». Grâce à une série de tâche d’encres, ce test est censé rendre compte de l’état psychologique d’une personne. L’équipe de scientifiques a comparé les réponses de Norman à celles d’une autre intelligence artificielle –elle aussi entraînée à interpréter des images et des vidéos. Là où l’IA standard voit «un vase avec des fleurs», Norman voit «un homme en train de se faire abattre».
«On a voulu montrer ce qu’il pouvait se passer si une intelligence artificielle tourne mal et les dérives possibles des algorithmes basés sur le deep learning (apprentissage profond). Les données utilisées pour créer ces algorithme ont une réelle influence sur le comportement de l’intelligence artificielle», lit-on sur le site web dédié à l'IA Norman.
En somme: si l’apprentissage de l’IA est basé sur la haine ou l’horreur, son comportement sera à cet image. En 2016, Tay le «chatbot» (robot conversationnel), créé par Microsoft, est devenu «un trou-du-cul raciste» au contact des utilisateurs de Twitter.
En seulement quelques heures, Tay est passé d’un tweet disant que «les humains sont super cools» à «Hitler avait raison, je déteste les juifs». En cause la capacité d'apprentissage de cette intelligence artificielle fondée sur les interactions avec les internautes. Si Tay est raciste c'est la faute de Twitter.
En 2016, Sophia, l'IA au visage humain, s'était aussi illustrée en déclarant vouloir «détruire l'humanité». Depuis, elle semble avoir changé d’avis et n’a pas manqué d’exprimer son amour pour «ses compatriotes humains». Si, un jour, les intelligences artificielles deviennent malveillantes et prennent contrôle de notre planète, on connaîtra les responsables: nous-mêmes.
Source : Aurélie Rodrigues sur Slate.fr
lu 1203 fois