Ce blog a pour objectif principal d'augmenter la culture informatique
de mes élèves. Il a aussi pour ambition de refléter l'actualité technologique dans ce domaine.
Si l'on sait comment les modèles d'IA sont entraînés à l'aide de millions de données, l'on sait moins comment est encodée leur capacité à répondre à des consignes écrites. Comment les modèles d'IA apprennent-ils à répondre à nos questions ?
Et un graphique qui m'a interpelé. Le quotidien Aujourd’hui en France publie ce dimanche une enquête basée sur les données de NewsGuard qui révèle que les chatbots (ChatGPT, Perplexity, Meta…) produisent de plus en plus d’erreurs factuelles :
L’EPFL, l’ETH Zurich et le Centre national suisse de calcul scientifique (CSCS) ont annoncé hier la sortie d’Apertus, le premier modèle de langage de grande ampleur, multilingue et open source développé en Suisse. Il représente une étape majeure pour la transparence et la diversité dans l’intelligence artificielle générative.
Un adolescent de 16 ans s’est donné la mort en Californie. Ses parents tiennent ChatGPT pour responsable. Mais qu’est-ce qu’un chatbot a à voir avec une histoire de suicide ?
OpenAI a annoncé un GPT-5 révolutionnaire, une IA capable d'écraser sa concurrence dans tous les domaines. Après un week-end entier de test : c'est un flop total.
OpenAI sait que vous confondez parfois ChatGPT avec votre psy, votre médecin ou votre coach de vie. L’entreprise américaine ne cherche pas forcément à dissuader cet usage. Cependant, elle apporte dès à présent des ajustements pour éviter des réponses problématiques si vous allez (très) mal.
Cet été, l’EPFL et l’ETH Zurich mettront à disposition un grand modèle de langage (LLM) développé sur des infrastructures publiques. Entraîné sur le supercalculateur «Alps» du Centre Suisse de Calcul Scientifique (CSCS), ce nouveau LLM marque une étape clé pour l’IA open source et la maîtrise multilingue.
nstaller une IA en local pour utiliser un “ChatGPT” sans partager de données ni alourdir l'impact écologique, une bonne idée ? Voici le récit d'une expérimentation aux confins de la technologie et de la sobriété numérique.
Certaines des intelligences artificielles (IA) dotées de capacités de raisonnement avancées adoptent des comportements douteux, parfois en désobéissant directement aux requêtes. De quoi soulever de nombreuses questions…
Cameron R. Jones et Ben Bergen ont mené deux études indépendantes, auprès de 126 étudiants en psychologie et de 158 utilisateurs de la plateforme Prolific. Les résultats sont sans appel : lorsque GPT-4.5 adopte une personnalité simulée – celle d’un jeune introverti maîtrisant la culture internet – il est perçu comme humain dans 73 % des cas (69 % chez les étudiants, 76 % sur Prolific), surpassant significativement les humains réels. Ce résultat est historique : pour la première fois, une IA réussit un test de Turing classique, et ce de façon répétée et documentée.
Anthropic (créateur de Claude) a lancé une grande étude pour (enfin) comprendre comment fonctionne les LLM. Les grands modèles de langage présentent des capacités impressionnantes. Cependant, leurs mécanismes demeurent pour la plupart inconnus. Leur nature « boîte noire » est de moins en moins satisfaisante à mesure que leur intelligence progresse et qu'ils sont déployés dans un nombre croissant d'applications. L'objectif de l'étude est de rétroconcevoir le fonctionnement interne de ces modèles afin de mieux les comprendre et d'évaluer leur adéquation.
Johan Puisais en parle dans cette vidéo :