Le cyberblog du coyote

 

Extra

Editorial

Ce blog a pour objectif principal d'augmenter la culture informatique de mes élèves. Il a aussi pour ambition de refléter l'actualité technologique dans ce domaine.

mardi 23 septembre 2025

OpenAI l’avoue : les hallucinations de ChatGPT ne disparaîtront jamais

Le dernier papier scientifique d’OpenAI, Why Language Models Hallucinate, acte une vérité dérangeante : les « hallucinations » des modèles de langage ne sont pas une anomalie, mais une conséquence incontournable de leur conception. Faut-il alors revoir nos attentes vis-à-vis de ChatGPT et de l’IA générative en général ? Et surtout, peut-on bâtir des usages critiques sur une technologie structurellement vouée à produire des erreurs ?

Lire l'article de Stéphane le calme sur Developpez.com

lundi 22 septembre 2025

Comment Grok, le chatbot de Musk, est devenu nazi

Les propos problématiques de Grok, l’intelligence artificielle du réseau social X, illustrent l’influence des idées de son créateur, Elon Musk, sur sa conception. Mais ils posent également la question des biais plus discrets que ses concurrents masquent derrière un vernis d’impartialité, incompatible avec le processus d’entraînement de ce type d’IA.

Lire l'article d'Aaron J. Snoswell sur The Conversation

lundi 15 septembre 2025

OpenAI explique pourquoi l’IA invente parfois des choses plutôt que de dire : « je n’en sais rien »

OpenAI affirme avoir compris que les grands modèles de langage récompensent les chatbots qui devinent et préfèrent inventer que de ne pas répondre.

Lire l'article d'Anna Desmarais & Jean Philippe Liabot sur Euronews

mardi 9 septembre 2025

Comment les modèles d'IA apprennent-ils à répondre à nos questions ?

Si l'on sait comment les modèles d'IA sont entraînés à l'aide de millions de données, l'on sait moins comment est encodée leur capacité à répondre à des consignes écrites. Comment les modèles d'IA apprennent-ils à répondre à nos questions ?

Ecouter le podcast sur France Culture

Et un graphique qui m'a interpelé. Le quotidien Aujourd’hui en France publie ce dimanche une enquête basée sur les données de NewsGuard qui révèle que les chatbots (ChatGPT, Perplexity, Meta…) produisent de plus en plus d’erreurs factuelles :

mercredi 3 septembre 2025

Apertus: un modèle de langage multilingue, ouvert et transparent

L’EPFL, l’ETH Zurich et le Centre national suisse de calcul scientifique (CSCS) ont annoncé hier la sortie d’Apertus, le premier modèle de langage de grande ampleur, multilingue et open source développé en Suisse. Il représente une étape majeure pour la transparence et la diversité dans l’intelligence artificielle générative.

Voir le communiqué de l'EPFL


Pour tester : https://chat.publicai.co/auth

mardi 2 septembre 2025

Notre ami ChatGPT a encore frappé : un suicide de plus à déplorer

Un adolescent de 16 ans s’est donné la mort en Californie. Ses parents tiennent ChatGPT pour responsable. Mais qu’est-ce qu’un chatbot a à voir avec une histoire de suicide ?

Lire l'article de Ny Ando A. sur lebigdata.fr