Nous fêtons, cette année, le centenaire de la naissance d’un extraordinaire excentrique. Celle du mathématicien et ingénieur Claude Shannon. Né dans le Michigan en 1916, Shannon est l’un des fondateurs essentiels de la révolution numérique, et de la naissance de l’informatique, avec ses alter ego ; Alan Turing et John von Neumann. Shannon est le premier qui emploie l’expression « théorie de l’information ». Cela en 1948, dans un article intitulé : « A Mathematical Theory of Communication ». La curiosité du mathématicien américain la porte vers des domaines, ou des objets, aussi divers que la science du codage des messages, la cryptographie. La construction de machines intelligentes. Comme cette souris mécanique, capable de retrouver son chemin dans un labyrinthe. Mais aussi le jonglage, voire la maîtrise de la moto. Monocycle qu’il utilise quand il se promène dans les couloirs du Massachusetts Institute of Technology.

Ecouter le podcast de France Culture.