L'efficacité des CAPTCHAs est remise en question par des chercheurs de Stanford, en effet, ceux-ci ont conçu un logiciel permettant de décoder beaucoup de CAPTCHAs, ces codes censés protéger les sites web contre l'utilisation de robots. Les CAPTCHAs sont en général considérés comme une barrière protectrice sûre, ce logiciel remet en cause cette barrière. Trois chercheurs de Stanford sont parvenus à décoder différents types de CAPTCHAs utilisés fréquemment sur Internet en développant des algorithmes inspirés de ceux utilisés par les robots pour s'orienter dans différents environnements.
Ce qui ressort est plutôt bluffant, le programme baptisé « Decaptcha » s'est montré plutôt efficace une fois lancé sur le Net en décodant 66% des CAPTCHAs proposés par le site Authorize.net, 70% de ceux utilisés par Blizzard Entertainment ou encore 73% de ceux de captcha.com. Mais ne s'arrêtant pas à ces sites, l'expérience a été moins concluante avec eBay (43%) ou encore Reddit (24%).

Pour aller plus loin: Elie Bursztein, Matthieu Martin, John C. Mitchell, Text-based CAPTCHA Strengths and Weaknesses, ACM Computer and Communication security 2011 (CSS’2011)

Sources : Sur-la-Toile, Clubic.com