Le cyberblog du coyote

 

Extra

Editorial

Ce blog a pour objectif principal d'augmenter la culture informatique de mes élèves.



lundi 6 janvier 2014

Tout savoir sur les cookies

Tout savoir sur les cookies ! from CNIL on Vimeo.

dimanche 29 décembre 2013

C'est quoi le big data ?

mercredi 18 décembre 2013

Les bots représentent 61,5 % du trafic web

Si vous lisez ce billet, il est plus probable que vous soyez un programme qu'un humain. Les humains ne représenteraient que 38,5 % du trafic web en réalité. Il s'agit du résultat d'une étude d'Incapsula (société spécialisée en sécurité). Les bots ont vu leur nombre progresser de 51 % l'année passée. Bien entendu, certains de ces programmes ne sont pas bienveillants : ils cherchent une faille pour voler des données et réaliser des opérations de spams/scams dans les commentaires.
Il n'empêche ! La majorité des bots sont « bienveillants ». Ils sont des outils des moteurs de recherche souvent, pour indexer le contenu ou réaliser des archives avant effacement, ainsi que des réseaux sociaux qui vont chercher des données lorsqu'un lien est partagé ou « aimé ». Les chiffres donnés ne sont pas absolus (ils représentent les clients de la firme), mais donnent la tendance avec justesse.
Les bots malveillants seraient en recul, notamment grâce au travail de sociétés comme Google. Il existe aussi des bots « faits maison » pour réaliser des attaques de surcharge serveur.
Évidemment, cet accroissement de visites de bots peut avoir un impact sur les serveurs, mais il faut relativiser celui-ci, d'autant que la puissance des serveurs augmente également.

Source : Sur-la-Toile

dimanche 30 décembre 2012

Le Knowledge Graph de Google est disponible en Français

Lancé en mai dernier, le Knowledge Graph de Google est une gigantesque base de données de 500 millions d’objets dont le moteur de recherche se sert pour associer les mots clés avec des éléments réels, afin de livrer des réponses plus pertinentes. D’abord disponible uniquement en anglais, ce service est désormais activé en français.

Puissant par sa taille (30.000 milliards d’URL uniques indexées), Google veut aussi l’être en se montrant toujours plus pertinent. Être capable de livrer des informations essentielles concernant un lieu, un monument, une ville, une personne célèbre, une œuvre, sans que l’internaute ait à cliquer sur des dizaines de liens dans les résultats de recherche, voilà ce que Google a cherché à faire avec son Knowledge Graph, à l'instar des fonctionnalités de Wolfram Alpha. Sous cette appellation se cache une nouvelle technologie de recherche, introduite en mai dernier aux États-Unis, et désormais disponible en français.
Le Knowledge Graph se matérialise par un nouveau panneau qui apparaît sur le côté droit d’une page de résultats lorsque la requête correspond à une « entité » avec laquelle le moteur de recherche a établi un lien. Tapez par exemple le nom du président de la République François Hollande et vous obtiendrez une fiche de synthèse indiquant ses date et lieu de naissance, sa taille, le nom de ses enfants, celui de sa conjointe, le tout accompagné d’une série de photos.

Plus de 500 millions d’objets pour le Knowledge Graph

« Le Knowledge Graph, c’est la définition d’entités et non plus de chaînes de caractères », a expliqué à Futura-Sciences un représentant de Google France. Ces « entités » sont en fait une gigantesque base de données de 500 millions d’objets (monuments, personnalités, villes, formations sportives, films, etc.) entre lesquels le Knowledge Graph a tissé plus de 3,5 milliards de faits et de relations. Ainsi, lorsque l’on tape « Tour Eiffel » dans Google, le moteur ne reconnaît pas simplement deux mots, mais une entité à laquelle il associe des attributs comme sa taille, sa date de construction, le lieu où elle se trouve, le nom de son concepteur…
Le Knowledge Graph peut aussi saisir qu’une requête peut recouvrir plusieurs réalités. « Taj Mahal » peut faire référence au célèbre mausolée indien ou bien au musicien de blues éponyme. Dans ce cas, il propose à l’internaute des résultats prenant en compte ces nuances pour lui permettent d’ajuster sa recherche en un clic. « Vos résultats sont plus pertinents, parce que nous comprenons ce que sont ces entités, avec les nuances de signification que cela implique, de la même façon que vous », explique dans un billet de blog Amit Singhal, vice-président chez Google.

L'internaute peut contribuer au Knowledge Graph

Adapter le Knowledge Graph à la langue de Molière a nécessité un « important travail d’ingénierie », nous a-t-on expliqué, afin d’associer la chaîne de caractères en français aux bonnes entités. De plus, les internautes peuvent contribuer à améliorer le système en signalant une erreur éventuelle dans une fiche de synthèse. Pour cela, il suffit de cliquer sur le lien « Signaler un problème » au bas du panneau.
Aussi puissant soit-il, le Knowledge Graph « n’est qu’un début », nous a assuré le représentant de Google France. « Cinq cents millions d’entités, c’est encore peu. Nous allons augmenter ce nombre et établir encore plus de relations entre les entités. » Mais jusqu’où veut aller Google ? La réponse d’Amit Singhal ne laisse aucun doute sur les ambitions du géant américain. « Nous sommes fiers, au travers du Knowledge Graph, de faire notre premier (tout petit) pas vers une recherche plus intelligente et plus proche de [quelque chose comme] l’ordinateur de Star Trek que j’ai toujours rêvé de construire. » Il reste encore beaucoup de chemin à parcourir pour que la réalité rejoigne la fiction…

Source : Futura-Sciences

samedi 3 novembre 2012

Explorer un Data Center de Google

jeudi 16 août 2012

Le Knowledge Graph de Google veut répondre aux questions

Au lieu de renvoyer une liste de sites Web, Knowledge Graph répond à la question posée par l'internaute. Déjà disponible aux États-Unis, ce nouvel outil est actuellement en cours de déploiement dans le monde entier mais seulement en langue anglaise.
Après l'avoir déployé sur la version américaine de son moteur de recherche, Google vient d'activer son Knowledge Graph pour l'ensemble de ses utilisateurs. Ce nouvel outil, explique Google, est la « première étape essentielle vers la construction d'une prochaine génération de recherches, qui puise dans l'intelligence collective du Web et appréhende le monde un peu plus comme les gens le font ».
Ce Knowledge Graph vise à mieux répondre aux requêtes de l'internaute et reprend les idées de Wolfram Alpha ou de Trapit. Plutôt que de retourner une liste de sites Web où se trouve l'information, cet outil y répond directement. Dans la vidéo de présentation, on peut voir un exemple avec la liste des musées et leurs horaires directement affichée dans le moteur de recherche.

Knowledge Graph s'appuie sur une énorme base de données

Selon Google, le Knowledge Graph permet à l'internaute d'obtenir plusieurs informations en lien avec sa requête. Dans le cadre d'une recherche sur Burj Khalifa, par exemple, Google retourne plusieurs données sur le gratte-ciel (hauteur, nombre d'étages, début des travaux, date d'ouverte, adresse, architectes, etc.) et de multiples photographies du bâtiment.
Le déploiement, à l'échelle mondiale, vient juste de débuter et Knowledge Graph sera accessible via le moteur de recherche. Google explique que les résultats puisent dans une gigantesque base de données et que les réponses dépendront de la localisation géographique de l'internaute.

Source : Futura-Sciences

dimanche 12 août 2012

Google modifie son algorithme pour contrer les sites pirates

Ce changement devrait aider les internautes à trouver plus facilement des sources de contenus légitimes et de qualité, assure Google.
Le groupe internet Google a annoncé vendredi une nouvelle modification de l'algorithme de son moteur de recherche, destinée à donner une plus grande priorité aux publications légales par rapport aux sites ayant fait l'objet de plaintes pour piratage. "A partir de la semaine prochaine nous commencerons à prendre en compte un nouveau signal dans nos affichages: le nombre de demandes de retrait pour violation de droit d'auteur", a expliqué le vice-président de l'ingéniérie Amit Singhal sur le blog du groupe.
"Ce changement devrait aider les internautes à trouver plus facilement des sources de contenus légitimes et de qualité - qu'il s'agisse d'une chanson diffusée sur (la radio publique) NPR, d'une émission de télévision sur (le site de diffusion en streaming) Hulu, ou de musique sur Spotify". "Les sites faisant l'objet de nombreuses demandes de retrait pourraient apparaître plus bas dans nos pages de résultats", a indiqué M. Singhal.

Des millions de demandes chaque jour

Les sites en question seront toutefois prévenus par Google afin de répondre aux accusations de piratage. Depuis que Google a remanié son système de repérage des droits d'auteur il y a deux ans, il est en mesure de recueillir beaucoup plus d'informations sur les programmes piratés qui apparaissent en ligne, selon M. Singhal.
Google affirme recevoir plus de demandes de retrait de contenu quotidiennes - 4,3 millions ces derniers 30 jours - qu'il n'en a reçues durant toute l'année 2009. Le vice-président de l'association des studios hollywoodiens (Motion Picture Association of America), Michael O'Leary, a exprimé l'espoir que ce changement éloigne les internautes des sites illégaux. "Nous étudierons de près ce changement", a-t-il dit, notant que "le diable se cache toujours dans les détails", a dit M. O'Leary.

Source : lci.tf1.fr

mardi 29 mai 2012

La recherche passe à l’ère sémantique

Intéressant article de Fred Cavazza sur l'évolution des moteurs de recherche.

lundi 7 mai 2012

Un visiteur sur deux vient d'un moteur de recherche

Le site Médiamétrie a publié cette semaine un rapport d'étude sur la provenance des visiteurs d'un site. Réalisé en avril dernier, le rapport a passé au crible les données de plusieurs sites afin de déterminer via quel moyen les internautes étaient arrivés sur les pages. Ainsi la plus grande partie des visites, un utilisateur sur deux, provient d'un moteur de recherche.
Dans le trafic restant, seulement 38% des internautes accèdent au site directement avec l'adresse URL, soit en la saisissant dans la barre, soit grâce à un favori. Presque 12% proviennent de liens externes, comme par exemple depuis un annuaire, ou encore depuis un autre site internet. Enfin, 0.3% des visiteurs viennent d'autres sources.
Du côté des moteurs de recherche, Google reste loin devant les autres. Avec plus de 9 visiteurs sur 10, les sites restant sont obligés de se partager seulement 10 petits pour cent. On retrouve donc ensuite, et dans l'ordre, Bing, Yahoo!, Search-Results, Babylon Search, ....

Source : Sur-La-Toile

jeudi 16 février 2012

Les internautes chinois priés de communiquer leurs noms

Le gouvernement chinois a adressé la semaine dernière aux internautes du pays un rappel vis à vis de la loi. À compter du 16 mars prochain, toute personne souhaitant poster un message sur une plateforme de microblogging devra être identifiée par son vrai nom et donc abandonner son pseudonyme ainsi que son anonymat.
Depuis le début de l'année déjà, ces services ont l'obligation de récupérer l'identité des internautes lorsque ces derniers s'inscrivent. Ce rappel vise donc les personnes disposant déjà d'un compte, mais n'ayant pas encore communiqué leur véritable identité. Le gouvernement justifie cette mesure en expliquant vouloir contrôler la circulation des données sur internet afin d'éviter la diffusion d'informations erronées.

Source : Sur-la-Toile