Auteur : Anne-Marie Libmann

Le marché des moteurs de recherche «à modération humaine », comme les qualifie Phil Bradley sur son blog orienté internet & médias sociaux, n’en finit pas de mourir et de se régénérer. La disparition du moteur ChaCha coïncide avec l’arrivée d’Askwonder. Les interfaces et les business models varient mais ces moteurs reposent tous sur un même principe : le client sous-traite sa recherche d’informations (sur tous sujets) à une armée d’experts distants via un site web.

A priori effrayants, - on pense à tous les emplois détruits des vrais professionnels de l’information, remplacés par des cohortes de chercheurs incertains et surtout invisibles, - ces moteurs, de par cette perpétuelle renaissance, sont intéressants à plus d’un titre.

Ils sont d’abord la preuve vivante que les moteurs de type Google n’ont pas remplacé le besoin d’expertise et de médiation humaine face à l’outil. Même pratiquée dans des conditions dégradées, l’intervention humaine demeure nécessaire et elle est ici toujours reconnue et fortement valorisée, puisque ces moteurs se lancent à coût d’investissements importants.

Ensuite, il est extrêmement intéressant d’analyser le discours commercial de ces sites, qui mettent en jeu des arguments de vente centrés sur l’expertise humaine, la valeur professionnelle et le gain de temps pour les clients non spécialistes. Les chercheurs d’informations sont définis comme des personnes «qui savent rechercher» et leurs profils de bibliothécaire, journaliste, documentaliste, professeur,… sont mis en avant. Beaucoup de chiffres, impressionnants, sont communiqués pour démontrer la valeur de l’outil : le nombre de requêtes traitées (jusqu’aux milliards !), le total du nombre d’heures économisées pour les clients, les millions de pages vues par les chercheurs…

Un chiffre est particulièrement intéressant : la valorisation du nombre d’experts derrière la machine, comme si finalement le grand nombre d’employés avait une influence favorable sur la qualité de la recherche. On est ici très loin de la notion de spécialisation des professionnels de l’information « classiques » dans les entreprises ou bibliothèques, et on constatera globalement qu’on est en fin de compte toujours dans la même logique promue par Wikipédia : la connaissance de la foule est supérieure à celle de l’individu.

Beaucoup d’autres questions se posent bien sûr, en particulier autour de la relation entre le client et ce nouveau type d’expert anonyme.

Tout cela donne sérieusement envie de tester, avec une vraie méthodologie, la performance réelle de ces «moteurs humains», et de continuer à réfléchir sur la spécificité du métier de l’information. C’est ce que nous ferons dans un prochain article de notre revue BASES.

La revue bimestrielle Netsources s'adresse à tout professionnel souhaitant mettre en place un système de veille performant pour répondre à des problématiques dans son secteur d'activité.

En 2016, nous avons abordé les sujets suivants :

  • des panoramas de sources d’informations : « Blog Corporate : sources d’informations stratégiques ou simples instruments de com », « Les ressources cachées des collectivités territoriales », « La recherche d’informations financières et stratégiques sur les entreprises » ou encore « Les publications des Think Tanks : une autre face du monde de l’information », etc
  • des articles méthodologiques : « Veille à l’international : comment trouver les bonnes sources d’informations locales », « Géolocalisation : peut-on faire une recherche « neutre » avec Google ? », etc
  • des cas d’étude : « Veille stratégique : les meilleures sources pour détecter des projets en amont », etc
  • des articles détaillés et des comparatifs d’outils de veille et de curation : Radarly, Elcurator, Visibrain, Knowledge360
  • Des articles de fond et présentation d’outils pour la Due Diligence et la Business Intelligence (BI)
  • Des listes de sources 2.0 par secteur d’activité : secteur pharmaceutique, industrie automobile
  • Des fiches clé en main de sources d’informations locales par pays : Ukraine, Iran et Indonésie
  • Des comptes-rendus de salons et conférences : ICI 2016

L’index 2016 complet et détaillé des articles parus dans NETSOURCES est disponible et téléchargeable ici : Index_NetSources_2016.pdf

Pour en savoir plus sur nos revues BASES et NETSOURCES

Scopus, la base de données bibliographique d'Elsevier, vient de lancer CiteScore qui est un outil d'évaluation des publications basé sur le nombre de citations.

Auteur : François Libmann

Le calcul est simple : pour l'année 2015, par exemple, CiteScore compte les citations en 2015 de documents de tous types publiés en 2012, 2013 et 2014 et référencés dans Scopus, à l'exclusion des articles "in press" qui ne comportent pas de référence.

Des métriques complémentaires à CiteScore sont également disponibles.

Elsevier, qui produit ces outils, fait remarquer que 11000 publications sur les 22256 référencées (sans compter les livres) ont un CiteScore et pas de "Journal Impact Factor".

Lien : https://journalmetrics.scopus.com