De nombreux indicateurs existent. Ils permettent une évaluation du niveau des
publications réalisées par un chercheur ou une équipe en fonction du facteur
d’impact de la revue, de la place du chercheur dans la liste des auteurs, ce que
réalise, par exemple, le score SIGAPS/SAMPRA4,.
Ils permettent aussi d’évaluer la notoriété du chercheur au travers de la mesure des
citations de ses publications par les laboratoires qui y font référence (avec
Publons
5, ou le Web of Science
6,). C’est le rôle du facteur h7 et de ses variantes (facteur g d’Egghe). Mais
aucun ne permet de distinguer les deux types de recherche, disruptive et
confirmatoire, et si l’article cité (et donc son auteur/ses auteurs) relate une
recherche originale influençant un paradigme, ou s’il s’agit d’une revue de la
littérature que toute la communauté citera. Dans les deux cas, le taux de citations
sera important, mais les conséquences sur les recherches ultérieures seront
fondamentalement différentes.
Pour construire un indicateur capable de réaliser cette distinction, deux stratégies
sont possibles. La première est dictée par les données accessibles. Il est possible
de construire un corpus d’articles contenant des articles relatant une recherche
disruptive (par exemple les articles qui ont justifié qu’un auteur/une auteure
obtienne un prix Nobel versus des articles très bien cités mais qui
en fait ne participent pas à la création d’un nouveau paradigme). Des techniques
d’apprentissage des règles permettant de distinguer entre ces deux sous-ensembles
d’articles sont alors mises en place et on utilise ensuite ces règles pour classer
l’ensemble des articles publiés. Une autre possibilité consiste à prendre en compte
le temps dans l’analyse. Plus le temps passe, moins l’article sera cité, sauf s’il a
contribué réellement à l’avancée de la connaissance et est toujours d’actualité, le
facteur d’impact de la revue dans laquelle il a été publié ne semblant pas un
critère de longévité [1]
(→)
→ Voir le Dossier technique de L. Baudoin et al., m/s octobre
2004, page 909
L’autre stratégie est fondée sur l’établissement d’un modèle. C’est celle qu’ont
présentée Wu et al. dans un article publié dans la revue
Nature [2], commenté par P Azoulay [3]. Ils décrivent et valident un indice reposant sur les
citations, qui avait été proposé précédemment pour les brevets [4].
L’hypothèse des auteurs est de définir la nature de l’article par les citations qu’il
engendre : citation de l’article lui-même ou citation des références de cet article.
Considérons un article X publié par John Doe et l’ensemble Y des
articles qu’il cite en référence. Si cet article est cité par des publications Z qui
ne font référence à aucun ou peu d’articles de l’ensemble Y, alors il sera considéré
comme un article relatant une recherche disruptive, c’est-à-dire un article original
et perturbateur. Inversement, si l’article Z, qui cite Doe et al.,
cite un grand nombre de références de l’ensemble Y, l’article princeps de Doe
et al. sera alors considéré comme relatant une recherche
confirmatoire, reprenant des données originales (fournies par l’ensemble Y) et les
confirmant ou les synthétisant. C’est sur cette idée que Wu et al.
ont construit un indicateur prenant une valeur qui sera comprise entre – 1
(correspondant à une recherche confirmatoire) et + 1 (recherche disruptive) (voir
Encadré ci-dessous).
Construction de l’indicateur D pour l’article X Considérons un article X. Celui-ci peut être cité par un article Y et celuici
ne citera pas les références citées dans l’article X. L’article Z sera dans
l’ensemble i. L’article Y cite l’article X et cite aussi les références de l’article X. Il
sera dans l’ensemble j. Enfin, l’article Y ne cite pas l’article X mais cite les références de
l’article X. Il sera dans l’ensemble k. Soit ni, nj et nk le nombre d’articles de chaque ensemble i, j, k,
l’indicateur D pour l’article X est défini par :
|
Wu et al. ont validé cet indicateur sur un corpus d’articles, comme
défini dans la première stratégie. Ils l’ont utilisé pour associer aux articles
référencés dans le Web of Science entre 1900 et 2014 (soit près de
26 millions d’articles), le nombre D (compris entre – 1 et 1) illustrant le niveau
de recherche disruptive.
Intuitivement, on considère qu’un article relatant une recherche disruptive (D = 1)
se détachera des articles qu’il cite en référence et sera donc cité pour lui-même
car considéré par le lecteur comme suffisamment perturbateur du paradigme :
lorsqu’il sera cité, il ne sera pas associé aux articles qu’il a cités puisque le
travail relaté ne sera pas une confirmation d’un travail précédent qui serait dans
les références. À titre d’exemple, le score de disruption obtenu par l’article de
J.D. Watson et F.H. Crick, paru dans Nature en 1953 [5], est de 0,88, proche de 1.
Il s’agit donc d’un article hautement cité qui entre dans la catégorie des articles
perturbateurs. Le nombre de citations de cet article8, était, en 2019, de 6 380, d’après Nature
9, et de 12 809 d’après Google
Scholar
10, ce dernier étant plus enclin à compter les
citations par tout type d’article.