English Flag Deutsche Fahne Bandera española Bandeira brasileira Chinese flag

Le Vivant, notre vocation

logo de la diapo La grande école européenne d'ingénieurs dans le domaine du vivant et de l'environnement

La grande école européenne d’ingénieurs dans le domaine du vivant et de l’environnement 2010-2013 : NOUVELLE OFFRE DE FORMATION

logo de la diapo Pour relever les grands défis du XXIe siècle

Pour relever les grands défis du XXIe siècle développement durable, alimentation des hommes, gestion des ressources naturelles, gestion et préservation de l’environnement

logo de la diapo AgroParisTech

AgroParisTech propose une large palette de formations dans les champs du vivant, de l’agriculture, de l’alimentation et de l’environnement, formant les ...    lire la suite »

Partager cette page imprimante Facebook Twitter

Quel crédit accorder aux résultats d’une publication médiocre ?

La question est d’une immense impertinence, bien sûr, car on ne peut pas "soupçonner la femme de César" : les publications scientifiques sont notoirement fiables, et il ne faut pas en douter.
Pourtant le diable est tapi partout, et même dans ce monde des publications scientifiques. On voudrait tant penser que tous les scientifiques font de leur mieux pour arriver à des publications de bonne qualité ; on voudrait tant croire que le processus d’évaluation mis en oeuvre par les revues scientifiques permet la publication d’articles tous bons. Hélas, les faits sont là : pour des raisons innombrables, parmi lesquelles peut-être l’incitation à publier beaucoup, nombre d’articles scientifiques sont mauvais. Bien sûr, il y a des degrés, et, d’autre part, je n’ai pas de statistiques à produire pour étayer mes dires, mais entre les articles où manquent les indications méthodologiques, ceux qui ne donnent pas suffisamment de références, ceux qui n’ont pas évité les biais, la question se pose véritablement.
Et puis, il y a aussi les articles devenus mauvais, parce que l’on a compris, grâce aux progrès techniques, que des valeurs publiées étaient fausses. Par exemple, considérons le dosage des sucres dans les carottes. Naguère on extrayait les sucres pour les doser, mais ces techniques font toujours courir le risque que la totalité des molécules de sucres ne soit pas extraite, ou que des sucres soient modifiés lors de l’extraction... de sorte que la quantité mesurée est le plus souvent inférieure à la réalité. La technique ancienne est ce qu’elle est, et, dans un tel cas, les scientifiques qui ont fait de leur mieux pour la mettre en oeuvre ne peuvent être accusés d’avoir mal fait. C’est seulement l’affichage des résultats qui est à considérer : par prudence, les auteurs d’une analyse résultant d’une extraction sont avisés de publier que la quantité réelle est supérieure à la valeur mesurée... ce qui est une information un peu faible, car inférieure... de combien ?
Toutefois les mauvais articles le sont le plus souvent par manque d’informations pour justifier la production des résultats. Par exemple, dans les méthodes analytiques, il est très important de donner une foule de détails qui permettraient de reproduire les expériences et d’arriver au même résultat. Par exemple, quand on analyse du tissu animal ou végétal, nécessairement variable, il faut spécifier l’année de récolte, le climat local pendant la saison de culture, la durée de stockage des échantillons... Surtout il est essentiel de savoir qu’il y a une variabilité, entre les échantillons, d’une part, et, même, à l’intérieur d’un échantillon.
> Bref le monde est si complexe qu’il y a de nombreuses raisons pour lesquelles les articles publiés ne sont pas toujours de la qualité que l’on souhaiterait, et la question s’impose : que retenir de tels articles ? Que faire des résultats publiés ? Les jeter purement et simplement au panier ? Un de mes amis dit justement que "donnée mal acquise ne profite à personne". Je crois hélas qu’il a raison, et je me résous personnellement mal à utiliser, pour mes travaux, des résultats de mesure publiés dans un article insuffisant. On a le sentiment d’un immense gâchis, et la question est évidemment : comment l’éviter ?
La récente publication, par l’Académie des sciences, de recommandations aux évaluateurs de ne pas juger les scientifiques sur le facteur d’impact des revues où les articles sont publiés est importante, mais il faut aller plus loin : il faut inciter les scientifiques à publier lentement. Certes les indicateurs de productivité des institutions scientifiques baisseront, mais si le socle des connaissances en sort plus ferme, quel avantage pour tous !

AgroParisTech
16 rue Claude Bernard
F-75231 Paris Cedex 05
Tel: 33 (0) 1 44 08 18 43
Fax: 33 (0) 1 44 08 16 00
Localiser sur une carte

Se connecter
Intranet
Bureau virtuel
Annuaire, listes de diffusion
Cours en ligne AgroParisTech
Eduroam

Liens divers
Espace grand public
Actualités
Relations presse
Téléchargements
Adresses & plan d'accès
Contacts

Se repérer sur le site internet
Plan du site internet
Index des pages

Retrouvez nous sur
facebook ico twitter ico daylimotion ico Suivre la vie du site


Logo Universite Paris Saclay Logo du Ministère de l'Alimentation, de l'Agriculture et de la Pêche Logo de ParisTech Logo de Agreenium


2007-2017 © AgroParisTech - Mentions légales

Haut de page