Science et contrefaçon : quelques leçons d’autodéfense intellectuelle

image

Quatre hommes visitent l’Australie pour la première fois. En voyageant par train, ils aperçoivent le profil d’un mouton noir qui broute.

– Le premier homme en conclut que les moutons australiens sont noirs.

– Non, lui répond le second. Tout ce que l’on peut conclure est que certains moutons australiens sont noirs.

– Pas du tout, répond le troisième. La seule conclusion possible est qu’en Australie, au moins un mouton est noir !

– Non, objecte le quatrième homme. Tout ce qu’on peut dire, c’est qu’il existe en Australie au moins un mouton dont au moins un des côtés est noir !

J’ai écrit il y a quelques temps un article sur les théories du complot. Sur le même thème, j’aimerais élargir le débat aux questions de la méthodologie de l’argumentation. Inspiré par le livre du même nom (Norman Baillargeon), j’anime un cours d’autodéfense intellectuelle basé sur l’analyse quelques principes de base de l’argumentation, et donc de la science. Qu’est-ce qui est plus nécessaire que cela, dans nos débats sociaux toujours tronqués et sous-argumentés ?

1. Qu’est-ce que le travail scientifique ?

Nul besoin d’être un grand chercheur pour s’autoriser quelques rappels sur les points clés :

Toute recherche scientifique commence par une question, une interrogation. Elle porte sur un phénomène réel et vérifiable. Une question comme “Dieu existe-t-il ?” est intéressante à bien des égards et peut être étudiée rationnellement, il n’empêche qu’elle ne sera jamais une question scientifique parce que l’objet d’étude, “Dieu”, est invérifiable par les méthodes empiriques admises. Si l’objet d’étude n’est pas vérifiable maintenant, il doit pouvoir l’être plus tard, d’une façon ou d’une autre, avec l’évolution des instruments de mesure, par exemple. C’est le cas  de la découverte du boson de Higgs et de nombre d’autres avancées de la physique ou de la médecine, prédites théoriquement avant d’être découvertes empiriquement.

Le scientifique élabore des hypothèses, des réponses possibles aux questions correctement posées. Plusieurs hypothèses peuvent être concurrentes. Une bonne partie du travail scientifique consiste d’ailleurs à formaliser rigoureusement ces hypothèses, autrement dit à les énoncer clairement en évitant au maximum les hypothèses implicites. Un ensemble d’hypothèses reliées forment un cadre théorique, ou modèle, dans lequel on va pouvoir répondre à la question et faire des expérimentations. Ce cadre théorique est nécessairement une abstraction, c’est-à-dire une simplification de la réalité. En effet la réalité est constituée de millions d’éléments et de millions d’interactions : comment dégager causalités, corrélations et conséquences ? Abstraire, c’est toujours mettre de côté certaines caractéristiques, que l’on juge négligeable pour notre objet d’étude et son domaine d’application, pour obtenir un objet plus simple sur lequel on va pouvoir raisonner plus facilement. Le meilleur exemple est celui de la carte géographique. Une carte est nécessairement une simplification de la réalité : une carte “parfaitement réaliste” serait à l’échelle 1:1, et ne servirait donc à rien. Pour comprendre  et analyser la réalité, ici un territoire, on simplifie en construisant une carte plus simple que la réalité, sur laquelle n’apparaissent pas tous les détails (le petit caillou à côté du panneau de la départementale 21…) mais qui permet de comprendre cette réalité, but ultime de la science. Tous les scientifiques construisent donc des modèles, de l’économiste qui raisonne sur la base de la rationalité des agents au sociologue qui construit un “idéal-type” en passant par l’ingénieur qui modélise la réaction d’un combustible dans un four. La question de la pertinence et de la précision des modèles se pose toujours, mais reprocher à un modèle d’être “irréaliste” est à côté de la plaque. On notera que construire un modèle n’est pas simple (allez donc dessiner la carte de la France sans aucune connaissance en géographie…), ce qui justifie l’aphorisme : il est compliqué de faire simple !

Entre différentes hypothèses, ce sont ensuite les expérimentations qui tranchent. Par expérimentation j’entends tout travail empirique : de l’analyse du cancer sur des souris en laboratoire en passant par la collecte de données macrosociologiques, l’étude de statistiques économiques, la réalisation d’entretiens, les recherches cliniques, les expérimentations du CERN, etc. Les expérimentations se distinguent des expériences que nous faisons tous en utilisant nos sens en ce qu’elles sont menées avec un but précis (répondre à une question qu’on s’est posée au départ) et une méthode définie à l’avance (le cadre théorique et les instruments qui l’accompagnent). L’expérimentation dans des conditions rigoureuses est la spécificité du travail scientifique : il n’est pas le seul à faire des expériences et à se poser des questions sur la réalité, mais il est le seul à pouvoir y répondre rigoureusement.

Lorsqu’une expérimentation contredit une hypothèse, on ne jette pas directement l’hypothèse la poubelle. En particulier si celle-ci forme, avec de nombreuses autres hypothèses, un cadre théorique très vaste et solidement établi depuis longtemps (le modèle standard de la physique quantique, la relation croissance/chômage en macroéconomie, etc.). On revérifie plutôt l’expérimentation : une seule étude n’est pas suffisante pour trancher. On peut aussi amender le modèle, à la marge ou complètement (Einstein qui fait de Newton, considéré indépassable, un cas particulier d’une théorie beaucoup plus vaste). Ce qui prend du temps.

Ce résumé bref du travail scientifique ne doit pas être considéré comme strictement chronologique ou linéaire : il y a un aller-retour permanent entre théorie et empirie, expérimentations et analyse, données, faits et compréhension des faits, remise en question et progression, essais et erreurs, débats et contradictions. Gaston Bachelard, grand épistémologue français, estime que la science fonctionne par tâtonnements : il n’y a pas d’illuminations subites, la science apparait après « une longue histoire d’erreurs et d’errances surmontées ». Il est aussi possible de commencer par l’empirie directement : certaines découvertes sont faites par accident et ne sont théorisées et expliquées que plus tard. Il y a même un mot pour ça : la sérendipité.

Pas de rationalité à vide [sans s’appuyer sur des faits] ; pas d’empirisme décousu [sans organiser, relier et expliquer en théorisant les faits collectés]. Gaston Bachelard

Terminons en disant que nous savons, depuis Karl Popper, qu’un savoir scientifique est considéré comme vrai tant qu’il n’est pas contredit durablement par de nouveaux savoirs. La science ne consiste pas seulement à chercher les preuves en faveur de son hypothèse : c’est évidemment nécessaire mais insuffisant. Popper prenait le célèbre exemple des cygnes : prétendant que tous les cygnes sont blancs, je ne peux affirmer que c’est vrai que si j’ai vérifié tous les cygnes de la planète, que je suis certain qu’ils ne changent pas de couleur, etc. De plus, la seule apparition d’un cygne noir suffirait à contredire mon hypothèse et à la rendre caduque. Mon savoir pourrait donc être réfuté un jour. C’est justement ce qui le rend scientifique ! Un scientifique ne doit donc pas seulement chercher à prouver son hypothèse : il doit aussi chercher à la contrer pour voir comment elle résiste aux arguments adverses. En clair, un savoir scientifique est une hypothèse qui est réfutable mais qui a résisté jusque là à toute réfutation sérieuse.

2. Qu’est-ce qui fait la force d’un argument scientifique ?

Un argument scientifique repose sur cinq critères majeurs qui caractérisent la science :

  • La logique : une conclusion scientifique doit découler des données mises en évidence. Elle doit être la seule possible ou la plus probable. Sinon, l’argument se heurte à une critique interne : j’accepte tes hypothèses et tes données, mais je montre qu’elles ne conduisent pas forcément à la conclusion que tu tires. Nous avons aujourd’hui un réel problème avec ce critère car chacun cherche à faire dire aux statistiques ce qu’il souhaite, en oubliant au passage des principes de base de la statistique.

Je ne rappellerai que deux points essentiels :

Une corrélation entre deux variables n’implique pas une causalité. Deux variables peuvent évoluer en même temps sans que l’une soit la cause de l’autre.  Jugez vous-mêmes : beaucoup de corrélation entre des faits sont dues à un facteur commun (le temps, par exemple) ou tout simplement au hasard. Souvent nous voyons des coïncidences là où il n’y a que du hasard ! Le hasard est peu rassurant et nous avons donc tendance à minimiser son rôle, à établir des relations où il n’y en a pas. Mais bien des choses se produisent par hasard ! Savez vous quelle est la probabilité que, dans une pièce de 23 personnes, deux d’entre elles soient, par hasard, nées le même jour  ? Parfois, il y a bien une causalité mais elle est inversée : est-ce parce qu’ils font des réformes que certains pays sont en difficulté ou parce qu’ils sont en difficulté qu’ils font des réformes ? Les entreprises françaises n’investissent-elles pas assez parce qu’elles distribuent trop de dividendes ou distribuent-elles trop de dividendes parce qu’elles ne trouvent pas d’investissements rentables ? Ou bien une double causalité : les guerres causent les famines, mais les famines causent aussi les guerres. Est-on catholique parce qu’on vote à droite ou à droite parce qu’on est catholique, ou les deux ? Les femmes travaillent-t-elles plus souvent à temps partiel parce qu’elles éduquent les enfants ou éduquent-elles plus souvent les enfants parce qu’elles travaillent à temps partiel, ou les deux ? Attention donc à exercer un jugement prudent sur ce point.

Les données ne doivent pas être détachées de leur contexte. Si je vous dis “deux fois plus de glucides dans la tranche de pain A que dans la B  : il faut éviter la A” sans vous préciser que la A est deux fois plus grosse que la B, je ne vous ai rien appris. De même, si une étude titre “consommer le produit A augmente le risque de cancer de 50%”, sans vous donner le risque initial, on ne vous a rien appris. Si le risque initial était de 1 chance sur 1 million, et qu’il augmente de 50%, cela fait 1,5 chance sur un million. Dit comme ça, c’est beaucoup moins inquiétant.

  • La falsifiabilité : on l’a dit, la force d’un argument scientifique repose sur sa capacité à s’exposer à la critique, à être réfutable. C’est tout le problème des idéologies, qui refusent de s’exposer à la critique. Alors que le scientifique soumet son idée au réel, l’idéologue soumet le réel à son idée : si l’idée pose un problème, c’est la faute au réel, pas de l’idée. Exemples choisis : le freudisme qui explique tous les comportements par la pulsion sexuelle et qui refuse toute critique, le critique étant par avance disqualifié puisqu’il “refoule” (Popper considérait la psychanalyse comme non scientifique) ; le marxisme qui analyse toute la société sous l’angle de la lutte des classes dans les rapports de production, et qui disqualifie toute critique comme “bourgeoise” (ce que Marx faisait allègrement, et que les khmers appliqueront radicalement : tout intellectuel est un ennemi et l’ennemi doit être éliminé) ; le fanatisme religieux qui explique tout par le dogme/le livre saint et qui réfute toute critique parce qu’hérétique ; les théories du complot pour lesquelles toute critique est forcément manipulé par les médias/le gouvernement/les Américains/…, etc.
  • La réplicabilité : pouvoir reproduire les résultats. Une seule étude est insuffisante pour conclure qu’un médicament est efficace ou qu’un aliment est nocif. Avant de doubler à 140 sur l’autoroute ou de partir de chez vous pour trois semaines, ne vérifiez vous pas deux fois le rétroviseur et la fermeture des portes ? Conclure qu’on a un don de voyance parce qu’on a prédit le dernier lancé de dé est insuffisant : il y a une chance sur 6 que ce soit par hasard. Le réussir quatre fois de suite, par contre, permet d’exclure le hasard puisqu’il n’y a que 0,06% de chances que ce soit par hasard, soit un taux largement inférieur à la plupart des études scientifiques qui considèrent le résultat acceptable dès lors que la probabilité qu’il ait été obtenu par hasard (la fameuse “p-value”) soit inférieure à 5%. A condition que le dé ne soit pas truqué !
  • L’exhaustivité : toutes les données doivent être prises en compte (cf. contextualisation des statistiques). Prétendre qu’on est doué de pouvoirs surnaturels parce qu’on parvient à marcher sur des braises ou réaliser un tour particulièrement étonnant n’est possible que si l’on a exclu toute possibilité de trucage, d’entrainement préalable, etc. Rappelons que le bois est isolant de la chaleur, ainsi que la corne des pieds qui y est relativement insensible : en marchant à une allure raisonnable, de façon à ne pas être longtemps en contact avec le feu, et avec un peu d’entrainement, il est tout à fait possible de progresser pieds nus pendant quelques dizaines de mètres sur des braises.
  • La prédiction: le modèle scientifique doit pouvoir prédire, au moins en partie et avec une marge d’erreur quantifiée, ce qui va arriver. C’est un critère important que l’on oublie trop souvent. Pourtant il distingue l’astronomie, qui vous dit avec précision quand et à quelle distance et quelle vitesse la comète va passer près de la Terre, de l’astrologie, qui vous dit tout et son contraire pour que vous entendiez ce que vous avez envie d’entendre. Toutes les sciences doivent pouvoir prédire l’avenir dans une certaine mesure. En sciences humaines, on ne peut pas prédire aussi bien qu’en sciences de la nature mais on peut tout de même avancer des prédictions raisonnables, avec un degré de probabilité quantifiable : les économistes prédisent avec peu d’erreur le taux de chômage un an à l’avance et parviennent parfois à anticiper les crises ; un bon psychologue peuvent sans trop se tromper lister les quelques réactions humaines possibles à une situation donnée ; un bon politologue peut prévoir que des circonstances géopolitiques et sociales aboutiront à une révolution, etc.

La science se tient au final aussi éloignée du dogmatisme qui refuse toute idée nouvelle par principe, que du relativisme qui considère que toutes les idées se valent.

3. Huit arguments de merde sophismes

Terminons par huit arguments non recevables, c’est-à-dire des arguments qui n’en sont pas en raison d’une erreur de raisonnement majeur. Par ordre croissant d’importance :

  • Ceux qui confondent faits et valeurs, positif et normatif. Il n’est évidemment interdit à personne d’exprimer ses valeurs. Mais un minimum de rigueur devrait inciter journalistes, politiques et même scientifiques à distinguer, autant que faire se peut, ce qui relève dans leur discours des faits qui sont à leur connaissance, et des valeurs avec lesquelles ils interprètent ces faits. Un exemple qui m’a marqué : beaucoup de grands journaux ont ouvert des rubriques “analyse de faits” : les “Décodeurs” chez Le Monde, “Désintox” pour Libération… l’intention, amener de la raison et donc des données dans le débat public, est fort louable, mais dans le détail, on remarque que les articles publiés comportent des  biais : les sujets traités (qui va-t-on “décoder” ou “désintoxiquer” ?) sont en général orientés (…à droite), les données présentées sont soigneusement sélectionnées et surtout accompagnées de commentaires et d’interprétations parfois discutables, etc. Distinguer clairement faits et valeurs : ce serait plus clair pour tout le monde !
  • Ceux qui utilisent des termes volontairement connotés, ce qui incite l’auditeur à se faire une opinion formatée dès le départ : parler de “fidèles” n’est pas la même chose que “d’adeptes” ; évoquer un “collaborateur” au lieu d’un “salarié” tend à masquer la relation hiérarchique entre employeur et salarié. Et je ne parle pas des “remaniements ministériels” et autres “dégâts collatéraux”…
  • Ceux qui ne sont pas assez sourcés. Rumeurs et légendes sont le lot d’internet, alors on peut se souvenir de cette phrase de Kipling : n’admettez jamais rien à priori si vous pouvez le vérifier.
  • Ceux qui renversent la charge de la preuve : la médecine ne peut pas expliquer pourquoi madame X a été guérie, donc c’est un miracle ; Hollande est un mauvais président, Sarkozy en serait donc un excellent, etc. Critiquer la thèse adverse n’est pas suffisant : vous devez avancer des preuves positives en faveur de votre hypothèse.
  • Ceux qui généralisent hâtivement une expérience individuelle.
  • Ceux qui acceptent ou rejettent un argument sur la base de sa popularité (appel au peuple) : ce livre est populaire, donc mauvais ; ou inversement : tu critiques Michael Jackson  alors qu’il a vendu des millions de disques ? Ou bien : tout le monde fait cela (télécharger illégalement…), donc c’est acceptable.
  • Ceux qui acceptent ou rejettent un argument sur la seule base de la personne qui l’énonce (ad hominem). Si c’est Marine Le Pen qui le dit, c’est forcément faux ; si c’est telle chaine TV, c’est forcément de la manipulation ; si le Medef est pour, c’est mauvais ; s’il est riche, il ne peut pas être de gauche, etc. Cet argument peut se trouver dans l’autre sens : c’est l’argument d’autorité, où l’on accepte une idée sur la seule base de la personne qui l’énonce. Nulle intention chez moi d’assimiler toute critique d’une personne, et même toute suspicion a priori d’une personne à une attaque ad hominem. L’erreur argumentative n’est pas de critiquer une personne mais de considérer que l’émetteur d’un message est un argument suffisant pour critiquer le message.
  • Le plus important de tous : le faux dilemme. Cet argument consiste à présenter deux choix, volontairement déséquilibrés, de façon à faire admettre plus facilement l’un des deux. Exemple : si tu es contre augmenter le budget de la police, tu es pour l’insécurité en France ; si tu es contre augmenter le budget de l’Education, tu es pour l’ignorance ; si tu n’es pas content, tu n’a qu’à aller voir ailleurs (comme si on ne pouvait pas à la fois rester et ne pas être content, c’est-à-dire vouloir améliorer les choses) ; avec la somme que les États-Unis dépensent dans l’armement, on pourrait faire disparaitre telle maladie… ce genre de comparaison douteuse m’a toujours fait sourire : comme si on devait choisir entre tout investir dans le militaire ou tout investir dans la lutte contre le sida ! Forcément, avec un choix aussi déséquilibré, tout le monde préfère faire disparaitre le sida que d’acheter des armes, mais devinez quoi : les États-Unis dépensent dans l’armement et dans la lutte contre le sida. Ce faux dilemme se retrouve chez ceux qui jugent que la couverture de tel ou tel phénomène médiatique est insuffisante par rapport à tel ou tel autre : en gros, parler de foot ou de petits villages serait illégitime parce qu’à côté, il y a des morts à Calais et la Cop21. Comme si l’on devait forcément choisir entre parler de l’un ou de l’autre !
  • Une variante bien connue et toujours aussi pénible du faux dilemme : l’homme de paille. Cela consiste à récupérer les traits les plus caricaturaux de l’adversaire de façon à l’habiller en homme de paille, qu’il sera ensuite facile de brûler. Par exemple, si vous êtes communiste, il est plus facile d’avancer vos idées après avoir montré le capitalisme sous ses traits les plus caricaturaux, en choisissant soigneusement les faits à présenter : les périodes/pays où les inégalités augmentent, pas celles/ceux où elles/ils diminuent ; les entreprises les plus brutales avec l’environnement ou les salariés, pas celles qui font avancer la science, la médecine, la technologie, l’environnement ; les discours patronaux les plus caricaturaux, les salariés les plus précaires, pas les entreprises généreuses, les CDI et fonctionnaires gavés de protection sociale, etc. Il va de soi que si vous pensez l’inverse, par exemple vous avez une rancœur tenace contre les fonctionnaires, vous n’hésiterez pas à prendre pour exemple le plus caricatural des fainéants pour justifier a priori votre rancœur : on a ici un mélange d’homme de paille et de généralisation hâtive. Ou encore, si vous êtes un farouche anti-européen, vous prendrez quelques exemples de lois françaises appliqués sous directive européenne pour évoquer le « diktat de Bruxelles », en « oubliant » de rappeler que la très grande majorité des lois françaises (80%, d’après S. Brouard du CEVIPOF) sont adoptées sans contraintes européennes. Le principe de l’homme de paille est toujours le même : réduire une organisation, une personne, une idée, une théorie à quelques aspects volontairement choisis pour être excessifs, de façon à faciliter le brûlage de l’homme de paille (l’avance de ses propres contrarguments). Un réalisateur comme Michael Moore, bien connu pour ses documentaires engagés, en est un habitué, jusqu’à la manipulation : propos hors contextes et remontés, chiffres inventés ou exagérés, utilisation d’acteurs, etc. Au détriment évident de l’esprit critique ! On notera au passage toute la différence entre la technique de l’homme de paille et celle de la modélisation scientifique : le scientifique sélectionne des aspects de la réalité qui sont choisis parce qu’ils sont significatifs, représentatifs. Ce faisant, il simplifie car il ne peut prendre en compte tous les aspects de la réalité, mais il justifie sa simplification par l’objet de son analyse. Par exemple, l’objet de la géographie étant d’analyser des territoires, ne pas retenir les aspects les moins significatifs d’un territoire (l’arbre à côté de la cour de l’école de la rue sainte Marthe) est pertinent pour l’analyse. A l’inverse, l’idéologue extrait d’un phénomène ou d’une idée des aspects peu significatifs auquel il donne un sens tout à fait excessif, de façon à pouvoir plus facilement démolir cette idée/phénomène/système.

Conclusion

Nous ne sommes que des humains et il est illusoire de croire que nous pouvons éviter toutes les erreurs de raisonnement. Nous sommes remplis de biais psychologiques, de tendance parfois inconscientes à manipuler les autres et nous-mêmes, de fourvoiements volontaires et involontaires. La neutralité du chercheur n’existe pas (et n’est d’ailleurs pas souhaitable). L’objectivité existe, mais n’est jamais parfaite, surtout en sciences humaines. Heureusement, d’ailleurs : nous sommes des êtres de passions et pas seulement de raison ! Il est donc illusoire de croire qu’on peut se reposer uniquement sur la raison (ce serait d’ailleurs assez fatiguant), et dangereux de sombrer dans une attitude hypercritique, se méfiant de tout et de tout le monde, incapable de faire confiance.

Sachons seulement nous méfier des raisonnements trop faciles, des explications simplistes et des jugements sans nuances. Une question d’humilité ?

Une fois qu’on a pensé quelque chose, se demander en quoi le contraire est vrai. Simone Weil

5 réflexions sur “Science et contrefaçon : quelques leçons d’autodéfense intellectuelle

  1. Pingback: De l’identité française : rapide conclusion – Des hauts et débats

  2. Pingback: Note de lecture : Un certain Juif, Jésus (John P. Meier) (4/7) – Des hauts et débats

  3. Pingback: Idioties conspirationnistes – Des hauts et débats

  4. Pingback: Comment reconnaitre un fasciste – Des hauts et débats

  5. Pingback: Pourquoi je suis pro-européen (2/2) – Des hauts et débats

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s