philosophie sciences - surinite0.magix.netsurinite0.magix.net/public/pdf/aps.pdf · 7 introduction...

308
Frédéric Mathieu Philosophie des Sciences Annuaire Montpellier 2015. Tous droits réservés.

Upload: others

Post on 20-Oct-2019

1 views

Category:

Documents


0 download

TRANSCRIPT

Frédéric Mathieu

Philosophie des

Sciences

Annuaire

Montpellier 2015. Tous droits réservés.

2

3

(S)avant-propos

Fiches de lecture revisitant de manière synthétique les principales

contributions aux grandes questions de la philosophie

(/sociologie/ethnologie) des sciences et de l’épistémologie, classées par ordre

alphabétique d’auteur.

Il va sans dire que cet « annuaire » n’a pas la prétention de dresser un

catalogue complet de la production intellectuelle autour et sur les sciences

depuis les lumières grecques. Toute tentative hasardée en cette direction ne

peut être que partielle et sélective ; disons-le : partisane. La nôtre n’y fait

pas exception. Écrire c’est renoncer (Alain) ; c’est faire des omissions et

œuvre de modestie. Les auteurs rencontrés s’inscrivent de fait dans des

contextes différents et des courants qui ne le sont pas moins. C’est tout au

plus si l’on peut s’épargner de négliger les plus illustres… et ne pas

défigurer les autres. Ne sont évoqués en conséquence que les œuvres et les

notions ayant fait date dans le domaine de la philosophie, sociologie ou

anthropologie des sciences, de la logique ou de l’épistémologie. Leur sont

adjoints quelques jalons majeurs de l’histoire des sciences, justiciables des

inflexions imposées à celle-ci.

Il va de soi que le classement alphabétique retenu ne permet pas de

faire ressortir avec toute la finesse que l’on pourrait souhaiter les liens, les

influences et les ruptures entre ce qu’il y a lieu d’appeler des interlocuteurs

– tant il est vrai que la pensée est avant tout dialogue (serait-ce un dialogue

de sourds) et que la réflexion ne s’alimente pas de vide. L’atout du genre est

aussi sa limite. C’est là pourquoi nous invitons notre lecteur à lire en cet

« annuaire » – base de travail toujours améliorable – le complément

pédagogique à une introduction systématique et raisonnée à la philosophie

des sciences. Gageons qu’il en existe de qualité.

4

5

Sommaire

Introduction ......................................................................................................7

Abécédaire .........................................................................................................9

Bibliographie ................................................................................................. 283

Index des auteurs .......................................................................................... 297

Table des points ............................................................................................. 301

Du même auteur ........................................................................................... 303

6

7

Introduction

La première occurrence du terme « science » dans la littérature

française est attestée dans La Chanson de Roland, datée de 1080. « Puis sunt

muntez e unt grant science », relate le barde Turold, l’auteur

pseudépigraphe, « ils montent en selle et manœuvrent savamment ». Le

héros éponyme répugne à sonner de l’olifant pour avertir son roi, et

s’apprête à livrer sa plus épique bataille. Les Sarrasins commandés par

Marsile submergent l’arrière-garde. Ils y laisseront leurs plumes ; Roland

paiera le prix du sang. La « science » – devenue technè, habileté

professionnelle – a pour sa part perdu le sens de « savoir théorique »

véhiculée par le latin scientia, équivalent de l’épistémè grec. Elle ne le

retrouverait que trois siècles plus tard.

Il n’est plus aujourd’hui possible de confondre science et conscience,

science et technique, quand la première se veut synonyme de

« connaissance », grevée de l’imaginaire et des valeurs qu’elle dénote

aussitôt (car nous sommes « éduqués » à n’en jamais douter) : rigueur,

méthode, exactitude, sincérité, recul et objectivité. Ce panorama laisse en

jachère un large territoire de la science « en train de se faire », et méconnaît

(refoule ?) complaisamment d’autres facteurs et composantes de son histoire

réelle. Parmi ceux-ci, et non des moindres : le rôle de la magie, de la pensée

médiévale, des philosophes arabes, de l’Inquisition, de la superstition ;

traditions sulfureuses injustement bannies du discours légitime sous le

chiffre du Nouveau Régime, prônant la « raison triomphante » au flambeau

des Lumières. Après le « miracle grec » (Renan), celui de la « modernité ».

Devons-nous croire à la vertu des scientifiques comme le séminariste

candide à la virginité de Marie ? Ce serait oublier que la science est une

chose trop humaine pour être laissée à des Saints. Cette « chrestomathie »

sans prétention sera l’occasion de faire œuvre de révisionnisme scientifique

– de « rétablisme », à supposer qu’il ne soit pas déjà trop tard pour demeurer

politiquement correct. Et de rendre toute sa place à l’heuristique du doute, à

l’invention, à la spéculation, aux découvertes par sérindipité, aux querelles

8

scientifiques ; en bref, aux dimensions sociologiques, philosophiques,

religieuses, politiques d’un art trop souvent caricaturé, en proie à toutes les

formes de reconstruction.

9

Abécédaire

Alhazen (965- 1039)

Principales contributions :

- Discours sur la lumière (= Traité d’optique) (1021)

Concepts et idées-forces :

- Ibn al-Haytham, dit Alhazen, ingénieur, astronome, médecin,

physiologiste, mathématicien, spécialisé dans les travaux d’optique.

Promoteur de la méthode expérimentale dont il expose les lignes de force, il

fut aussi l’un des premiers à associer les mathématiques à la physique. Le

nombre de ses traités oscille entre 80 et 200. Bradley Steffens veut

reconnaître en lui le premier véritable scientifique (cf. Ibn al Haytham. The First Scientist, 2006).

- Dans le domaine de l’optique géométrique et physiologique, il s’intéresse

au phénomène de la lumière. Celle-ci est renvoyée dans l’œil par les objets,

non pas émise de l’œil pour embrasser les choses comme l’enseignait

l’optique de Ptolémée. Ou bien la nuit ne ferait pas obstacle à la vision. Six

ans furent nécessaires (1015-1021) pour accoucher de son œuvre majeure

(ou l’une des rare qui lui ait survécu), le Discours sur la lumière.

Démonstration y est faite de la théorie aristotélicienne dite de

l’ « intromission ».

- Roger Bacon et Vitellion (De perspectiva) auront été les principaux relais

de sa doctrine en Occident chrétien. Lui en savent gré de nombreux auteurs

de la Renaissance et artisans de la révolution scientifique, dont Johannes

Kepler.

Aristote (384-322 av. J.-C.)

Principales contributions :

- Organon : Catégories ; De l’interprétation ; Premiers Analytiques ; Seconds Analytiques (= Topiques) ; Réfutations sophistiques

10

- Ouvrages de physique : Physique ; De l’âme ; De la génération et de la corruption ; Sur l’Univers ; Traité du Ciel ; Météorologiques ; Parties des animaux

- Métaphysique (Livres A-Z)

Concepts et idées-forces :

- Recherche des principes, des causes premières, de la loi non-manifeste qui

rend raison du manifeste. Ainsi sauve-t-on les phénomènes, selon le mot Métaphysique, Alpha, 8. Dans le contexte de l’astronomie : en découvrant

les rapports rationnels, les régularités et les lois invisibles qui administrent

le monde supra-lunaire. En dépassant le désordre apparent des phénomènes

célestes. La connaissance doit s’attacher à mettre en évidence une

rationalité que manifestent les mouvements du ciel, l’intelligible du

sensible, présent dans le sensible.

- Méthode analytique. Procède par décomposition en éléments des

phénomènes qui sont toujours déjà complexes, entremêlés. La définition se

présente ainsi comme l’analyse du nom.

- Dialectique aristotélicienne. Entreprend l’examen systématique des

opinions de ses prédécésseurs, les endoxa. Classification de celle des

physiologoï au prorata du nombre de principes (archaï) qu’ils posent au

fondement de la nature.

- Critique des thèses éléatiques. Dire que l’être est un, c’est oublier que

l’être se dit en plusieurs sens. Réfutation de Parménide : la substance se

distingue toujours de l’accident. Réfutation de Mélissos : pluralité des êtres.

Critique d’Anaxagore qui pose l’infinité des principes. Aristote relève que

les anciens prennent tous pour principe les contraires, sans justifier

pourquoi, et s’interdisent de n’avoir recours qu’à un principe fondamental

ou à un principe de synthèse.

- Relève de la physique : tout ce qui se meut, tout ce qui est multiple.

L’unité et l’immobilité sont du domaine de la métaphysique (catégorie

posthume à l’auteur). La nature agit en vue de fins et non par hasard :

finalisme vs. mécanisme. Inspiré par Platon, qui luttait notamment contre

l’atomisme de Démocrite. Le physicien doit connaître la forme et la

quiddité, et plus encore la nature des êtres qui est leur fin et leur cause

finale ; toutefois la manière d’être et son essence sont l’apanage de la

philosophie première.

11

- Théorie de la génération. Génération simple vs. génération complexe.

Présuppose, au-delà d’un sujet, le caractère composite de l’engendré. En

toute chose, trois principes : la matière, la forme et son contraire, la

privation = hylémorphisme. Résolution de l’aporie des Anciens grâce à la

distinction entre principes essentiels et principes accidentels de la

génération. C’est à partir de la privation qui est non-être par accident que

survient la génération – non pas de l’être du non-être absolu. Notion de

puissance, d’acte, d’entéléchie (épanouissement).

- Éternité de la matière, inengendrée (donc pas de création ex nihilo comme

dans le Prologue de l’Évangile de Jean). Matière peut être synonyme de

nature, mais le terme de nature peut aussi désigner la forme au sein des

êtres qui possèdent en eux-mêmes un principe de mouvement. L’être

naturel tend à la forme qui est sa fin, l’accomplissement de son mouvement

propre.

- Théorie des quatre causes. Se distribuent entre (1) cause matérielle (= ce

dont la chose est faite), (2) cause formelle (= sa forme ou son modèle), (3)

cause effective, efficiente ou motrice (= l’agent de sa transformation) et (4)

cause finale (= sa fin, son essence, son telos). Les causes peuvent être

proprement dites ou accidentelles, en acte ou en puissance, simultanées

pour les premières et différées pour les secondes.

- Tout a une cause ; mais certaines causes le sont par accident, sans but

déterminé. Ainsi du hasard et de la fortune (qui est une forme de hasard).

- Priorité donnée à l’étude du mouvement. Identité de l’action et de la

passion qui diffèrent par la définition.

- Le temps et le mouvement sont des infinis. Mais l’infini n’existe pas en

acte. Distinction entre l’infini par division, l’infini par accroissement,

l’infini dans le nombre, l’infini dans le lieu et l’infini comme cause. Le

temps n’est pas le mouvement, mais il n’est pas sans le mouvement.

Inversement, le mouvement ne saurait être sans le temps. Le repos est dans

le temps mais pas les êtres éternels.

- Le mouvement est en direction du lieu. Théorie des éléments et des lieux

naturels. Typologie des mouvements.

- Démonstration du premier moteur non mû. Acte pur qui se connaît soi-

même. Mouvement perpétuel, surunité, lié à l’éternité du mouvement dans

la nature (elle-même éternelle). Ce qui sera réfuté avec Carnot et le

12

deuxième principe de thermodynamique (quoique l’univers soit bien un tel

système).

- « La nature a horreur du vide ». C’est ce qui ressort de l’examen des

doctrines des partisans du vide et de celle des pythagoriciens. Ou bien le

vide ne permettrait pas d’expliquer le mouvement.

- En découle la théorie de l’antipéristase. Critique l’argument de la

condensation faisant valoir l’impossibilité du mouvement. Question

tranchée avec l’expérience de Torricelli et celle du Puy-de-Dôme mise en

place par Pascal.

Point sur les Archaï (principes)

Beaucoup parmi les philosophes pré-socratiques et même encore

contemporains de Platon ont engagé une réflexion en direction de la

recherche des principes (archaï) à l’origine de la nature (phusis). Il peut

s’agir d’un élément (matériel) ou d’un concept, d’un état de concentration

de l’être ou d’une tension fondamentale. Le tableau suivant fait le point sur

la distribution de ces traditions en fonction de leur figure de proue :

Thalès de Milet (624-560 avant J.-C.) L’eau

Anaximandre (610-545 avant J.-C.) L’ápeiron (l’« illimité »)

Anaximène (570-500 avant J.-C.) L’air

Pythagore de Samos (569-500 avant J.-C.) Le nombre

Héraclite (Éphèse, 535-475 avant J.-C.) Le feu

Parménide d’Elée (520-450 avant J.-C.) l’Être

Empédocle (492-440 avant J.-C.) Le feu, l’air, la terre et l’eau

Platon (427-347 avant J.-C.) Le Bien (Idée)

Gaston Bachelard (1884-1962)

Principales contributions :

- « Noumène et microphysique » (1931) dans Études (1970)

- Psychanalyse du feu (1937)

- La Formation de l'esprit scientifique (1938)

- Le rationalisme appliqué (1949)

- La poétique de la rêverie (1960)

13

Concepts et idées-forces :

- Pionnier de l’épistémologie historique (selon le mot de D. Lecourt).

Démarche reprise et poursuivie par Alexandre Koyré et George

Canguilhem.

- Récuse le régime de la bifurcation mise en place par Victor Cousin

ministre de l’Instruction Publique sous le régime de la Monarchie de juillet.

Toujours en vigueur avec les filières scientifiques et littéraires (et

économiques), les baccalauréats spécialisés. Nécessité pour la philosophie de

se mettre « à l’école du savant », et inversement.

- La philosophie est interne aux sciences ; c’est la « science qui crée de la

philosophie ». Juste retour des choses, si l’on convient de ce que la

philosophie fut la matrice des sciences. Dialectique science/sagesse.

- Remise en cause des catégories de la métaphysique (sujet-objet, abstrait-

concret, esprit-matière, etc.) par la micro-physique (1900 : invention des

quanta) et par la théorie de la relativité (restreinte : 1905, général : 1915 ;

vérifiée en 1919).

- Fait un sort à la conception kantienne de la séparation entre noumène et

phénomène qu’il investit d’un sens nouveau. Cette revisitation sous les

auspices de l’anthropotechnie lui fait prôner l’usage régulateur de celui-là

en vue de la production de celui-ci. Prône un usage réglé du noumène

comme norme du phénomène, propice à indiquer les axes de

l’expérimentation : « Entre le phénomène scientifique et le noumène

scientifique, il ne s'agit donc plus d'une dialectique lointaine et oisive, mais

d'un mouvement alternatif qui, après quelques rectifications des projets,

tend toujours à une réalisation effective du noumène » (Le Nouvel esprit scientifique, introduction).

- Implique que le noumène ne soit plus la chose (considérée comme) en soi,

inaccessible à l’intuition sensible et aux catégories de l’entendement,

qu’avait défini Kant. Il est la « contexture » de la réalité. Le monde

nouménal est celui de la relation réelle, le seul doté de sa consistance propre

; celui des phénomènes ne peut être que son dérivé, il est « dissous » dans ce

monde inconnu que révèle la micro-physique. Un monde où la matière

n’est plus distincte de l’énergie, où cessent de s’appliquer les principes de

localité ou de non-contradiction, où la substance le cède à l’événement.

Monde « inimaginable », inaccessible à l’intuition ; si bien que « c'est l'effort

14

mathématique qui forme l'axe de la découverte, c'est l'expression

mathématique qui, seule, permet de penser le phénomène » (Le Nouvel Esprit scientifique).

- Phénoménotechnique. « La véritable phénoménologie scientifique est

donc bien essentiellement une phénoménotechnique » (Le Nouvel esprit scientifique, introduction). Rend compte d’une nouvelle forme

d’expérimentation, contemporaine de l’émergence de la « big science »

(prolongé aujourd’hui avec l’usage des « big data »). Les phénomènes sont

désormais produits par des dispositifs qui sont eux-mêmes des « théories

matérialisées ». Ex. contemporain : le LHC du CERN qui permit récemment

de confirmer l’existence du boson de Higgs, prévu par le modèle standard.

Comme si la théorie (l’outil intellectuel et expérimental) anticipait ses

résultats.

- Psychanalyse de la connaissance objective. La science véhicule des images

trompeuses, un imaginaire archaïque (cf. C.G. Jung) que seule une «

psychanalyse de la pensée scientifique » peut débusquer. Analogies naïves,

trompeuses et adirantes plutôt que résolutives. Exemple de l’éponge,

métaphore employée ad libitum dans la littérature scientifique : identifié

par Réaumur à l’air qui se comprime, puis à la terre en tant que le réceptacle

des quatre éléments, au sang, etc.

- De même que la psychanalyse en général libère l’individu du poids de son

passé déterministe, la psychanalyse de la connaissance objective émancipe

la raison des images poétiques qui la hantent et l’empêchent d’avancer.

Inconscient scientifique ou épistémologique (« antichambre de la raison »)

également lié à des représentations sexualisées (résurgence freudienne) : «

Toute science objective naissante passe par la phase sexualiste » (La Formation de l'esprit scientifique). Ex : réaction chimique entre deux corps,

l’un dit « actif », l’autre « passif » ; frottement des pierres à feu, etc.

- Obstacle épistémologique : « C’est en termes d’obstacles qu’il faut poser le

problème de la connaissance scientifique » (ibid). La science progresse en

surmontant ses illusions : « L’esprit scientifique se constitue sur un

ensemble d’erreurs rectifiées. Une conviction acquise au gré de son

expérience dans l’enseignement. Le rôle du professeur : « renverser les

obstacles déjà amoncelés par la vie quotidienne » (ibid).

- L’esprit vient à la science transi de préjugés, c’est-à-dire déjà vieux de

truismes longuement sédimentés. Il rajeunit en étendant ses connaissances ;

15

et il étend ses connaissances en neutralisant les opinions fausses.

Rémanence de l’elengkos socratique. Conception du développement des

sciences à rebours du positivisme, moins accumulation de connaissances

(e.g. la métaphore inaugurée par Bernard de Chartres des nains juchés sur

les épaules de géants) que départition d’idées reçues incessamment

reconduites.

- Pas de théorie vraie dans l’absolu, de proposition apodictique. Les théories

sont des approximations provisoires ; la scientificité se définit seulement par

une méthode de déprise des illusions. Métaphore du sculpteur dégrossissant

un bloc de marbre.

- Rupture entre l’observation, la perception ordinaire d’une part et, d’autre

part, l’expérimentation et l’abstraction définitoire du savoir scientifique. La

science ne provient pas du raffinement de l’intuition sensible. L’expérience

commune doit être rectifiée par l’abstraction des concepts. La connaissance,

en outre, ne peut être qu’« approchée », incessamment remise en cause.

- Esprit scientifique caractérisé par l’ouverture de problèmes, la

thématisation : « Toute connaissance est une réponse à une question. S’il n’y

a eu de questions, il ne peut y avoir de connaissance scientifique. Rien ne va

de soi. Rien n’est donné. Tout est construit » (ibid). L’étonnement à l’origine

de la science comme de la philosophie (cf. le thomazdein chez Aristote).

- Théorie poétique des quatre éléments. La science, de nature progressiste

tend vers l’avenir ; l’imaginaire, vers le passé des origines (Psychanalyse du feu). Il faut tenir les deux aspects : « J’ai compris que les grands livres

méritaient une double lecture, qu’il fallait les lire tour à tour avec un esprit

clair et une imagination sensible » (« La poésie des éléments matériels »,

France Culture, causerie du 20 décembre 1952)

- La poétique (l’anima) complémentaire de la science (l’animus), selon les

catégories de Carl G. Jung. Tels sont les deux versants de l’esprit humain (La poétique de la rêverie). Bachelard, lors d’une conférence donnée le 25 mars

en 1950, présente son œuvre comme un tout nycthéméral articulant la part

diurne de sa pensée (épistémologie, conscience éveillée) avec sa part

nocturne (imaginaire poétique). Une alternance de polarités opposées,

complémentaires, qui renvoie à la rotation terrestre.

16

Francis Bacon (1951-1626)

Principales contributions :

- Du progrès et de la promotion des savoirs (1605)

- Novum Organum (1620)

Concepts et idées-forces :

- Pose les prolégomènes de la méthode expérimentale. Indique comment

passer de la croyance et de la superstition à la connaissance objective. Ne

plus se contenter de collecter les faits « au petit bonheur », mais provoquer

et contrôler l’expérimentation : « Soumettre la nature à la question ».

- « Soumettre la nature à la question » : devise qui n’est pas sans rapport

avec l’Inquisition qui atteint son acmé à la Renaissance, dans la période qui

voit l’essor de la science moderne. Même inflexion dans le domaine

judiciaire et dans le domaine épistémologique. Avant l'Inquisition, on

accusait ; depuis l'Inquisition, on ne se contente plus de la dénonciation, on

fait œuvre d’enquête, on investigue. C'est l'irruption du régime de la preuve

qui s’étend à tous les domaines de la connaissance, prodrome de profondes

mutations. Régine Pernoud revient sur ce changement d’époque et la

complexité du phénomène dissimulé par la propagande noire des Lumières

progressistes (Pour en finir avec le Moyen Age, 1977). Il s’agissait le plus

souvent, pour l’Église catholique, de démontrer l’innocence de la personne

inculpée. Désamorce le mécanisme du bouc émissaire (cf. René Girard),

tandis que dans les villages protestants, la justice populaire ne s’embarrassait

pas de précaution. De nombreuses personnes n’ont dû d’être sauvées de la

fureur populaire qu’au verdict salutaire de l'autorité inquisitoriale. Elle

poursuivait en revanche les sycophantes qui accusaient à tort. La grande

majorité des peines prononcées étaient des peines de pénitence. La

recherche de preuves pour justifier les dires a pu servir de modèle à la

science en train de se faire. Aitia (qui donne « étiologie » dans le champ

médical) signifie à la fois « cause » et « coupable ». Renversement de

perspective : l'inquisition à l’avant-garde de la modernité ? Voir également

l’apologie de Socrate, procès et démonstration de philosophie.

- Rationalisme à relativiser (de même que pour Galilée, héliophile, pour

Newton, alchimiste, etc.) Sa conception de la science, en réaction contre la

scolastique et les idoles scientifiques, est forgée au creuset de la magie et de

la religion : (1) De la magie opératoire, dite naturelle (vs. la goétie) qui lui

17

communique le sens de la pratique expérimentale. (2) De la religion,

laquelle exalte la domination de l’homme sur la nature (réifié) et le progrès

annonciateur du millénium et du retour du Christ (parousie).

- Logique inductive.

- Équation savoir = pouvoir.

- Interprétation de la nature.

- Combattre les idoles scientifiques. Obstacles épistémologiques avant la

lettre. La science doit être transgressive et ne reconnaître d’autorité que

celle de la raison. Le tribunal des faits.

Roger Bacon (1214-1294)

Principales contributions :

- Opus majus (Œuvre majeure), comprenant le De signis (Traité des signes) (1267)

- Quaestiones supra libros quatuor Physicorum Aristotelis (1247-1250)

- Communia naturalium (1260)

Concepts et idées-forces :

- Philosophe, alchimiste, théologien anglais. À ne pas confondre avec le

précédent. Son œuvre polymathe lui valait le surnom de Doctor mirabilis («

Docteur admirable »). Admis comme l'un des précurseurs de la méthode

scientifique en vertu du développement qu’il fait des travaux d'Ahlazen.

- Classification des sciences naturelles (scientia naturalis) exposée dans le Communia naturalium de 1260. L’optique (perspectiva), l'astrologie

(astronomia judiciaria et operativa), la science de la mesure (scientia ponderum), l'alchimie (alkimia), l'agriculture, la médecine et la science

expérimentale (scientia experimentalis) doivent s’affranchir de l’autorité de

la religion et prendre leur autonomie.

- Trois voies de connaissance : l'autorité, la raison, l’expérience.

- Quatre siècles avant Pascal, disqualification de l’autorité (la tradition, les

maîtres, les livres) dans le cas des sciences de la nature ; seule l’expérience

peut conduire à la certitude scientifique : « L'argument conclut et nous fait

concéder la conclusion, mais il ne certifie pas et il n'éloigne pas le doute au

point que l'âme se repose dans l'intuition de la vérité, car cela n'est possible

que s'il la trouve par la voie de l'expérience » (Opus majus II). La science

18

doit être fondée sur l’observation. Bacon critique pour cette raison de

l’enseignement aristotélicien, en passe d’être récupéré et accordé à la

doctrine chrétienne par saint Thomas d’Aquin, le « docteur angélique »

(1225-1274).

- Primat de l’expérience. Appelée à prendre la relève de la méthode

spéculative : « Aucun discours ne peut donner la certitude, tout repose sur

l'expérience » (« nullus sermo in his potest certificare, totum enim dependet ab experientia »). Les raisonnements coupés de l’expérience sont inutiles,

sinon nuisibles à l’avancée des sciences. Deux formes d’expérience éligibles

au titre de source de connaissance.

(1) L’expérience scientifique. Suit les préceptes de Robert Grossetête

(1168-1253), père de la méthode expérimentale. Il ne s’agit plus de

recueillir les faits d’observation en ne conservant des phénomènes que ceux

qui corroborent une thèse préétablie ; il faut les convoquer. Il ne s’agit plus

de se contenter d’expériences naturelles et imparfaites à la manière de Pline

ou des raisonnements abstraits, spéculatifs, à la manière du Stagirite.

L’expérience scientifique doit être dirigée, méthodique, encadrée. Les

hypothèses doivent être systématiquement soumises au tribunal des faits,

juge en dernière instance de la viabilité d’une voie d’explication = insistance

sur la vérification expérimentale (Opus majus, VI ; Opus tertium, I). Le

critère ultime est celui d’efficacité. La connaissance acquise,

perpétuellement améliorable, doit être opératoire.

(2) L’expérience religieuse. L’ « expérience » donc, qui est l’alpha et

l’oméga de l’épistémologie de Bacon, ne se limite pas au domaine de la

science. Elle concerne également la religion. C’est dire que « l'expérience

est double (« duplex est experientia ») : l'une passe par les sens extérieurs

[...] et cette expérience est humaine et philosophique, [l'autre consiste en]

illuminations intérieures » (Opus majus, II). - Deux voies d’accès au savoir scientifique qui se distinguent en première

intention par le foyer de l’illumination : (a) l’extériorité pour l’une, usant

d’instruments adaptés, bénéficiant des « œuvres certificatrices » d’autres

individus nous ayant précédé, explorant par la vue le monde physique et

corporel des phénomènes (astronomiques, optiques, etc.) ; (b) l’intériorité

pour l’autre, de nature mystique, se distribuant entre illuminations

générales par l'intellect agent (Dieu lui-même) et illuminations spéciales,

particulières et personnelles. Voie intuitive ayant pour paradigme une

19

alchimie pratique, opératoire, qui vise à la transformation du monde,

ouvrant « sur les métaux, les couleurs, d'autres choses » parmi lesquelles « le

prolongement de la vie humaine » (Opus tertium I).

- Révélation et certitude scientifique. La certitude scientifique comme

laïcisation de la Révélation. Transposition en sciences d’un thème issu de la

religion, qui trouve un prolongement avec l’idée que la vérité des sciences

est la clé du Salut. C’est l’expérience qui est la pierre de touche de la vérité,

son ordalie appropriée, le lieu de cette seconde forme de révélation (cf.

Jean-Luc Solère, Zenon Kałuża, La Servante et la consolatrice : la philosophie dans ses rapports avec la théologie au Moyen Âge).

- Le recours nécessaire aux mathématiques : « Toute science requiert les

mathématiques » (« omnis scientia requirit mathematicam ») (Opus majus, t. III, p. 98). La science selon Bacon présente déjà ses aspects expérimental et

théorique qui seront consacrés à l’apogée de la révolution intellectuelle du

XVIe-XVIIe siècle.

- Foi (religieuse) en le progrès de la technique, mise au service des hommes.

Des sciences, Bacon escompte une efficacité pratique, des applications

bénéfiques à l’humanité. Anticipe un credo de la modernité bourgeoise (ex :

Descartes). Célèbres sont devenues les prophéties du franciscain d’Oxford :

« On peut réaliser pour la navigation des machines sans rameurs, si bien que

les plus grands navires sur les rivières ou sur les mers seront mus par un seul

homme avec une vitesse plus grande que s'ils avaient un nombreux

équipage. On peut également construire des voitures telles que, sans

animaux, elles se déplaceront avec une rapidité incroyable […] On peut

aussi fabriquer des machines volantes telles qu'un homme assis au milieu de

la machine fera tourner un moteur actionnant des ailes artificielles qui

battront l'air comme un oiseau en vol […] On peut aussi réaliser facilement

une machine permettant à un homme d'en attirer à lui un millier d'autres

par la violence et contre leurs volontés, et d'attirer d'autres choses de la

même manière. On peut encore fabriquer des machines pour se déplacer

dans la mer et les cours d'eau, même jusqu'au fond, sans danger […]Et l'on

peut réaliser de telles choses presque sans limites, par exemple des ponts

jetés par-dessus les rivières sans piles ni supports d'aucune sorte, et des

mécanismes et des engins inouïs » (« Lettre sur les prodiges de la nature et

sur la nullité de la magie », vers 1260).

20

William Bateson (1861-1926)

Principales contributions :

- Materials for the Study of Variation Treated with Especial Regards to Discontinuity in the Origin of Species (1894)

- Mendel's Principles of Heredity (1902)

Concepts et idées-forces :

- Invente le terme de « génétique » à l’occasion de la troisième conférence

internationale de l’hybridation des plantes (Londres, 1906), dédiée à

Mendel, pour baptiser une nouvelle discipline à l’initiative de biologistes et

de praticiens de l’agriculture : « Je propose le terme de génétique ; il indique

suffisamment que nous cherchons à élucider les phénomènes de l’hérédité

et de la variation : en d’autres termes, c’est la physiologie de la descendance

». Deviendra la principale science de la vie au XXe siècle dans ses

déclinaisons allant de la génétique formelle à la génétique du

développement.

- Traduit en anglais les travaux de Mendel.

- Introduit le concept d’épistasie désignant le phénomène d’interaction

entre deux ou plusieurs gènes, et de liaison génétique (genetic linkage).

George Berkeley (1685-1753)

Principales contributions :

- Théorie de la vision (1709)

- Principes de la connaissance humaine (1710)

- Trois dialogues entre Hylas et Philonous (1713)

Concepts et idées-forces :

- Idéalisme empirique ou immatérialisme. Son intérêt aux yeux de l’évêque

de Cloyne : surmonter l’écueil du scepticisme et de la libre pensée

(athéisme).

- « Esse est percipi aut percipere ». N’existent que des idées (passives) et les

esprits (actifs) qui les perçoivent. De ces derniers, nous n’avons que des

notions. Les choses n’existent pas hors de l’esprit qui les perçoit.

21

- Dieu, percevant tout de manière synoptique et intemporelle, résout au

demeurant l’aporie de l’intermittence. La table existe toujours dans son

esprit lorsque je quitte la pièce.

- Les idées sont en Dieu en tant qu’archétype, hors de l’espace et du temps ;

il les connaît sans les pâtir. Elles se présentent à nous en tant qu’ectype,

dans un rapport de succession et sont toujours accompagnées d’une

sensation de plaisir ou de déplaisir (cf. correspondance avec Johnson).

- Récusation de la distinction des qualités. Une idée ne peut ressembler qu’à

une autre idée

- Récusation de la matière, entité superflue.

- Hétérogénéité des champs perceptifs affirmée dans le contexte du

problème de Molyneux. L’aveugle de naissance qui retrouverait la vue ne

pourra associer spontanément l’image d’une sphère (ou les idées visibles

attenantes) à son toucher (idées tangibles). L’association se fait par

expérience.

- Distinction entre les objets premiers des sens et les objets seconds, lesquels

sont « suggérés » par à notre esprit par les objets premiers. Ainsi de la

distance, objet médiat résultant de l’association des idées visibles (des aplats

de couleur tonalisés) aux idées tangibles (sensations corporelles,

musculaires, kinesthésiques).

- Conception instrumentaliste du langage. Sortie du solipsisme grâce au fait

du langage : le langage humain prouve mon semblable ; le langage de Dieu

est celui des idées que Dieu nous communique pour nous permettre de

fonder une morale et de le contempler.

Claude Bernard (1813-1878)

Principales contributions :

- Principes de médecine expérimentale (1847)

- Introduction à la médecine expérimentale (1865)

Concepts et idées-forces :

- Exposition de la méthode expérimentale dans l’essai éponyme. Démarche

hypothético-déductive, résumée sous le sigle « OHERIC » : Observation -

Hypothèse - Expérience - Résultat - Interprétation - Conclusion ; à quoi il

faudrait ajouter (concernant Claude Bernard) l’étape préliminaire de la

22

position du problème à résoudre, dont l’hypothèse est la réponse possible,

ainsi que le développement de l’hypothèse dont l’expérience éprouve les

conséquences.

- Un intérêt thérapeutique. La connaissance finalisée à la guérison, et non la

clinique à la connaissance « libérale ».

- Érige le déterminisme exposé par Laplace comme une propriété de la

nature en principe méthodologique.

- Le « milieu intérieur » comme champ d’étude de la physiologie.

- L’homéostasie comme recherche d’équilibre spontanée (connaîtra une

prolifique postérité avec la cybernétique d’après-guerre), la fonction du

système nerveux central et des organes dans le procès permanent

d’autorégulation. Ainsi du foie en ce qui concerne le taux de glycémie. Le

diabète n’est pas un phénomène pathologique différent par nature du

phénomène normal, mais une variation quantitative de ce dernier, un excès

de glycémie ; contra Canguilhem pour qui le diabétique change de foie et le

foie change le diabétique.

David Bloor (1942-20XX)

Principales contributions :

- Sociologie de la logique. Les limites de l'épistémologie (Knowledge and Social Imagery) (1976)

Concepts et idées-forces :

- Ethnologie de laboratoire. Voir notice Bruno Latour.

- Le programme fort (avec Barry Barnes).

- Quatre principes : causalité, impartialité, symétrie, réflexivité.

- Externalisme. Influence des facteurs macro-sociaux dans le procès

d’adoption ou de rejet d’une théorie. Le fait scientifique résulte

principalement de jeux de pouvoir et de facteurs extra-scientifiques.

- Relativisme méthodologique plutôt qu’ontologique.

Émile Boutroux (1845-1921)

Principales contributions :

- La contingence des lois de la nature (1874)

- De l’idée de loi naturelle dans la science et la philosophie (1895)

23

Concepts et idées-forces :

- L’éclatement disciplinaire des sciences disperse la pensée ; la philosophie

doit faire la synopsis et rapporter la connaissance à l'homme. Cf. le thème

de l’appropriation de la vérité chez l’homme antique selon Hadot et

Foucault. La science contemporaine se vit et veut en revanche déconnectée

de la vie pratique.

- La contingence des lois de la nature (thèse de doctorat). S'oppose en cela

au déterminisme de Laplace et de Bernard qui en faisait, sinon un dogme,

un principe méthodologique, une condition de possibilité des sciences.

Henri Broch (1950-20XX)

Principales contributions :

- Au cœur de l'extra-ordinaire (2005)

- Gourous, sorciers et savants (2006)

- L'Art du doute ou Comment s'affranchir du prêt-à-penser (2008)

- Comment déjouer les pièges de l'information ou les Règles d'or de la zététique (2008)

Concepts et idées-forces :

- Président d'honneur du Cercle zététique français, créateur du laboratoire

de zététique à l'Université de Nice. Dès 1998, fait de la « zététique » une

discipline à part entière, un « art du doute » empruntant sa démarche au

scepticisme philosophique et sa méthode aux protocoles expérimentaux des

sciences modernes pour expliquer de manière rationnelle les phénomènes

présentés comme paranormaux (astrologie, parapsychologie, médecines

alternatives, voyance, miracle, etc.).

- Du grec zētētikós, « cherchant » ou « qui recherche », dérivé du verbe

zêtêin, « chercher », le mot fut employé la première fois dans sa graphie

laïcisée en 1591 dans le traité d’algèbre Isagoge du mathématicien François

Viète. Broch en fait une arme de démystification massive, mais également

l’occasion d’une réflexion plus générale sur les fondements de la croyance,

l’épistémologie et la rigueur scientifique. Comment traduire les faits en

théorie de manière scientifique en évitant (autant que faire se peut) d’y

projeter des interprétations fantasmatiques ? Quelles sont les biais de

24

raisonnement, les failles épistémologiques et expérimentales susceptibles

d’altérer le bon déroulement d’une expérience et sa consignation ? Quelles

sont les conditions de l’impartialité et les principes de l’observation en

sciences ? Autant de questions que la zététique met à l’ordre du jour.

- Le défi zététique international. Lancé en 1987 par Broch sur le modèle du

« One Million Dollar Challenge » américain de James Randi. Il promettait

une récompense de 200 000 euros à qui apporterait la preuve d’un

phénomène paranormal. À entendre par « preuve » la présence d’une action

« physiquement mesurable » ; quel que soit le phénomène « paranormal »

soumis aux tests et aux enquêtes du laboratoire de zététique de l'université

de Nice, il devait être un « phénomène » – c’est-à-dire apparaître. Le

protocole en était débattu et agréé chaque fois aussi bien par l’impétrant

que par ses juges.

- Aucun des candidats n’ayant été à même de convoquer son « art » en

condition de laboratoire, cela en dépit d’un nombre de candidatures

croissant – et même difficilement gérable, ce qui eut raison de l’événement

– le prix fut clos en 2002. Cela ne saurait invalider dans l’absolu la

possibilité de phénomènes paranormaux, mais ne va pas, c’est bien le moins,

dans le sens de leur confirmation. La version anglophone du prix (s’élevant

à un million de dollars) reste en revanche toujours d’actualité, et

l’inscription possible depuis le site de la « James Randi Educational

Fondation » (JREF).

Michael Brooks (1970-20XX)

Principales contributions :

- Free Radicals. The secret anarchy ou Science (2011)

Concepts et idées-forces :

- Prend part à la déconstruction de l’image idéalisée de la pratique

scientifique comme modèle de rigueur et d’objectivité. Derrière les

prédications encomiastiques des manuels scolaires se cachent des

scientifiques intéressés et passionnés, butés, partisans, jusqu’au-boutistes, ne

reculant pour les plus grands devant aucune bassesse pour assouvir leur

« volonté d’avoir raison ». Laquelle pourrait d’ailleurs, selon Pascal Nouvel,

25

constituer la principale de leurs motivations cachées (L’art d’aimer la science).

- Dans le sillage de Feyerabend, prend à partie l’idée d’une « méthode

scientifique » unique. Les découvreurs entrés dans la légende ne

s’embarrassent pas de protocoles rigides lorsqu’ils s’avèrent des obstacles à la

découverte. Ils sont, sans le savoir, des anarchistes épistémologiques.

- Suit une litanie d’exemple. Loin de procéder de l’induction ou d’une

spéculation réglée, l’inspiration vient à Kary Mullis, consacré prix Nobel de

chimie 1993, grâce à la prise de LSD. C’est dans la Bible que Mickaël

Faraday découvrit les idées directrices qui lui permirent de rendre compte

du phénomène de l’électromagnétisme au XIXe siècle. La déontologie ne fut

jamais au beau fixe. Comme Isaac Newton, il obtint l’adhésion de ses pairs

en falsifiant les résultats de ses calculs pour qu’ils s’adaptent aux données

expérimentales. Pasteur falsifia pour sa part le compte-rendu de ses

observations concernant l’expérience qui devait réfuter la théorie de

génération spontanée.

- Plus prosaïque (mais non moins efficace) est la méthode qui consiste à

discréditer les théories adverses en s’en prenant ad hominem à leurs

auteurs. À abuser de son autorité, de son statut académique ou de ses

relations pour abréger une controverse. William Shockley se fit fort de

partager avec les inventeurs travaillant sous sa direction le prix Nobel de

physique de 1956, décerné pour la découverte du transistor à laquelle il ne

participa en rien. Il s’arrangea pour que son nom fût toujours mentionné

auprès de celui des deux chercheurs. Les « prions » supposément à l’origine

de la maladie de Creutzfeld-Jacob valurent à Stanley Prusiner le prix Nobel

de médecine en 1997. Nul ne sait s’ils existent ; et le terme « découverte »

convient bien mal à ce qui n’a de statut épistémologique que celui d’une

hypothèse. La personnalité de Prusiner alliée à un art consommé du

marketing et à une maîtrise certaine des techniques de relations publiques

ont eu raison de ce menu détail.

- Si donc la science a pu se développer et témoigner de tels progrès dans

l’ordre de la connaissance, ce n’est en rien du fait de sa rigueur, de son

éthique et de son objectivité. La science ne se fait pas toute seule ; elle est

l’œuvre d’individus dotés d’une personnalité, épris de passions,

inexorablement partiaux, rivaux, de mauvaise foi, butés et obstinés – en un

26

seul mot : humains. Le nier serait encore redoubler de malhonnêteté, et ne

rien faire d’autre que confirmer le diagnostic que l’on voudrait rejeter.

Point sur la fraude scientifique

« C'est au moyen des sciences expérimentales que nous avons été capables

d'apprendre tous ces faits sur le monde naturel, triomphant des ténèbres et

de l'ignorance pour classer les étoiles et estimer leurs masses, compositions,

distances et vitesses ; pour classer les espèces vivantes et déchiffrer leurs

relations génétiques [...] Ces grandes réalisations de la science

expérimentale sont dues à des hommes [qui] n'ont en commun que

quelques points : ils sont honnêtes et ont réellement fait les observations

qu'ils ont enregistrées et ils publient les résultats de leur travail sous une

forme qui permet à d'autres de reproduire leurs expériences ou observations

».

C’est sur ces lignes magistrales que s’ouvre le Berkeley Physics Course,

ouvrage d’autorité ayant longtemps servi de manuel aux étudiants du

premier cycle de la fameuse université, désireux de s’engager dans des

études de physique. La science – si l’on en croit les sérieux professeurs à

l’origine de cette somme (cela reste dans la famille) – serait le fait

d’individus « honnêtes » (que ne le serait-elle pas ?), hautement

recommandables, ayant « réellement fait » les expériences et les

observations qu’ils décriraient « objectivement », en sorte que d’autres

puissent contrôler leurs résultats.

Hagiographies scientifiques

Cette image d’Épinal, doit-on la prendre pour argent comptant ? Une telle

présentation à valeur protreptique doit-elle être reçue telle quelle, aussi

assertorique et unilatérale qu’elle puisse sembler ? Faut-il la nuancer ? De

quelle manière ? Jusqu’à quel point ? Quelle part faire à la vérité, quelle part

à l’eulogie ? Un élément de réponse serait à chercher du côté des critères

pesamment martelés de l’ethos scientifique ainsi mis en avant : authenticité,

objectivité, recours à l’expérience. N’est-il pas vrai que les points de

27

doctrine les plus problématiques et moins vérifiés, quelle que soit la

croyance considérée, sont aussi les plus lourdement administrées ?

Une histoire attentive des découvertes scientifiques disqualifie plutôt

qu’elle ne confirme cet optimisme. Les grandes figures de la science ne sont

pas nécessairement des saints. Aussi n’est-il pas peu paradoxal que de

vouloir indexer la pertinence du savoir scientifique sur la rigueur morale de

ses artisans. « Vous n'avez pas idée des intrigues fomentées dans ce monde

béni qu'est la science. Je le crains, la science n'est pas plus pure que toute

autre activité humaine, bien qu'il devrait en être ainsi. Le mérite seul ne

sert pas à grand-chose ; pour être efficace, il doit s'accompagner de finesse

et de la connaissance du milieu ». L’auteur de ces propos n’est autre que

Thomas H. Huxley, président de la Royal société de Londres et farouche

partisan de l’évolutionnisme darwinien qu’il défendra de tout son saoul –

parfois de toute sa mauvaise foi. Darwin n’aura manqué que d’appliquer sa

théorie de la lutte pour la survie à cet environnement tout aussi exigeant,

hostile et implacable qu’est la scène (jungle ?) scientifique.

Sans doute un bref tour d’horizon de ce hall les célébrités unanimement

saluées sera-t-il plus éloquent encore, et plus à même de nous convaincre de

cette falsification, mieux que tout autre déclaration. Qui sont les

scientifiques fraudeurs ?

Claude Ptolémée (c.90-168)

Qui ne sait pas qu’il fut « le plus grand astronome de l’Antiquité » ? « Le plus

grand », « Almageste » arabisation du grec ancien mégistos : tel fut le titre

que donnèrent à son œuvre les philosophes arabes, gardien de la science et

astronomes hors pairs, sous le haut Moyen Âge ; titre sous lequel nous

connaissons cette synthèse qui est à l’astronomie ce que les Éléments

d’Euclide étaient à la géométrie, appelée à façonner la représentation que se

faisait l’homme de la structure du cosmos durant près de mille cinq cents

ans. Géocentrique, elle peignait une Terre immobile, foyer de la révolution

des astres. Le soleil et des planètes adoptaient autour d’elle une trajectoire

circulaire ; quant aux aberrations, elles étaient compensées par l’hypothèse

des épicycles. Ptolémée délivrait ainsi à la postérité un système cohérent et

28

conforme aux observations, à tout le moins satisfaisant au regard des

préoccupations d’ordre agricole et religieux qui prévalait alors ; une

description qui permettait aussi de faire des prédictions. Nul doute que ces

travaux astronomiques furent des plus influents de la Haute Antiquité

jusqu’au bas Moyen Âge, en passant par l’Empire romain. Ceux-ci feront

autorité jusqu’à ce que Galilée ait confirmé par ses observations

l’héliocentrisme de Copernic, amorçant le déclin de la scolastique.

Tout cela est bien connu. On sait peut-être moins que la plupart de ses

observations ne furent pas effectuées, comme il le prétendait, depuis le delta

du Nil, l’œil attentif, le regard patient plongé dans les étoiles. Le réexamen

systématique des travaux de Ptolémée fut entrepris au XIXe siècle à

l’instigation d’une équipe d’astronomes professionnel. Se livrant à des

calculs rétrospectifs en vue de reproduire la carte céleste de son époque, ils

relevèrent un nombre stupéfiant d’erreurs et d’approximations. Les données

de Ptolémée étaient bien en deçà de ce que l’on pouvait attendre de la

précision de l’astronomie de l’Antiquité. Elles étaient en revanche

parfaitement congruentes avec ce qu’un observateur aurait pu relever au

firmament de l’île de Rhodes, à 5 degrés de latitude au nord d'Alexandrie.

Au nombre des 1 025 étoiles décrites par Ptolémée, aucune ne se situe dans

la région de 5 degrés du ciel comprenant les étoiles uniquement visibles

d’Alexandrie, et non de Rhodes. Quant aux exemples utilisés par Ptolémée

pour les questions d’astronomie sphérique, ils emploient également des

données correspondantes à la latitude de l’île de Rhodes, et non

d’Alexandrie.

Aussi ne serons-nous pas surpris d’apprendre qu’une description du ciel de

Rhodes avait été consignée 300 ans plus tôt. Une description que Ptolémée

avait eu tout le loisir de consulter depuis le plus haut lieu de la culture de

l’époque. « Si l'on ne savait ce qu'il en est, commente Dennis Rawlins,

astronome de l'université de Californie, on pourrait soupçonner Ptolémée

(comme le fit même Théon d'Alexandrie, le plus serein et le plus infatigable

de ses admirateurs au IVe siècle) d'avoir emprunté ses exemples à

Hipparque ». Hipparque de Rhodes (190-120 avant J.-C) était effectivement

à l’origine de l'un des meilleurs catalogues d'étoiles de l'Antiquité. C’est

encore à ce personnage que nous devons l’invention de l’astrolabe, les tables

29

trigonométriques, la découverte de la précession des équinoxes ainsi que la

théorie des épicycles à laquelle Ptolémée recourut largement.

Il en ressort que les données observationnelles consignées par « le roi des

astronomes » pourraient provenir en masse des magasins de la grande

bibliothèque d’Alexandrie, où Ptolémée s’accapara les résultats de son plus

auguste devancier, qu’il fit ensuite passer pour siens.

Galileo Galilei (1564-1642)

Que Galilée ait marqué un pas décisif en direction du nouveau paradigme

de la science moderne, c’est chose que l’on ne se risque pas à contester. Un

leitmotiv de l’astronome était de recourir toujours à l’expérience, et même à

ce qui peut prétendre avant la lettre au titre d’expérimentation, soutenue

par des dispositifs diligemment décrits : « Dans la nature, le mouvement est

peut-être le sujet le plus ancien auquel les philosophes ont consacré de

nombreux et volumineux ouvrages. Cependant, j'ai découvert par l'expé-rience quelques propriétés dignes d'être connues et qui n'ont jusqu'ici été ni

observées, ni démontrées ». Et les manuels scolaires de se faire l’écho de

cette transformation de la démarche scientifique. Le contrôle expérimental

devient l’ultime instance judicative de la vérité en sciences, la seule épreuve

ou ordalie à même de la fonder. Exeunt Aristote et les Pères de l’Église.

Ceux-ci – c’est bien connu – ne pardonnèrent pas à l’astronome une telle

humiliation, et déployèrent à son encontre toutes les ressources de la

mauvaise foi dont ils étaient capables. Mal leur en prit : le récit arrangé du

procès de Galilée se donne aujourd’hui comme un morceau de bravoure ; et

le martyre de l’inculpé renvoie au courage de l’intelligence en lutte contre

l’obscurantisme et la superstition. Le chercheur de vérité affronte le dogme,

faisant l’épreuve systématique de ses hypothèses.

C’est donc, avant toute chose, cette image d’Épinal d’expérimentateur qu’a

laissé Galilée. Comment comprendre alors qu’aucun de ses confrères

physiciens ne fut en mesure de reproduire nombre de ses résultats, et même

obtinrent des résultats contradictoires au terme des expériences décrites ?

Le doute s’installe. Et n’est pas modéré à la lecture du manuscrit original

30

dont est extraite cette citation, où ne figurait pas la précision « par

l'expérience », si décisive. « Par l'expérience » est l’interpolation originale

d’un traducteur idéologue de Galilée qui, de l’homme et de sa manière de

procéder, avait déjà son idée faite. Dans quelle mesure une telle idée s’avère

conforme à la réalité, c’est ce qu’il importe de réévaluer. Deux expériences

de Galilée ont fait époque : (1) celle du plan incliné, (2) celle de la tour de

Pise. Aucun manuel qui se respecte ne peut l’ignorer. Elles ont valeur de

paradigme, d’exemple de rigueur et semblent résumer l’essence de ce que

fut la révolution des sciences modernes.

(1) Aux antipodes du psittacisme de ses adversaires pétris de certitudes et

d’idées fixes, Galilée tourne son regard en direction de la nature : « Après

Galilée, déclare l’un de ses hagiographes, la preuve ultime d'une théorie

trouva sa vérité dans le monde réel ». Le même auteur se plaît à rappeler

comment il procéda pour vérifier sa loi de la chute des corps au moyen d’un

dispositif de sa propre conception : une planche de bois creusé d’une rigole

permettant à l’expérimentateur de mesurer le temps nécessaire à une bille

de cuivre pour parcourir l’ensemble de la distance. Ces expériences furent «

répétées près de cent fois ». Et chaque fois Galilée obtint des résultats

conformes aux prédictions issues de sa théorie, « sans différences appré-

ciables ».

Et pour cause ! Ce n’était pas la théorie que Galilée entendait rectifier à

l’aune de l’expérience, mais l’expérience à l’aune de la théorie. La déduction

de l’astronome, en déduit l’historien des sciences Bernard Cohen, « montre

seulement avec quelle force il s'était forgé une opinion préalable, car les

conditions grossières de son expérience ne pouvaient lui fournir une loi

exacte. De fait, les écarts étaient si grands que l'un de ses contemporains, le

Père Mersenne, ne put reproduire les résultats décrits par Galilée et alla

jusqu'à douter qu'il eût jamais réalisé cette expérience » (The Birth of the New Physics, 1960).

(2) Le récit de l’expérience (apocryphe) du lâcher de poids depuis la tour

penchée de Pise participe de la même volonté de marquer la différence

entre la science moderne frayée par Galilée et celle des scolastiques, qui ne

connaissaient, en fait de tour, que celles d’ivoire qui recelaient leurs livres.

31

(Un comble pour les successeurs des péripatéticiens !) Il est toutefois

heureux que Galilée ne l’ait pas tentée. La loi dont elle se veut l’illustration

fait abstraction du frottement de l’air ; effet qui donnait apparemment tort à

Galilée au profit des tenants de l’ancienne physique. Fictive fut également

l’expérience du lâcher de balle depuis la vigie d’un navire fendant les flots,

décrite dans le Dialogue sur les deux grands systèmes du monde. L’auteur

ne s’en cache pas. À Simplicio, voix d’outre-tombe et d’Aristote, qui

s’enquiert auprès de Salviati, son interlocuteur porte-parole de Galilée, s’il a

lui-même réalisé cette expérience, est répondu que « Non, [il] n'y [a]

d'ailleurs aucune nécessité, puisque sans recourir à l'expérience je puis

affirmer qu'il en est ainsi, parce qu'il ne peut en être autrement ». Un

argument bien péremptoire et bien inattendu de la part d’un dadouque de

l’expérimentation.

N’y a-t-il pas contradiction à condamner d’une main la spéculation pure et à

produire de l’autre des expériences imaginaires ? L’expérience de pensée

est-elle un protocole recommandable de mise à l’épreuve des hypothèses ?

Quelle différence d’avec une pétition de principe, dès lors que ses

conclusions sont prédéterminées ?

Une certaine historiographie des sciences a voulu voir en Galilée

expérimentateur qu’il n’était pas. La mise en cause de cette tradition est à

mettre au mérite de philosophes et d’historiens des sciences comme Pierre

Duhem et Alexandre Koyré, qui ont su faire la part entre l’empirisme

effectif du physicien et son idéalisme. Galilée fut théoricien – et

mathématicien – plus qu’expérimentateur. Les analyses iconoclastes de

Feyerabend entendent montrer combien le succès de ses théories est

redevable avant toute chose de ses talents de propagandiste. N’oublions pas

que Galilée était enfin, tout comme Platon, un talentueux littérateur.

Isaac Newton (1642-1727)

Autre artisan majeur de la révolution intellectuelle et expérimentale du

XVIe-XVIIe siècle ; père fondateur de la mécanique classique : Newton. On

sait le physicien (et alchimiste) anglais à l’origine des trois lois éponymes

ainsi que de la théorie de l’attraction universelle qui supprime la

32

dichotomie établie par le Stagirite entre les monde supra- et sublunaire.

Il n’en est pas moins vrai qu’il recourut ad libitum à des facteurs de

correction que la décence (mathématique) commune n’aurait pas tolérée.

Chaque fois que les véritables résultats de ses mesures défiaient ses

prédictions, Newton en présentait une version maquillée. Ce qui dans la

terminologie des sciences, s’exprime en termes francs de « falsification ». «

Changer l’ordre du monde plutôt que ses désirs ».

L’histoire de la rédaction des Principia, son maître-livre paru en 1687, jette

sur Newton une lumière peu avantageuse, à rebours du portrait très sélectif

que brosse de sa personne l’histoire académique. Newton s’étend dans cet

ouvrage sur les méthodes, sur les principes, sur les visées et sur les champs

d’explorations de la science moderne. Il est probable que le contexte de

rivalité qu’il entretenait avec Leibniz a fini par avoir raison de l’honnêteté

intellectuelle du physicien. La progression continentale des Principia se

heurtait à la résistance des tenants de la vision continuiste et dynamique de

la physique selon Leibniz, lequel n’admettait pas qu’une force s’exerçât à

distance. Elle récusait le postulat central de son astronomie mathématique :

la loi de l’attraction. (Einstein donnerait plus tard raison, contre Newton, au

philosophe de Hanovre).

Venir à bout de ces résistances supposait d’étayer les principes de la

nouvelle mécanique par des mesures et des relevés d’observations d’une

précision inaccessible pour les moyens de l’époque. Qu’à cela ne tienne : qui

veut la fin, veut les moyens. Seule la victoire est belle. Newton ne cessa

d’améliorer ses exposés, chaque édition de ses Principia offrant son lot de

corrections manipulées, s’accumulant jusqu’à atteindre dans la dernière

édition de son œuvre un ordre de précision supérieure au millième. Richard

S. Westfall, biographe d’Isaac Newton et historien des sciences spécialiste

du XVIIe siècle, ne fait aucun mystère de ces contrefaçons : « Ayant posé

l'exactitude des corrélations comme critère de la vérité, Newton veilla à

présenter des corrélations exactes, qu'il les eût ou non réellement obtenues.

Ce ne fut pas le moindre pouvoir de persuasion de ses Principia que de

prétendre délibérément à un degré de précision bien supérieur à ce qu'ils

pouvaient légitimement revendiquer. Si les Principia définissaient les

33

critères quantitatifs de la science moderne, ils laissaient également entrevoir

une vérité moins sublime que personne ne peut manipuler un facteur

correctif aussi efficacement que ce génial mathématicien » (The Life of Isaac Newton, 1993).

Il est un art de la falsification dans lequel Newton était passé expert.

L’ampleur et l’extension de ses « retouches » est, pour leur part, loin d’être

négligeable. Elles concernent aussi bien la détermination de la vitesse du

son que les calculs relatifs au phénomène de précession des équinoxes, en

passant par les observables réfractaires à la théorie de la gravitation. On

peut légitimement se sentir lésé ou – pourquoi pas ? – admiratif devant tant

d’habilité à camoufler les défaillances de ce qui deviendrait très vite

l’ouvrage de référence de la physique moderne.

Plus édifiant encore, le fait que personne de son vivant n’ait su prendre acte

des erreurs de Newton, quand il aurait pour cela suffi de reproduire la

démarche indiquée. Ses données corrompues lui servirent d’arme de guerre

pour emporter la conviction des plus sceptiques. L’envergure de sa fraude

ne serait découverte dans toute son ampleur et ses démonstrations

rigoureusement décortiquées que deux siècles et demi plus tard. Peut-être

n’était-on pas pressé de soulever le voile.

Le pire est à venir (« graviora manent ») ; il ne déçoit jamais. Le comble du

pharisaïsme serait atteint dans le cadre de la controverse qui opposa

Newton à son ennemi de toujours, Leibniz, concernant la paternité du

calcul infinitésimal. Newton se fit fort d’employer tous les recours que lui

offrait son statut de président de la Royal Society pour triompher de cette

querelle et jeter le discrédit sur son rival (« de l’autre rive ») continental. Le

même Newton qui proclamait dans la Préface d'un compte rendu de 1712

au nom de la plus prestigieuse société scientifique d’Angleterre que « [seul

un juge inique et corrompu] autoriserait une personne à témoigner à son

propre procès » plaidait vigoureusement et sans réserve pour l’antériorité de

la découverte de Newton. Le même rapport, rédigé de sa main, faisait peser

sur le penseur de Hanovre le soupçon de plagiat. C’est à Leibniz que la

majorité des historiens rendent aujourd’hui hommage pour avoir découvert

(ou inventé) le premier le calcul différentiel.

34

Une telle affaire ne pouvait échapper longtemps à la critique des

sociologues des sciences. Les partisans de l’externalisme le plus radical, dans

la lignée de Feyerabend, y virent matière à confirmer une idée que le

discours scientifique n’est rien de moins qu’un rapport de force.

Benjamin Franklin (1706-1790)

À l’origine modeste fils de marchand de suif et de chandelles, l’illustre

personnage bénéficie encore à l’heure actuelle d’un renom comparable à

celui des Pilgrim Fathers. Aux yeux du grand public américain, Franklin

n’est pas qu’un homme de lettres et un politicien brillant, c’est un acteur de

premier plan de la science expérimentale, un précurseur qui ne démérite

pas son piédestal au Panthéon des héros nationaux. Dans le grand récit de

l’histoire ou de l’historiographie des sciences, Franklin est aux États-Unis ce

que Marie Curie est en Europe. Reconnaissance qu’il doit essentiellement

en ce domaine à « l’expérience du cerf-volant ». C’est à celle-ci qu’il dût de «

découvrir » le principe du paratonnerre.

Replaçons-nous dans le contexte intellectuel du « siècle des Lumières »,

cruciale à bien des titres. Beaucoup de penseurs de cette époque

s’intéressaient à l’électrostatique, laquelle n’était qu’à ses balbutiements.

C’était une science inchoative, alors pleine de mystère. Un certain nombre

de chercheurs en étaient arrivés par des voies différentes à concevoir la

foudre comme un phénomène apparenté ou analogue aux étincelles

produites en condition de laboratoire. Si tel était effectivement le cas, elle

devrait également se précipiter sur les objets en pointe.

L’histoire officielle rapporte que le 15 juin 1752 éclata un orage dans la ville

de Philadelphia où résidait Franklin. Ce dernier aurait conçu de profiter de

cette météo houleuse pour envoyer un cerf-volant sous un nuage. Le cerf-

volant, battu par les vents orageux, aurait été frappé par une lance de feu.

Le flux électrique à haute tension aurait immédiatement couru le long du

câble et provoqué une étincelle dans une clé fixée au sol. Franklin précise

dans son rapport d’observation qu’il faut attendre que la pluie humidifie le

câble afin qu’il conduise l’électricité ; ensuite seulement qu’une étincelle est

35

susceptible de se produire au sol. Rien que de très logique. Apparemment

seulement. On sait effectivement que de telles expériences en

électrostatique sont irréalisables lorsqu’il pleut. L’humidité (l’hygrométrie)

par temps d’orage annule toute chance de voir éclore une étincelle.

Et Benjamin Franklin, que ne l’a-t-il su ? N’était-il pas aux premières loges ?

La réponse vient à point : ce grand savant n’a vraisemblablement jamais

mené cette expérience. Pas plus que Newton n’a vu tomber la pomme pour

en déduire la loi de l’attraction universelle. D’où la question : pourquoi un

tel story-telling ? Pourquoi affabuler ? La principale raison tient à ce que

l’expérience du cerf-volant avait été conduite en France avec succès le 18

mai 1752. Franklin, en annonçant l’avoir lui-même effectuée en juin 1752

(il s’était rétracté : les premiers témoignages faisaient mention d’octobre

1752), antidatait sa « découverte » et devenait ainsi co-inventeur. De Paris

aux États-Unis, les communications ne prenaient pas moins de sept

semaines bien découpées, ce qui avait pour conséquence d’exclure toute

présomption qu’il ait pu être « au jus ».

Ainsi l’histoire devait retenir le nom de Benjamin Franklin comme celui du

génial expérimentateur qu’il n’a jamais été. L’usurpateur, sur ce terrain,

aura tôt fait d’éclipser les Français. Chateaubriand nous avait pourtant

prévenus : « Gardez-vous de l’histoire que l’imposture se charge d’écrire »…

John Dalton (1766-1844)

Pour être moins célèbre, l’œuvre de John Dalton n’en fut pas moins

déterminante. Ce grand scientifique de la première moitié du XIXe siècle

s’est illustré pour avoir démontré expérimentalement l’existence de

plusieurs familles d’atomes. On lui doit également d’avoir formalisé les lois

de la combinaison chimique, dont celle des « proportions multiples » en

vertu de laquelle tous les atomes d’un élément ne peuvent se combiner

qu’avec un nombre entier déterminé d’atomes appartenant à un autre

élément en vue de former un composé chimique. Il en voulu pour preuve

ses travaux sur l’oxyde d’azote, qui mettaient en lumière le fait que la

combinaison de l’azote et l’oxygène ne pouvait avoir lieu que sous les

auspices de certains rapports déterminés.

36

Reste qu’aucun chimiste jusqu’à nos jours ne fut à même de reproduire les

résultats de Dalton. Lui-même chimiste et historien de sa discipline, James

R. Partington en est venu à douter de l’authenticité des résultats produits

par son prédécesseur : « Sur la base de mes propres expériences, je suis

convaincu qu'il est pratiquement impossible de trouver ces proportions

simples en mélangeant de l'oxyde nitrique et de l'eau » (A History of Chemistry, 1961). Il est probable que ce dernier, si l’on se refuse à le

suspecter de s’être exonéré des expériences dont il invoque l’autorité, s’est

contenté de ne publier que les résultats les plus conformes à l’énoncé de sa

théorie. Le même procédé pourrait valoir quitus au physicien pour

confirmer qu’un dès retombe toujours sur six.

Charles Darwin (1809-1882)

L’auteur de la théorie de l’évolution « au moyen de la sélection naturelle »

doit également répondre d’indélicatesses envers sa discipline et, plus

précisément, envers ceux qui l’ont précédé. Darwin n’a pas laissé de

s’attribuer un mérite qui ne lui revenait pas. Le sien, bien qu’indéniable, ne

lui suffisait pas. « J'aimerais pouvoir attacher moins de prix à cette

renommée de pacotille, confesse Darwin, présente ou posthume, encore que

je ne pense pas y sacrifier de façon excessive » (cité par R. K. Merton dans

The sociology of science : Theoretical and empirical investigations, 1973).

Comme aimait à le déclarer Newton, on ne peut pas être juge et partie…

Samuel Butler, écrivain britannique contemporain de Darwin, ne laissait

pas d’accuser le peu de cas que faisait celui-ci de la contribution de son

grand-père Erasmus ou d’autres figures scientifiques majeures anticipant sur

l’évolutionnisme, dans la lignée de Buffon et de Lamarck (cf. Evolution Old and New, 1879). C’est à cet épisode que se réfère Francis, fils de l’auteur de

L’Origine des espèces, lorsqu’il témoigne de ce que « Cette affaire causa

beaucoup de chagrin à [son] père, mais la chaleureuse sympathie de ceux

dont il respectait les idées lui permit bientôt de rejeter tout cela dans un

oubli bien mérité ». Encore eût-il fallu que « l’oubli bien mérité » n’ait

concerné que la vanité de Darwin ou l’apport occulté de ses précurseurs ;

l'anthropologue Loren Eiseley l’étend aux recherches d'Edward Blyth. Ce

37

zoologiste britannique autodidacte avait été l’auteur de deux articles,

publiés respectivement en 1835 et 1837. « Évolution », « sélection naturelle

», etc., la plupart des concepts au cœur de l’œuvre Darwin s’y trouvaient

développés dans le sens utilisé par ce dernier.

L’œuvre de réhabilitation d’Eiseley s’appuie autant sur des remarques de

fond que sur des considérations de forme. Soit l’analyse stylométrique, qui

lui permet de mettre à jour des ressemblances frappantes entre les textes des

deux scientifiques. L’hommage ne se distingue du plagiat caractérisé que par

des références absentes de l’œuvre de Darwin. Relevons ici, à la décharge

du naturaliste, qu’il mentionne Blyth dans son Natural History of the Cranes – mais pour ne lui attribuer qu’un concours théorique superficiel.

Cette référence, au reste, est un hapax, qu’il ne céda pas de son vivant. Le

Natural History of the Cranes paraît sous le régime posthume en 1881.

Gregor Mendel (1822-1884)

Ce serait en cultivant des pois que l'abbé Gregor Mendel aurait mis en relief

des régularités dans le processus de transmission des caractères en

botanique, et ainsi mis au jour les fondements statistiques de ce qui

deviendrait plus tard l’ingénierie (ou génie) génétique (en anglais « genetic

engineering »).

Les données publiées dans ses travaux s’avèrent pourtant, de l’avis des

scientifiques qui lui ont emboîté le pas, trop concordantes pour ne pas avoir

été en partie inventées. « Les données de la plupart des expériences de

Mendel, pour ne pas dire toutes, ont été truquées de manière à s'accorder

étroitement avec ce qu'il espérait trouver », conclut en 1936 le statisticien

Ronald A. Fisher au terme d’un réexamen des travaux de Mendel. Le diable

est dans les détails. Bien trop précis pour être vrais. Bien trop parfaits pour

ne pas mettre la puce à l’oreille. Fisher se veut diplomate en précisant que

Mendel n’était peut-être pas lui-même à l’origine de ces abus. Rien ne

prouve qu’il n’avait pas été, à son insu, « trompé par quelque assistant qui

savait trop bien ce que l'on attendait ».

Le jugement des généticiens exprime moins de complaisance à l’endroit de

38

leur ancêtre fondateur. Un historien de la génétique relativise ainsi l’origine

expérimentale des intuitions de Mendel : « L'impression que l'on retire de

l'article même de Mendel et de l'étude qu'en a faite Fisher est que Mendel

avait déjà sa théorie en tête quand il procéda à ses expériences. Il se pourrait

même qu'il ait déduit ses lois à partir d'une conception particulière sur

l'hérédité à laquelle il serait parvenu avant d'avoir commencé ses travaux

sur les pois ». Que la théorie précède l’expérimentation, dont acte. Une

chose est néanmoins de poser une hypothèse, une autre de n’admettre pour

admissibles que les observations – minoritaires en nombre – à même de la

corroborer. Or c’est bien là que le bât blesse : de ses « expériences », Mendel

n’aurait retenu pour ses publications que celles qui s’accordaient aux

prédictions de la théorie, et tenu l’ensemble des autres pour nulles et non

avenues, quantités négligeables. Il les aurait sciemment exclues.

Le caractère improbe de ces méthodes ne frappe pas nécessairement tout le

monde. L’algébriste hollandais van der Waerden, auteur de la Modern Algebra (1930), n’y voit pas l’exception que feignent y reconnaître ses

collègues : « Il me semble que beaucoup de scientifiques parfaitement hon-

nêtes furent portés à agir de cette façon. Dès lors que l'on disposait d'un

certain nombre de résultats confirmant clairement une nouvelle théorie, on

les publiait en laissant de côté les cas douteux ». Rien que de très banal. Le

cas de Mendel n’est pas exceptionnel. Que celui qui n’a jamais péché lui

jette la première pierre.

Tandis que les statisticiens, généticiens et autres mathématiciens en sont

encore à qualifier les faits et les méfaits de Mendel, un article daté 1972 de

la revue Peas on Earth, faisant autorité chez les horticulteurs, s’adonne

gaiement au parricide sous le mode satirique : « Au commencement était

Mendel, ruminant ses pensées solitaires. Puis il dit : "Qu'il y ait des pois", et

il y eut des pois, et cela était bon. Puis il mit ces pois dans le jardin et leur

dit : "Croissez et multipliez, différenciez-vous et assortissez-vous

indépendamment." Ainsi firent-ils, et cela était bon. Puis advint que

Mendel rassembla ses pois et les sépara en graines rondes et ridées ; il appela

les rondes dominantes, et les ridées récessives, et cela était bon. Mais

Mendel vi alors qu'il y avait 450 pois ronds et 102 pois ridés. Cela n'était pas

bon. Car la loi stipule qu'il doit y avoir trois ronds pour un ridé. Et Mendel

39

se dit en lui-même : "Gott in Him mel", c'est là l'œuvre d'un ennemi qui

aura semé des mauvais pois dans mon jardin à la faveur de la nuit." Et

Mendel, pris d'un juste courroux, frappa sur la table et dit : "Eloignez-vous

de moi, pois maudits et diaboliques, retournez dans les ténèbres où vous

serez dévorés par les rats et les souris ! "Et il en fut ainsi ; il ne resta plus que

300 pois ronds et 100 pois ridés, et cela était bon. Excellent même. Et

Mendel le publia ».

On aura reconnu la prose de la Genèse. Le parallèle est plus profond qu’il

n’y paraît. Kuhn n’a-t-il pas soutenu le plus sérieusement du monde

l’analogie entre les paradigmes scientifiques et les Saintes Écritures, entre

les théories et les professions de foi ?

Louis Pasteur (1822-1895)

Il y aurait fort à dire quant à la controverse qui défraya longtemps la

chronique scientifique opposant Louis Pasteur, pionnier de la

microbiologie, à Félix Archimède Pouchet. Pouchet s’était rallié, contre les

théories de Pasteur, au camp des partisans de l’hétérogénie, variante

modernisée de la thèse de la génération spontanée. Elle remettait au goût du

jour une ancienne tradition qui prétendait que le vivant pût jaillir de

l’inerte : la grenouille de la boue, la mouche du quartier de viande, etc. Son

principal défaut aux yeux de ses contempteurs n’était pas tant de nature

scientifique que religieuse. Si l’Adam primordial, aux dires de la Genèse,

était bien fait de terre rouge (et sa compagne d’un « os surnuméraire », selon

la formule de Bossuet), la théorie avait la maladresse de faire l’économie

l’intervention de Dieu. Elle évacuait la transcendance, rapportait tout à

l’immanence de la matière. Sur ses sympathisants pesait en conséquence un

lourd soupçon de matérialisme, ergo d’anticatholicisme, ergo de

monarcomachie ; ce que Pasteur ne pouvait tolérer. N’étant rien de cela, il

était donc, naturellement, hostile à l’hétérogénie…

Notons que ce n’est donc pas en première intention à l’aune de la raison et

en toute objectivité que Pasteur (qui portait bien son nom) entreprit de

réfuter cette « dangereuse théorie ». Ce qu’il prétendit faire en enfermant

diverses matières dans des bocaux « pasteurisées » pour observer s’il y avait

40

formation ou non d’animalcules. Pasteur communiqua ses résultats lors d’un

congrès qu’il fit lui-même organiser en grande pompe, où furent conviés ses

homologues venus des quatre coins du globe. Il déclara devant ses pairs

avoir consciencieusement réitéré les expériences alléguées par Pouchet – et

que jamais celles-ci n’avaient donné matière à conforter les thèses de son

contradicteur.

Ce que Pasteur ne disait pas, c’était que dans neuf cas sur dix, il observait

effectivement, à son grand désespoir, la formation d’animalcules germés au

cœur de bottes de foins pourtant dûment aseptisées, et disposées sous

cloche. Ce n’est que bien plus tard qu’on apprendrait qu’il s’agissait

seulement de bacilles résistants aux hautes températures. La faune

versicolore des micro-organismes et des microzoaires demeurerait invisible

jusqu’à la mise au point du microscope. La doctrine de Pouchet s’accordait

aux observations. Pasteur n’en laissa rien savoir. Le scientifique garda le

silence, forme diplomatique de l’embarras. Plutôt que d’exciper une théorie

(celle de Pouchet) d’observations factuelles, il passa outre le désaveu des

faits ; s’arrangea, comme Newton, avec ses résultats pour officialiser des

idées préconçues, et comme celles de Newton, exsangues de justification

épistémologique.

Caution de première main, ses carnets personnels attestent que Pasteur,

bourrelé de scrupules religieux et politiques, avait sciemment scellé la

vérité. Il l’avait morticolisée dans les règles de l’art. Passée sous le boisseau

au motif qu’« elle était trop grave » : « Je ne publiai pas ces expériences ; les

conséquences qu'il fallait en déduire étaient trop graves pour que je n'eusse

pas la crainte de quelque cause d'erreur cachée, malgré le soin que j'avais

mis à les rendre irréprochables » (Mémoire sur les corpuscules organisés qui existent dans l'atmosphère. Examen de la doctrine des générations spontanées, 1862). Trop grave pour quoi ? Pour qui ? Quid de la science et

de sa légendaire indépendance ? Quid de la déontologie ? Elle est bien loin,

la rationalité que célébrait Bacon ! Pasteur, rappelons-le, reste, à l’instar de

Benjamin Franklin sous d’autres latitudes, considéré sous nos climats ainsi

qu’un parangon de science. Consolons-nous au moins en nous rappelant

qu’à rebours de Franklin, Pasteur aura eu d’autres intuitions, plus salutaires,

salubres, plus sanitaires pour la médecine…

41

Nous ne croyons plus au XXIe siècle que des muridés puissent germer dans

des serpillières gorgées de sperme. Pasteur, quand bien même ses

expérimentations lui donnaient visiblement tort, avait raison pour ce qui a

trait au fond de la question. Si l’apparente naïveté de la théorie de

l’hétérogénie peut prêter à sourire, il faut toutefois que le sourire soit large.

Il faut nous rappeler que c’est bel et bien de l’inerte, de la chimie du

carbone, que les premiers organismes vivants ont émergé sur Terre. Il y a

bien eu, au moins une fois, sur Terre, passage de l’inerte au vivant. Les

premiers constituants de la première cellule, LUCAS, notre ancêtre

commun – à nous, humains, comme à tout organisme –, auraient pu être

élaboré dans la soupe prébiotique ou au creux des argiles, ou d’une autre

manière à laquelle ne songe pas encore l’archéobiologie. Toutes font valoir

il y a bel et bien eu un événement répondant à l’antique définition de la

génération spontanée. Et on ne voit pas pourquoi ce phénomène ne serait

pas reproductible en condition de laboratoire. La controverse a changé de

visage, mais ne s’est pas éteinte.

Robert Millikan (1868-1953)

Cas plus récent, celui de Robert Millikan, à qui l’on doit d’avoir effectué la

première mesure précise de la charge électrique de l’électron. Du moins est-

ce là l’imputation qui lui valut le prix Nobel de physique en 1923. Mais il y

a loin de la coupe aux lèvres. Il y eu pour cela recourt à l’« expérience de la

goutte d’huile ». Usant d’une valeur erronée de la viscosité de l’air, il fut

toutefois contraint de « rétablir » ses résultats de manière artificielle, en «

bricolant » avec la vérité. Craignant de s’être eux-mêmes trompé, nombre

de physiciens expérimentateurs agirent de même pour retrouver les

résultats de Millikan. Le fin mot de l’affaire ne serait éventé qu’en 1974

avec l’intervention de Richard Feynman au cours d’une de remise de

diplômes à Caltech (California Institute of Technology), mettant fin à un

demi-siècle de complaisance et d’omerta :

« Nous avons beaucoup appris par expérience personnelle sur les

façons par lesquelles on peut s’induire en erreur. Un exemple :

Millikan mesura la charge de l’électron à l’aide d’une expérience faite

42

avec des gouttes d’huile et obtint un chiffre que nous savons

aujourd’hui ne pas être complètement exact. La valeur était un peu

décalée parce qu’il utilisait une valeur incorrecte de viscosité. Il est

édifiant d’examiner les résultats qui ont suivi Millikan. Si on trace les

valeurs obtenues en fonction de la date à laquelle elles ont été

trouvées, on se rend compte que l’expérience suivant celle de

Millikan donne une valeur légèrement supérieure à celle que

Millikan avait trouvé, et que celle qui suit donne une valeur encore

légèrement supérieure, jusqu’à ce qu’on arrive progressivement à une

valeur très supérieure. Mais pourquoi n’ont-il pas trouvé la bonne

valeur dès le début ? Les scientifiques ont honte des dessous de cette

histoire car il semblerait que les choses se soient passées ainsi :

lorsqu’ils obtenaient une valeur bien plus élevée que celle de

Millikan, ils se disaient qu’il devait y avoir une erreur et essayaient

de comprendre ce qui avait pu mal tourner. Et lorsqu’ils trouvaient

une valeur proche de celle de Millikan, ils ne se posaient pas de

questions. Ils ont ainsi éliminé les valeurs trop décalées. Nous

connaissons ces petites combines de nos jours et nous nous savons-

nous immuniser contre cela ».

Nous nous voudrons moins dogmatiques quant à cette conclusion.

Actualité de la fraude

Le détail de ces exemples et d’autres de la même eau sont traités dans le

remarquable ouvrage de W. Broad et de N. Wade, La souris truquée. Enquête sur la fraude scientifique, Paris, Seuil, 1987. Ceux-là suffiront à

notre propos. Le bilan n’est guère fameux. Le récit orthodoxe de l’histoire

des sciences ne retient par nature et par amour-propre que les exploits des

rares individus ayant contribuée de manière décisive à l’avancée des

connaissances. S’il s’agit là de ces mêmes personnages dont on a vu le peu de

scrupules qu’ils avaient à s’approprier les résultats de leurs prédécesseurs, à

contrefaire le compte rendu de leurs expériences (pour autant qu’ils les

aient mises à exécution), on peut se demander jusqu’à quel point leurs pairs

de moindre renommée ont pu verser dans la contrefaçon. Ce qui vaut pour

le passé reste on ne peut plus d’actualité. Si même les plus illustres

43

représentants des sciences s’autorisaient autant de licence intellectuelle,

comment les chercheurs salariés du XXIe siècle ne prendraient-ils pas,

autant que faire se peut, des libertés avec la « vérité » ?

Naïf qui voudrait croire que notre époque avertie de ces cas jurisprudentiels

se soit pourvue de garde-fous suffisamment nombreux pour écarter tout

risque de voir se répéter ces précédents de sinistre mémoire. La fiabilité des

comités de lecture est loin d’être établie, comme l’a malicieusement

prouvée l’affaire Sokal-Bricmont. Les filtres institutionnels ne garantissent

pas contre la fraude. À cela s’ajoutent les conditions de production du savoir

scientifique au XXIe siècle, qui soumettent le chercheur à des impératifs de

rentabilité tout à la fois économiques et bibliométriques (e.g. le fameux

indice H). La renommée ne nourrit pas son homme. L’amour de l’art ne

finance pas le matériel et les infrastructures de recherche. Semblables

préventions n’effleuraient pas les hommes de science d’il y a quelques

siècles. Ils héritaient une tradition qui dissociait résolument les nobles

productions de l’esprit de toute velléité d’enrichissement. La rentabilité a

déposé le prestige.

Autre point à considérer : la science d’avant le XXe siècle se pratiquait dans

le temps de l’otius (« loisir »), comme un art libéral. Art du même ordre que

pouvait l’être la politique ou la dramaturgie dans l’organisation économique

qui était celle de l’ancienne Athènes. En fait d’esclaves, les princes et les

mécènes pourvoyaient aux besoins matériels de leurs protégés, qu’ils soient

artistes ou scientifiques, lesquels leur dédiaient en retour leur découverte.

C’est au duc de Toscane que Galilée fut redevable de pouvoir effectuer ses

expériences. La fortune que Darwin reçut en héritage ne compta pas pour

peu dans le temps de maturation et de réflexion qui lui fut nécessaire pour

accoucher de L’Origine des espèces. Beaucoup de découvreurs et inventeurs

célèbres était des moines soutenus par une communauté : que l’on songe à

Gregor Mendel, à Giordano Bruno ou à… Dom Pérignon (bien que

l’invention du vin mousseux par ce bénédictin relève de la légende plus que

du fait historique).

Les commencements de la « Big science » obligent les scientifiques à se

regrouper autour d’infrastructures dont la maintenance exige des fonds qui

44

mettent celles-ci hors de portée des dilletantes et des particuliers. Les

scientifiques se spécialisent. La science change de visage. De passe-temps

qu’elle était, elle devient profession. L’affaire de plus d’une vie, l’affaire

d’une collectivité. Et plus radicalement encore, bien plus qu’une vocation :

un moyen de subsistance. Se constituent des groupes et des équipes de

recherches subventionnés par les États ou par les entreprises privées, au

sein desquelles évoluent à plein temps des chercheurs « prolétarisés ».

D’où l’exigence de résultats rapides et mesurables quantitativement. Le

nombre de citations dans les revues à comité de lecture (américaines, pour

l’essentiel) fait foi de la productivité de chaque chercheur, sans égard pour

la qualité de leur résultats ni pour la valeur ajoutée de ces résultats ; ce

quelle que soit la discipline considérée. Leur quotidien prend l’apparence

d’une lutte pour l’existence que résume la devise « publish or perish ». Le

temps consacré à la recherche et à la réflexion ne peut plus apparaître que

comme un temps sacrifié, là où toute l’attention des scientifiques doit être

concentrée sur l’objectif de produire à flux tendu. Ce qui, aux États-Unis, ne

relève plus d’une seule question d’orgueil, mais déjà d’une question de

survie. À quoi bon s’obstiner à maintenir en poste des scientifiques

improductifs ? Et les gouvernements, et les industriels, par quel tour

improbable s’entêteraient-ils à abonder des unités de recherche et des

projets sans « visibilité » ?

Mais il n’est pas besoin de franchir les eaux de l’Atlantique pour voir à

l’œuvre cette mentalité. L’adoption du mode de financement par projet dans

le secteur public contraint les équipes de recherches à de véritables

contorsions intellectuelles pour inventer des débouchés à des explorations

encore inentamées, assorties de leurs conclusions définitives. Cette

inversion de la démarche scientifique a pour effet de condamner tout «

risque » d’ouverture à l’inédit, à l’étrangeté, aux jamais vu ; de réduire à

peau de chagrin la part de hasard nécessaire aux découvertes authentiques.

Elle prononce ce faisant une condamnation à terme de la recherche

fondamentale, intrinsèquement porteuse d’une part de créativité et de

spéculation.

Le secteur privé n’est pas en reste. Ne sont trop souvent récompensés, à

45

force de primes et autres promotions, que les succès exploitables

économiquement, au terme d’initiatives à visées carriéristes plutôt que

progressistes. La position sociale du scientifique se trouve dans tous les cas

intimement liée au nombre et à l’emploi de ses publications. Incitation bien

suffisante pour engendrer toute une typologie de fraudes : de l’arrangement

à l’invention en passant par l’occultation de certains résultats non

concordants et l’appropriation des idées développées par d’autres. Qu’il

brigue un poste prestigieux, un prix, une subvention ; qu’il cherche à se

forger une réputation ; qu’il désire simplement se maintenir dans son statut,

le même tarif appelle les mêmes déviances.

L’inquiétude porte désormais sur les évolutions prochaines (d’aucuns disent

« imminentes ») des structures de recherche. Que restera-t-il de

l’indépendance de la science au terme du processus de libéralisation

(« autonomie ») des universités (ouverture au capital) ? De quelle latitude

un ingénieur disposera-t-il encore une fois son sacerdoce phagocyté par les

industriels de l’innovation ? Quel avenir pour la fraude, déjà si répandue,

dans une société qui préfère le rendement à la fertilité ? Comment un

scientifique confronté à de telles pressions ; mettons plutôt « combien de

temps » un scientifique dont la pérennité ne dépend parfois que de sa

capacité à resquiller sans se faire prendre, restera-t-il vertueux ?

Giordano Bruno (1548-1600)

Principales contributions :

- Le Banquet des cendres (1584)

- L'Infini, l'univers et les mondes (1584)

- L'Expulsion de la bête triomphante (1584)

- Des liens (1591)

Concepts et idées-forces :

- Profession de foi copernicienne affirmée dès 1584 dans Le Banquet des cendres. Les planètes tournent sur elle-même (rotation) et autour du Soleil

(révolution). Développement de la théorie de l’héliocentrisme sur la base

des travaux de Nicolas de Cues (1401-1464).

46

- Plusieurs points de divergence d’avec le modèle de Copernic empêchent

toutefois de voir en Bruno un héritier fidèle de sa pensée.

(1) Le moine déploie en premier lieu le paradigme d’un cosmos animé,

doué de son mouvement propre, qu’il communique aux corps célestes. Là

même Copernic attribuait la cause de la révolution des astres à leur forme

sphérique, Bruno les dote d’une âme ou d’un principe vital à l’origine de

leur mouvement, principe qui se retrouve partout dans l’univers en tant que

corps vivant, dans les parties comme dans l’ensemble formé de ces parties.

Aussi les astres ne sont-ils pas véhiculés par des sphères cristallines et ne

sont pas soumis aux lois physiques, dont celle de l’inertie. Ils tendent, selon

leurs « appétits », vers leur lieu naturel, profitant de la chaleur de l’astre

hélianthe et de sa lumière pour mieux pourvoir à la conservation de leur

être (conatus). Tels sont les postulats fondamentaux de ce que Paul-Henri

Michel appelle la « biocosmologie » de Bruno (Giordano Bruno, philosophe et poète, 1952), très éloignés des considérations de Copernic. Une teneur

animiste qui aussi bien entre en contradiction avec l’orthodoxie

théologique. Le Dieu de la Genèse fait des (pseudo-)divinités astrales des

panthéons des civilisations périphériques, en particulier babylonienne, de

simples luminaires ; il désenchante le monde pour mieux le transcender.

Pose également le problème de savoir quel type de relation (identité,

analogie, ressemblance, etc.) entretient Dieu avec les âmes particulières

contenues dans les objets physiques, les âmes des créatures et l’âme du

monde.

(2) Bruno prend à partie le privilège indûment accordé par Copernic au

mouvement circulaire parfait, le même qui traverse toute l’astronomie

classique de Platon à Ptolémée. Un tel mouvement parfait ne peut exister

dans l’ordre du sensible et n’est pas corroboré par les observations. Les

orbites elliptiques des cinq planètes seront découvertes par Kepler.

(3) Pas davantage que ne l’était la Terre, le soleil n’est considéré par

Giordano Bruno comme résidant au centre du cosmos : « Il n'y a aucun astre

au milieu de l'univers, parce que celui-ci s'étend également dans toutes ses

directions » (Le Banquet des cendres). Bruno tient, à la suite de Nicolas de

Cues, qu’il est « impossible d'attribuer à la machine du monde aucun centre

fixe et immobile » (La docte ignorance). Le cosmos n’est plus borné par une

« sphère des fixes ». Bruno bannit les hiérarchies cosmiques, que ce soit

celles véhiculées par le modèle d’Aristote ou par celui de Copernic, axées

47

respectivement sur l’orbe terraqué ou sur l’astre du jour. Il envisage d’autres

systèmes solaires au sein desquels, autour de leur étoile centrale, orbitent

d’autres planètes invisibles à nos yeux : « Il est donc d'innombrables soleils

et un nombre infini de Terres tournant autour de ces soleils, à l'instar des

sept "Terres" [la Terre, la Lune, les cinq planètes alors connues : Mercure,

Vénus, Mars, Jupiter, Saturne] que nous voyons tourner autour du soleil qui

nous est proche » (L'Infini, l'Univers et les Mondes). Ces planètes sont

partout de la même composition élémentaire que la nôtre et doivent être

étudiées selon les mêmes méthodes.

(4) Infinité de l’univers. Surmonte l’obstacle épistémologique de la

finitude que maintenait Copernic en conservant du modèle planétaire

aristotélicien la sphère des étoiles fixes en rotation autour d’un centre (la

Terre ou le soleil) : « Nous déclarons cet espace infini, étant donné qu'il

n'est point de raison, convenance, possibilité, sens ou nature qui lui assigne

une limite » (L'Infini, l'Univers et les Mondes). Il n’y a qu’un vide immense

et homogène qui s’étend dans toutes les directions à perte d’imagination. Le

cosmos délimité vole en éclat. Une transgression de toute frontière

physique, mais également intellectuelle, qui permet de penser un infini

actuel. Il est à signaler que l’astronome anglais Thomas Digges, élevé sous la

tutelle du sulfureux John Dee (1546-1595), avait déjà envisagé cette

possibilité de l’infinité de l’univers dans l’appendice qu’il rédigeait en 1576

pour la nouvelle édition de l'almanach perpétuel de son père, première

publication anglaise prônant l’héliocentrisme de Copernic : A Prognostication everlasting.

(5) Pluralité des mondes habités. Là où n’était auparavant qu’une seule

Terre viable au centre de la sphère des fixes, advient l’image d’un univers

peuplé d'une infinité d’astres et de mondes identiques au nôtre, lesquels ne

sont « point différents de notre monde par leur nature, mais seulement par

leurs dimensions » (Le banquet des Cendres), abritant d’autres créatures

faites à l’image de Dieu. « Ainsi donc les autres mondes sont habités comme

l'est le nôtre ? demande Burchio. Fracastorio, porte-parole de Bruno répond

: Sinon comme l'est le nôtre et sinon plus noblement. Du moins ces mondes

n'en sont-ils pas moins habités ni moins nobles. Car il est impossible qu'un

être rationnel suffisamment vigilant puisse imaginer que ces mondes

innombrables, aussi magnifiques qu'est le nôtre ou encore plus magnifiques,

soient dépourvus d'habitants semblables et même supérieurs » (L'Infini,

48

l'Univers et les Mondes). Soulève le problème de l’Incarnation : qui pour

sauver ces âmes ? D’autres Adam, d’autres Christ, d’autre Crucifixions ?

- Il semble, en dernière analyse, que Bruno ait été le premier penseur de la

Renaissance à entrevoir l’infinité d’un univers peuplé d’un bestiaire infini

de corps célestes, de soleils et de mondes habités. Ce qui fait dire à Ernan

McMullin (Newton on Matter and Activity, 1979) que s’il a bien repris

certaines idées de Copernic, il ne l’aura fait que marginalement, qu’en vue

de la constitution de son propre système. Bien que les deux hommes se

rangent expressément sous la tutelle du Trismégiste, c’est avec des a priori et des méthodes irréductiblement distinctes, qui aboutissent à des thèses qui

ne sont pas moins (ne serait-ce qu’au regard de la clôture ou de l’illimitation

de l’univers).

- Justification théologique. Ce n’est pas par iconoclastie ou hérésie, par

volonté d’abattre la théologie que Bruno heurte avec un tel allant

l’orthodoxie de son temps. C’est, comme pour nombre de philosophes

théologiens croyants ayant marqué l’histoire des sciences (et, malgré eux,

précipité l’effondrement de l’autorité chrétienne), mu par une foi

inébranlable d’où s’origine la conviction que les vérités atteintes par la

raison ne peuvent être en contradiction avec contenu véritable de la

révélation. Bruno joue la religion contre la religion. Exemple avec l’infinité

de l’univers : celle-ci n’est pas un signe d’imperfection (contra l’acception

grecque de l’idée d’infini), mais le reflet de la toute-puissance du Créateur

au sein de la création. L’effet doit refléter pleinement le caractère infini de

sa cause. Dieu crée son image ; à son image, le monde est infini. L’infinité

du monde imite la perfection de Dieu : « Il n'y a qu'un ciel, une immense

région éthérée où les magnifiques foyers lumineux conservent les distances

qui les séparent au profit de la vie perpétuelle et de sa répartition. Ces corps

enflammés sont les ambassadeurs de l'excellence de Dieu, les hérauts de sa

gloire et de sa majesté. Ainsi sommes-nous conduits à découvrir l'effet infini

[le monde] de la cause infinie [Dieu] ; et à professer que ce n'est pas hors de

nous qu'il faut chercher la divinité, puisqu'elle est à nos côtés, ou plutôt en

notre for intérieur, plus intimement en nous que nous ne sommes en nous-

mêmes » (Le Banquet des cendres). Poser un univers fini serait, par

contraposition, poser un Créateur fini qui ne saurait être Dieu. Bruno,

malgré sa formation thomiste, tire là une conséquence qui répugnait encore

à Nicolas de Cues, lequel, s’il rejetait de fixer des limites à l’univers, ne le

49

concevait pas comme infini en acte. Ainsi écrivait-il, dans La docte ignorance, que « bien qu'en un sens le monde ne soit pas infini, on ne peut

pourtant pas le concevoir comme fini, puisqu'il n'est enclos entre aucunes

limites » (La docte ignorance).

- Rend possible une extension à la physique de l’idée d’infini, jusqu’alors

chasse gardée de la théologie. Permet de penser un infini réel, présent et

saisissable dans l’immanence (de la nature), au-delà de la transcendance

divine. Un geste décisif pour le procès de mathématisation du phénomène

et du mouvement, coextensif à l’émergence de la science moderne.

Fontenelle porte cette entreprise à son plus haut degré de réalisation en

1728 avec ses Éléments de la géométrie de l’infini, qui dénouent

définitivement les liens de l’infini et de la transcendance. Voir les

problèmes de l’infini mathématique chez Pascal et Galilée. Leibniz et la

résolution des paradoxes Zénon.

- Les partisans du système d’Aristote relevaient que si la Terre était

effectivement en rotation, une pierre jetée du haut d’une tour devrait s’en

éloigner dans le sens inverse de la rotation de notre planète durant le temps

de sa chute, et retomber à quelques mètres de son pied. Ce qui n’est

manifestement pas le cas ; ensuite de quoi (modus tollens) la Terre devait

être fixe. Bruno constate que le dispositif tour-pierre-Terre forme un

ensemble (ultérieurement nommé un « système mécanique ») depuis lequel

on ne peut déceler un mouvement absolu : « Toutes choses qui se trouvent

sur la Terre se meuvent avec la Terre. La pierre jetée du haut du mât

reviendra en bas, de quelque façon que le navire se meuve » (Le Banquet des cendres). - Relativité du mouvement. L’âme habite chaque parcelle de la matière, lui

conférant la vie ; si bien que plus aucun corps ne peut être considéré

comme en état de repos absolu. Le mouvement néanmoins ne peut pas plus

être considéré de manière absolue, et ne peut être envisagé que par rapport

à un système de référence, plus tard appelé « référentiel galiléen ».

– Les devanciers et les inspirateurs. À l’exclusion des physiciens et

astronomes contemporains (dont Galilée), Bruno puise à de nombreuses

sources, étalées dans l’histoire :

(1) Matérialisme antique. Démocrite, Épicure et Lucrèce en ce qui

concerne l’atomisme, qu’il investit d’un animisme anticipant par certains

traits les monades de Leibniz.

50

(2) Théologie médiévale. Si Aristote et les néoplatoniciens ne sont pas

oubliés, c’est encore chez les philosophes chrétiens que Bruno puise la

matière principale de sa cosmologie infinitiste : chez Nicolas de Cues,

principalement, qui anticipe sans l’assumer l’infinitude de l’univers et

affirme son absence de centre (cf. La docte ignorance).

(3) Hermétisme de la Renaissance. Épanouissement de l’occultisme à la

suite de la traduction au XVe siècle par Marsile Ficin de plusieurs traités du

Corpus hermeticum, attribué à Hermès Trismégiste. De nombreuses autres

inspirations cabalistiques, magiques ou magico-religieuse signalées par

l'historienne Frances Yates dans ses travaux portant sur Giordano Bruno et la Tradition hermétique (1964).

- Principe de plénitude. En accord avec le thème orthodoxe de l’échelle des

êtres, Bruno pose que le Créateur, en vertu de son essence, n’a pu faire

autrement que de combler le plus grand espace possible avec le plus grand

nombre et la plus grande diversité possible de perfection, de mondes de

formes, d’essences. Le principe de plénitude acquiert une importance

centrale au sein de la théodicée de Leibniz. Explique l’imperfection des

créatures et l’échelle des êtres (scala naturæ).

- Principe de raison suffisante. Autre héritage de Giordano Bruno au cœur

de la philosophie de Leibniz. Il signifie que rien n’est sans raison, pas plus

dans l’ordre de l’existant que dans celui de la pensée. En son sens négatif,

implique que l’on ne peut écarter aucune proposition probable sans justifier

cette exclusion. Si Dieu est tout-puissant, il crée infiniment ; il créé un

univers à son image, illimité et dépourvu de centre ; crée d’autres êtres aussi

bien inférieurs que « semblables et supérieurs à nous ». Que ne le ferait-il

pas ?

- Confiance en la puissance de l’intellect vs. les preuves mathématiques : «

Concernant la mesure du mouvement [des corps célestes], la géométrie

ment plutôt qu'elle ne mesure […] C'est à l'intellect qu'il appartient de

juger et de rendre compte des choses que le temps et l'espace éloignent de

nous » (De immenso). Penser n’est donc pas calculer (vs Hobbes).

- Une œuvre hétéroclite. N’hésitant pas à associer la science et la

philosophie à la magie et à la religion. Le De vinculis in genere (Des liens) de 1591 est ainsi consacré à l’occultisme. Comme le ferait Kepler et nombre

d’autres protagonistes de la « révolution intellectuelle », Bruno raisonne en

51

astrologue tout en ne laissant pas de combattre la superstition ; ainsi dans

L’expulsion de la bête triomphante.

- Accusation d’athéisme pour ses écrits blasphématoires. Lui vaut d’être

brûlé en place publique, en qualité de relaps, au terme de huit années de

procès. Il s’était rétracté, pour finalement en revenir à ses primes hérésies

concernant le statut de « mage habile » du Christ, du Salut pour Satan

(apocatastase), du Saint-Esprit comme âme du monde, etc. Jurisprudence

tragique qui crée une manière d’omerta, de climat de « terrorisme

intellectuel » pesant sur les protagonistes de la science moderne et en

particulier Descartes, qui préféra se consacrer à la philosophie plutôt que de

passer dans la physique le point de non-retour qui l’aurait mis en butte aux

anathèmes.

- Le travail du négatif. Comme le souligne Arthur O. Lovejoy, pionnier de

l’histoire des idées, le raisonnement de Bruno reste attaché aux formes

scolastiques héritées de la refonte par saint Thomas de la pensée d’Aristote.

C’est donc « de l’intérieur » que le Napolitain fait un sort à la théologie

médiévale, en excipant et en portant à leurs ultimes limites certaines des

thèses qu’elle recelait déjà. Le paradigme meurt de ses contradictions,

offrant l’un des plus beaux exemples de dialectique au sens qu’Hegel

donnera à ce concept.

Léon Brunschvicg (1869-1944)

Principales contributions :

- La Modalité du jugement (1897)

- Le Progrès de la conscience dans la philosophie occidentale (1927)

- La Raison et la religion (1939)

Concepts et idées-forces :

- La méthode réflexive (idéalisme critique)

- Le jugement scientifique

- Le progrès du savoir sous la modalité des sciences rend compte de la

genèse de l’esprit

52

Jean Buridan (1292 - 1363)

Principales contributions :

- Expositio et Quaestiones in Aristotelis « De Caelo » (1328)

- Compendium Logicae (1335)

- In Aristotelis Metaphysica (?)

Concepts et idées-forces :

- Instigateur du scepticisme en matière de religion.

- Théorie de l'impetus. Redécouverte aux alentours de 1340 (cf. articles

« Impetus » de Christiane Vilain, et « Inertie » de François de Gandt dans

Dominique Lecourt, Thomas Bourgeois (éds.), Dictionnaire d'histoire et philosophie des sciences, 2006). Prise en défaut de la théorie

aristotélicienne de la cause motrice, faisant valoir que tout projectile doit

être mû par autre chose. Même l’hypothèse ad hoc attribuant à l’air

échauffée d’acquérir une puissance qui pousse le projectile ou au contraire,

la tire en raison de la raréfaction de l’air provoqué par son déchirement

(antipéristase), sont impuissants rendre compte de la dynamique des corps.

La solution de Buridan et celle de l’impetus, qui dénote les concepts de

quantité de mouvement et d’énergie cinétique avant que ne soit mis au

point l’idée de vitesse, et anticipe de manière originale sur la loi de l’inertie

formalisée avec Descartes et Galilée : « Voici donc, ce me semble, ce que

l'on peut dire : tandis que le moteur meut le mobile, il lui imprime un

certain impetus, une certaine puissance capable de mouvoir le mobile dans

la direction même où le moteur meut le mobile, que ce soit vers le haut, ou

vers le bas, ou de côté, ou circulairement. Plus grande est la vitesse avec

laquelle le moteur meut le mobile, plus puissant est l'impetus qu'il imprime

en lui...mais par la résistance de l'air, et aussi par la pesanteur qui incline la

pierre à se mouvoir en sens contraire... cet impetus s'affaiblit

continuellement [...] Toutes les formes et dispositions naturelles sont reçues

en la matière et en proportion de la matière ; partant plus un corps contient

de matière, plus il peut recevoir de cet impetus ; or dans un corps dense et

grave, il y a, toutes choses égales d'ailleurs, plus de matière qu'en un corps

rare et léger. Une plume reçoit un impetus si faible que cet impetus se

trouve détruit aussitôt par la résistance de l'air » (cité dans article « Impetus

», op. cit.).

53

- Cette théorie se connaissait une préfiguration chez le commentateur

byzantin Jean Philopon ainsi que chez Guillaume d’Ockham, lequel fait

référence à une manière de communication énergétique d’un corps « agent

» à un autre « patient », devenant lui-même agent d’une communication

occasionnelle.

- L’âne de Buridan. Expérience de pensée mettant en scène un dilemme

poussé à l’absurde, exemplification de la double contrainte. Entre son

picotin d'avoine et son seau d'eau, un âne se serait trouvé dans l’incapacité

de choisir et serait mort de faim et de soif. Il s’agissait à l’origine d’un chien

: « On a beaucoup parlé de l'âne de Buridan, à savoir un âne affamé placé

entre deux bottes de foin, ou également affamé et assoiffé placé entre une

botte de foin et un seau d'eau, qui se laisserait mourir d'inanition par

indécision, pour décrire un choix moral. C'est dans son Commentaire

littéral sur le Traité du ciel (exposition du traité De caelo) que Buridan met

en scène, non pas un âne, mais un chien confronté au cruel dilemme.

Buridan, avec tout l'humour qui le caractérise, évoque cette possibilité

comme celle d'une alternative insensée, comparable à celle qui voudrait

soupeser les mérites de la gravité terrestre et de l'objet lourd qui lui est

soumis. On est donc loin de choix éthiques » (Benoît Patar, Dictionnaire des philosophes médiévaux, 2006).

- Le passage d’Aristote réinvesti par Buridan se situe en 295b32. Il y est

effectivement question d’un chien incapable d’arbitrer entre ses appétits,

deux mets d’une attirance égale lui étant proposés. Le Stagirite s’en sert de

paradigme pour décrire les mouvements contradictoires de la volonté

humaine : « Celui qui, affligé d'une faim et d'une soif très vives, mais

également intenses, se trouve à égale distance des aliments et des boissons :

lui aussi demeurera nécessairement immobile ! » (trad. P. Moraux). S’ensuit

la métaphore d’une corde sans défaut tendu au point de rompre, mais « ne

sachant pas » en quel endroit.

- Descartes reprend le dilemme de l’âne (ou chien) de Buridan pour illustrer

ce qui constitue chez l’homme le plus bas degré de la liberté, la liberté

d’indifférence, qui se décide sans être mûe par des raisons. La liberté

d’indifférence est en revanche la plus grande perfection de Dieu, lequel n’a

pas sa volonté contrainte par son entendement (c’est aussi l’opinion

d’Arnaud, contre celle de Leibniz).

54

- On retrouve l’âne (devenue ânesse, ce qui en dit long) de Buridan dans le

scolie de la proposition 49 de la deuxième partie de l'Éthique de Spinoza, «

On peut […] objecter que, si l'homme n'opère pas par la liberté de la

volonté, qu'arrivera-t-il donc s'il est en équilibre, comme l'ânesse de

Buridan ? Mourra-t-il de faim et de soif ? Que si je l'accorde, j'aurai l'air de

concevoir une ânesse, ou une statue d'homme, non un homme ; et si je le

nie, c'est donc qu'il se déterminera lui-même, et par conséquent c'est qu'il a

la faculté d'aller, et de faire tout ce qu'il veut. […] J'accorde tout à fait qu'un

homme placé dans un tel équilibre (j'entends, qui ne perçoit rien d'autre

que la soif et la faim, tel aliment et telle boisson à égale distance de lui)

mourra de faim et de soif. S'ils me demandent s'il ne faut pas tenir un tel

homme pour un âne plutôt que pour un homme ? Je dis que je ne sais pas,

pas plus que je ne sais à combien estimer celui qui se pend, et à combien les

enfants, les sots, les déments, etc. » (trad. Bernard Pautrat, p. 191 et 195).

Outre la féminisation de la bête affamée, l’amendement porte sur

l’incapacité que l’homme aurait à choisir en dernière intention, quand

Buridan lui accordait la liberté d’opter de manière gratuite.

Michel Callon (1945-20XX)

Principales contributions :

- « Éléments pour une sociologie de la traduction. La domestication des

coquilles Saint-Jacques dans la Baie de Saint-Brieuc », dans L'Année sociologique, n°36 (1986)

- La Science et ses réseaux. Genèse et circulation des faits scientifiques

(1989)

- La Science telle qu'elle se fait (avec Bruno Latour) (1991)

- La Scientométrie (avec Jean-Pierre Courtial et Hervé Penan) (1993)

- Agir dans un monde incertain. Essai sur la démocratie technique (avec

Pierre Lascoumes et Yannick Barthe) (2001)

Concepts et idées-forces :

- Sociologie de l’acteur-réseau (SAR) ou sociologie de la traduction

développée de concert avec Bruno Latour, John Law et Madeleine Akrich,

qui permet de penser ensemble la production des connaissances et les

55

institutions, enjeux industriels, effets sociaux, impacts et débouchés des

sciences. Cf. notice Bruno Latour.

- Tente une application de la sociologie de la traduction au champ de

l’économie.

- Spécialisée dans les « science and technology studies » (sociologie des

sciences et des techniques).

- L’étude de « la science en train de se faire » ne peut faire l’économie de ses

enjeux sociaux hors du laboratoire. L’activité scientifique est tributaire

d’une démarche préalable de mobilisation des acteurs concernés, des

groupes et des individus susceptibles d’être enrôlés et pareillement, de

dispositifs techniques, de ressources industrielles et naturelles, de

phénomènes dont l’ensemble tisse un dense réseau d’acteurs qui prête sa

crédibilité à un énoncé scientifique.

- L’illustre l’enquête que mène Michel Callon autour d’une recherche

scientifique portant sur la fixation des coquilles Saint-Jacques de l’espèce

Pecten maximus en baie de Saint-Brieuc. Dans son article de 1986, «

Éléments pour une sociologie de la traduction… », il retrace les étapes par

lesquelles trois chercheurs vont parvenir à importer une nouvelle technique

permettant leur culture intensive, alors que l’activité locale vit ses derniers

feux. Les trois acteurs identifiés sont les marins-pêcheurs, la communauté

scientifique et les coquilles Saint-Jacques, chacun cultivant ses intérêts

propres (respectivement, le maintien de l’activité locale, l’accroissement du

savoir, la prolifération) ; il s’agit de nouer des alliances avec eux et de

défaire leurs autres allégeances afin de les convaincre que leur avenir

dépend de la réponse à la question « Pecten maximus se fixe-t-il ? », point

de passage obligé (PPO). Colloques, négociations, réunions et pourparlers

s’organisent qui rassemblent les hommes de la mer, les ingénieurs, les autres

scientifiques intéressés à la question, etc.

- Cet article séminal est l’occasion de l’application à l'analyse d'une

controverse socio-technique de la notion de traduction, reprise de Michel

Serres (Hermès III. La traduction, 1974). Callon motive aussi son choix

d’analyser de manière symétrique les actants humains et non-humains.

- Forums hybrides. Lieu de rencontre entre les acteurs du monde civil et du

monde privé, des citoyens et des politiques, des experts et des habitants, des

politiques et des chercheurs se réunissant à l’occasion de débats socio-

techniques (chemtrails, enfouissement de déchets nucléaires, etc.).

56

Plusieurs enjeux soulevés par Bruno Latour dans Politiques de la nature

trouvent ainsi leur prolongement dans Agir dans un monde incertain,

ouvrage s’ouvrant sur l’éloquente antanaclase : « Que faire de l'écologie

politique ? Rien. Que faire ? De l'écologie politique ! »

Georges Canguilhem (1904-1995)

Principales contributions :

- Le normal et le pathologique (1943 ; 1966)

- La connaissance de la vie (1952)

- Idéologie et rationalité dans l'histoire des sciences de la vie (1977)

Concepts et idées-forces :

- Études d’histoire des sciences. Considère les textes scientifiques comme un

champ d’exploration digne d’intérêt ; ce qui rompt avec la tradition

philosophique.

- « La philosophie est une réflexion pour qui toute matière étrangère est

bonne, et nous dirions volontiers pour qui tout de bonne matière est

étrangère ». S’intéresse à la biomédecine, car introduit à des problèmes

humains concrets. Considérée comme une technique ou un art au carrefour

de plusieurs sciences : une « technique d’instauration ou de restauration du

normal ».

- Pose une rupture qualitative entre le normal et le pathologique ; contra

Auguste Comte et Claude Bernard qui ne voient en ce dernier qu’une

variation quantitative des phénomènes normaux, leur « grossissement », le

pendant naturel de l’expérimentation. La maladie affecte l’ensemble de

l’organisme, elle refaçonne l’individu, corps et esprit. Reprise de l’exemple

du diabète : « Devenir diabétique, c’est changer de rein ». La maladie

instaure une autre « allure de la vie ».

- Critère subjectif de démarcation du normal et du pathologique : « La

qualité de pathologique et un apport d’origine technique et par là d’origine

subjective. Il n’y a pas de pathologie objective ». Raison pourquoi la

thérapeutique doit prendre en considération la subjectivité ainsi que la

singularité de l’individu souffrant. On ne soigne pas une maladie, mais

d’abord un malade. Contra l’approche positiviste, analytique, physicaliste

ou statistique, toutes également aveugles à la dimension vécue de la

57

maladie : « La maladie n’est plus objet d’angoisse pour l’homme sain, elle est

devenue objet d’étude pour le théoricien de la santé ».

- Le pathologique ne se définit pas sans référence à un milieu auquel les

normes d’un individu sont adaptées ou non. Le milieu naturel, social, la

composante ethnique, géographique et historique entrent en ligne de

compte. Un myope dans une société pastorale n’est pas considéré comme

anormal ; il le serait dans l’aviation.

- Le pathologique ne s’oppose pas à la norme mais bien à la santé. La

normativité et la labilité du vivant sont le critère de la santé d’un corps (et

d’un esprit) ; leur réduction, vécue comme telle, le signe de la maladie

- La normativité biologique révèle une vie en lutte contre l’entropie, une

vie qui valorise pour croître et pour se développer, pose des valeurs à la

manière de l’artiste nietzschéen : « Vivre c’est, même chez une amibe,

préférer et exclure ». Ce n’est donc pas la science mais bien la vie qui pose

des normes

- Ce n’est pas dire autre chose que la santé est un rapport vécu ou ignoré :

« le silence des organes », écrit le chirurgien René Leriche. Le surgissement

de la maladie défait ce rapport intuitif et restreint les capacités d’adaptation

de l’individu malade. C’est donc ce qui affecte sa normativité. Être malade,

c’est perdre sa capacité de résilience, devoir restreindre son milieu de vie : «

Le propre de la maladie, c’est d’être une réduction de la marge de tolérance

des infidélités du milieu ». Exemple de l’hémophilie.

- Primauté logique de la maladie sur la santé, de la pathologie sur la

thérapeutique, de l’écart sur la norme. De la même manière que la

transgression crée le sacré dans l’acte de la profanation, il n’y aurait pas de

norme s’il n’y avait de l’anormal : « L’anormal, logiquement second, est

existentiellement premier ». Pas de science des fonctions vitales sans

défaillance de ces fonctions : c’est la maladie qui « nous révèle les fonctions

normales au moment précis où elle en interdit l’exercice. Cf. l’heuristique

de l’angoisse chez Heidegger.

- Idéologie scientifique. Perceptible notamment dans la soumission de la

technique à la science, dans le refus ontologique du mal que dénote

l’identité d’essence du normal et du pathologique, dans la projection de la

morale du corps social dans le corps biologique.

- La médecine n’est pas une science, mais une technique qui s’appuie sur

une science : la biologie.

58

- Canguilhem fut le rapporteur de la thèse de Foucault, Folie et déraison. Histoire de la folie à l’âge classique. Le premier pose la question des normes

vitales ; au second d’insister sur la constitution des normes sociales

- La norme biologique est spontanée ; la norme sociale résulte d’une

délibération. Un organisme n’est pas une organisation. La normativité

sociale peut néanmoins être conçue comme un prolongement de la

normativité biologique, ce par quoi l’organisme aménage son

environnement

Rudolf Carnap (1891-1970)

Principales contributions :

- La Construction logique du monde (1928)

- Le dépassement de la métaphysique par l'analyse logique du langage

(1931)

- La Syntaxe logique du langage (1934)

- Testabilité et signification (1936)

- Les fondements philosophiques de la physique (1948)

Concepts et idées-forces :

- Membre du Cercle de Vienne, chef de file du positivisme ou empirisme

logique des années 1930, caractérisé par son rejet de la métaphysique.

- Signataire, avec Moritz Schlick, Kurt Gödel, Otto Neurath, Hans

Reichenbach et alii, du Manifeste de 1929 intitulé La conception scientifique du monde.

- Unité de la science. Propose une axiomatisation des théories scientifiques

sur le modèle de celle des théories mathématiques. Les théories des sciences

empiriques reposent sur une architecture mathématique qu’il s’agit

d’exposer de la manière la plus systématique possible. Reste à faire le

raccord avec les phénomènes en souscrivant à des « règles de

correspondance ».

- S’inspire du Tractatus de Wittgenstein pour rédiger le manifeste du

Cercle. Projet d’établir un langage scientifique pur de toute métaphysique,

composé d’énoncés éprouvable sur le plan observationnel.

- Distinction entre énoncés observationnels (ou empiriques) soumis à des

critères de vérification vs. énoncés théoriques (ou analytiques, logiques et

59

mathématiques) cohérents et détachés de l’expérience. Disqualification de

toute autre forme de discours : absurde ou présentant de faux problèmes.

- Néanmoins, difficulté à séparer les énoncés scientifiques et

métaphysiques. Résistance des concepts dispositionnels (on ne peut

observer la solubilité du sucre). En outre, les lois générales de la science ne

sont pas vérifiables ; on n’en constate que des occurrences. Elles sont donc

irrémédiablement hypothétiques.

- Carnap réhabilite l’induction qu’il associe à la notion de probabilités pour

surmonter la crise du positivisme logique notoirement aggravée par Karl

Popper (réfutationnisme) et par Kurt Gödel qui introduit en 1931 le

théorème d’incomplétude (impossibilité de fonder un discours logique

entièrement cohérent et fermé sur lui-même).

Jean Cavaillès (1903-1944)

Principales contributions :

- Méthode axiomatique et formalisme (1938)

- Sur la logique et la théorie de la science (1947)

Concepts et idées-forces :

- Représentant, avec Duhem, Poincaré, Bachelard, Canguilhem, etc., de la

synthèse Française de la philosophie et de l’histoire des sciences.

- Acte (opération) et sens

- Sens posant et sens posé d'un acte.

- Abstraction thématique (thématisation), abstraction paradigmatique

(idéalisation).

- Nécessité des enchaînements vs. historicité et probabilité des événements.

Maurice Caveing (1923-20XX)

Principales contributions :

- Zénon d’Élée. Prolégomènes aux doctrines du continu (1982)

- Essai sur le savoir mathématique dans la Mésopotamie et l'Égypte anciennes (1994)

- La figure et le nombre. Recherches sur les premières mathématiques des Grecs (1997)

- L’irrationalité dans les Mathématiques grecques jusqu’à Euclide (1998)

60

- Le problème des objets dans la pensée mathématique (2004)

Concepts et idées-forces :

- Spécialiste des mathématiques antiques.

- Question de savoir s’il faut faire remonter la science aux Grecs (cf. le «

miracle grec » d’Ernst Renan) ; le cas échéant, en vertu de quel critère, dès

lors qu’« il n’existe pas de civilisation qui n’ait pas de connaissance » (« La

raison n’est pas une invention grecque », dans Sciences Humaines n° 31,

2001). En effet, note Caveing, « il est vain de croire qu’avant les Grecs, les

peuples baignaient dans une sorte de mentalité primitive faite de croyances

et de mythes. L’anthropologie contemporaine le montre de mieux en mieux

: toutes les cultures ont des connaissances étendues sur la nature, les

plantes, les étoiles. Et ces connaissances sont soigneusement distinguées des

mythes. Les Égyptiens ou Babyloniens avaient des connaissances poussées

en astronomie, en botanique, en médecine ou en calcul. Mais dans la

civilisation assyro-babylonienne, beaucoup de connaissance se présentaient

sous une forme énumérative. Or, la science suppose un ensemble de

connaissances ordonnées de façon méthodique et accompagnées de preuves

raisonnées » (propos recueillis par J.-F. Dortier dans Thomas Lepeltier (dir.)

Philosophie et histoire des sciences, 2013).

- Révolution vers le Ve siècle avant J.-C. avec le passage de la connaissance

des faits à la recherche des causes, étayée par des preuves. Phénomène

observable dans l’ensemble des domaines du savoir : astronomie,

mathématiques, médecine, histoire, philosophie. La recherche de la preuve

prend la forme de l’observation dans les sciences de la nature (botanique,

zoologie, médecine) et en mathématiques (pures et appliquées), de la

démonstration.

- Trois grands facteurs explicatifs de cette révolution :

(1) Facteur géographique. Situation de la Grèce, carrefour commercial en

Méditerranée, rencontre et échanges avec différents peuples. La pratique

des voyages d’études contribue à enrichir l’esprit d’une élite cultivée oisive :

« Nous voilà en présence d’un peuple de voyageurs qui sillonnent la

Méditerranée, fonde des colonies, pousse ses explorations au-delà du détroit

de Gibraltar. Au sein de certaines cités et colonies s’est constituée une

frange de commerçants, de navigateurs, d’armateurs, d’entrepreneurs. Ces

gens ont une vue large du monde ».

61

(2) Facteur socio-technique. Développement de l’urbanisme. Ses

problèmes pratiques accélèrent la formation d’un esprit physique et

géométrique. Jean-Pierre Vernant, dans ses « Remarques sur les formes et

les limites de la pensée technique chez les Grecs », dans Mythes et pensée chez les Grecs (1974) relève que : « Dès le Ve siècle (avant notre ère), un

ouvrage comme le canal souterrain construit à Samos par Eupalinos de

Mégare suppose déjà l’emploi de procédés déjà ardus de triangulation ». En

marge de l’urbanisme, ingénierie de guerre. Machines, navires, systèmes à

poulies et à levier chez Archimède, découvreur de la loi de la poussée qui

porte son nom, probablement liée à des questions nautiques (conditions de

flottaison d’un navire). « Songez que l’on savait même monter et démonter

les machines de guerre en pièces détachées », relève Maurice Caveing.

Passage de la technique (de l’artisanat) à la technologie, définie par

Bertrand Gille comme théorie mathématique et physique appliquée à des

problèmes pratiques (Les mécaniciens grecs. La naissance de la technologie,

1980). Thèse également soutenue par Benjamin Farrington (La science dans l’Antiquité. Grèce, Rome, 1967) et par Maurice Daumas (Histoire de la science (dir.), 1957).

(3) Facteur socio-politique. Démocratie. Agora, lieu de délibération et

d’argumentation, à rebours de la monarchie perse ou de l’institution

pharaonique. Pas de discours d’autorité, isonomie, il faut convaincre pour

l’emporter. Nécessité de produire des preuves et des démonstrations par

laquelle s’explique le développement des « techniques de la parole » propre

à la rhétorique, au plaidoyer, à la dialectique, à l’éristique ; il faut rendre

raison. Reprise critique par Platon des traditions anciennes qu’il s’agit non

pas de rejeter, mais de fonder. Disparition des roi-prêtre dans la période

classique (cf. Platon, Le politique). Religions à mystères ou religions

pratiques et non à dogme en dépit d’une mythologie commune. Pas de

croyance officielle, pas de monopole des scribes.

Harry Collins (1943-20XX)

Principales contributions :

- The Golem : What Everyone Should Know About Science (avec Trevor

Pinch) (1993)

- Changing Order. Replication and Induction in Scientific Practice (1995)

62

Concepts et idées-forces :

- Sociologie de la connaissance scientifique (Sociology of Scientific

Knowledge, SSK). Contribue au développement du programme empirique

du relativisme (EPOR), mieux connu sous le nom d'École de Bath (« Bath

School »). Démarche proche de celle du « programme fort » de Barry Barnes

et David Bloor à cette différence près que le fin mot du succès d’une théorie

tient au contexte local (micro-social) et non d’abord global (macro-social).

Le facteur individuel (idéologie, préjugés moraux, influences religieuses,

condamnations a priori pour des motifs irrationnels et passionnels) rapporté

aux caractéristiques du groupe de recherche (position sociale, enjeux de

pouvoir) pèse de manière déterminante sur la production des connaissances

scientifiques.

- L’analyse des controverses. Le socio-historien a vocation à exhumer les

véritables leviers qui ont fait basculer la préférence des scientifiques pour

une telle théorie particulière au détriment d’une autre. Des théories

proclamées vraies ou négligées l’auront été sans que les résultats des

expériences aient été pris en compte, qu’il s’agisse de la relativité d’Einstein

ou de l’hérédité mendélienne.

- Il n’y a pas de faits bruts ; il n’y a pas de donnée observationnelle au sens

où le chercheur « construit » en grande partie l’objet de sa recherche. Toute

expérience, toute interprétation est tributaire de savoirs pratiques et de

connaissances théoriques qui peuvent être implicites. Remise en cause de

l’objectivité et de l’impersonnalité de la science.

- Il en ressort qu’un même « fait » est susceptible de recevoir une

multiplicité de descriptions, sans que l’on puisse arbitrer de manière

apodictique en faveur de la plus vraisemblable. Soit les relevés d’une

expérience conduite au cours des années 1970 visant à démontrer

l’existence des ondes gravitationnelles. La controverse porte aussi bien sur

l’interprétation des résultats de l’expérience que sur sa reproductibilité et

sur le sens des variations constatées à l’issue d’expériences analogues.

L’accord ne fut pas obtenu ensuite de la mise en place d’une expérience

cruciale, d’une théorie ou d’un dispositif qui eut fait consensus. A prévalu le

souhait de conserver un cadre théorique qui rejetait que les ondes fussent

détectables expérimentalement.

63

- S’en prend avec Steven Yearley à la théorie de l'acteur-réseau (ANT)

développée par Michel Callon, Bruno Latour, Madeleine Akrich, considérée

comme une régression de la sociologie des sciences vers le positivisme et le

réalisme d’autrefois (Science as Practice and Culture).

Auguste Comte (1898-1957)

Principales contributions :

- Cours de philosophie positive (1830-1842)

- Discours sur l'esprit positif (1844)

Concepts et idées-forces :

- Positivisme.

- Loi des trois états : théologique, métaphysique, positif. Parvenu au stade

positif, les explications par la cause et la finalité cède place à la description

des phénomènes.

- Envisage le devenir des sociétés humaines et de l’esprit humain d’une

manière proche de celle de Hegel, comme mu par une marche en avant

irrévocable transitant par des stades (ou figure) progressives. Probable

inspiration du transformisme de Lamarck.

- Sociologie. Son principe est posé dès 1839 dans sa 47e leçon du Cours de philosophie positive. Émile Littré, disciple non religieux de Comte, fonde

en 1872 la première Société de sociologie. Déclin du positivisme après la

mort de ce dernier (1881), mais Durkheim lecteur de Comte reprend le

flambeau de la sociologie française.

- Caractère descriptif et normatif de la connaissance, finalisée au Progrès : «

En résumé, science, d'où prévoyance ; prévoyance d'où action » (Cours de philosophie positive, 2e leçon).

- Dans le domaine de la physiologie, conçoit l’effet de la maladie sur

l’organisme comme une expérimentation spontanée de la nature qui met en

évidence les lois du normal en les exacerbant. Soutien l’idée d’un

continuum entre les phénomènes normaux et les phénomènes

pathologiques ; contra Canguilhem.

64

Nicolas Copernic (1473-1543)

Principales contributions :

- Commentariolus (1510)

- Des révolutions des sphères célestes (1543)

Concepts et idées-forces :

- Dénonce les insuffisances du système géocentrique d’Aristote. Entre

autres, l’accumulation des hypothèses ad-hoc d'Eudoxe à Ptolémée

(épicycles, équant, etc.), l’incapacité d’opérer des prédictions et à décrire

précisément les phénomènes célestes, la dysharmonie, complexité et les

incohérences de la théorie.

- Système héliocentrique. Exposition de ses principes dans le Commentariolus de 1510, suivi par leur démonstration mathématique dans

le De Revolutionibus orbium coelestium paru en 1543, l’année de sa mort.

- Le soleil disposé au centre de l’univers.

- Sphère étoilée immobile, à une distance immensément plus importante

qu’envisagée à l’époque.

- La Terre dotée de deux mouvements : rotation (expliquant le cycle

nycthéméral) et révolution autour du Soleil : « Le mouvement de la Terre

seule suffit donc à expliquer un nombre considérable d'irrégularités

apparentes dans le ciel » (Commentariolus), dont le mouvement rétrograde

des planètes, pour lequel Ptolémée avait introduit ses épicycles.

- Explique également la corrélation entre la distance des planètes par

rapport au soleil et leur période de révolution.

65

Système héliocentrique de Copernic.

Image extraite de son ouvrage De revolutionibus Orbium Coelestium.

- Avantages comparatifs de l’héliocentrisme. Il rétablit l’ordre et l’harmonie

dans le cosmos (cf. les « themata » de Gerald Holton). Modèle plus simple,

plus explicatif, moins saturé d’hypothèses auxiliaires. Permet aussi d’estimer

les distances de chaque planète par rapport au soleil, mesure indispensable

pour que puisse être calculée leur trajectoire et par suite établie par Kepler

les lois de leurs mouvements ; lois à l’appui desquelles Newton élaborera sa

théorie de l’attraction universelle.

- Simplicité à relativiser. Les cercles excentriques et épicycles du système

ptoléméen rendent celui-ci éminemment complexe. Le système de

Copernic se limite à six cercles, auxquels s’ajoute celui de l’orbite lunaire.

- Un schéma idéalisé qui élude en réalité la multitude de petits épicycles et

d'excentriques que Copernic fut obligé d’inclure dans son système pour

66

rendre compte des accélérations et des ralentissements de chaque planète

sur son parcours, et ainsi concilier le principe d’uniformité des mouvements

célestes avec l’observation, une fois rejeté l'équant de Ptolémée. D’où il

ressort que le surcroît comparatif de simplicité attribué au système de

Copernic est loin d’être patent. Tout au plus pouvons-nous admettre que les

épicycles de Copernic sont d’une ampleur moins importante que ceux de

Ptolémée, et moins indispensables pour décrire approximativement les

trajectoires des planètes.

- Modernité également à relativiser. Car maintien de la thèse des sphères

solides posée par Aristote, pourtant abandonnée par Ptolémée, ainsi que de

la sphère des (étoiles) fixes aux confins du cosmos, le séparant de l’empyrée.

- L’hommage aux devanciers. Autre raison de relativiser la rupture

introduite par le modèle héliocentrique. Héliocentrique, Aristarque de

Samos faisait profession de l’être depuis le IIIe siècle avant notre ère, selon

les témoignages de Plutarque et d’Archimède. L’auteur ne se cache pas de

ces inspirations antiques ; et c’est chez les Anciens qu’il dit expressément,

dans le manuscrit de son œuvre posthume, avoir trouvé les principes

architectoniques de son système : « C'est pourquoi je pris la peine de lire les

livres de tous les philosophes que je pus obtenir, pour rechercher si

quelqu'un d'eux n'avait jamais pensé que les mouvements des sphères du

monde soient autres que ne l'admettent ceux qui enseignèrent les

mathématiques dans les écoles. Et je trouvai d'abord chez Cicéron que

Nicétus pensait que la Terre se mouvait. Plus tard je retrouvai aussi chez

Plutarque que quelques autres ont également eu cette opinion » (De Revolutionibus orbium coelestium). Ce « quelques autres » désigne, entre

autres, Héraclide du Pont, platonicien du IVe siècle avant J.-C., Philolaos le

pythagoricien, d’après lequel la Terre et le soleil tournait autour d’un feu

central (Hestia) et Ecphantus, un autre pythagoricien, proclamant la

rotation de l’orbe terraqué. « Partant de là, reprend Copernic, j'ai

commencé, moi aussi, à penser à la mobilité de la Terre ».

- Cette reconnaissance n’en est pas moins partielle. Copernic ne va pas

jusqu’à rendre à César tout ce qui lui appartient. S’il attribue d’abord à

Aristarque comme à Philolaos l’idée de mobilité de la Terre, il ne laisse pas

de rayer la mention du premier de la version imprimée du De Revolutionibus – lors même qu’il fut en sus le concepteur d’un système

héliocentrique. Il ne dit rien du fait qu’outre la rotation de la Terre sur elle-

67

même, Héraclide postulait la révolution de Mercure et Vénus sur le plan de

l’écliptique.

- L’hommage aux contemporains. Une autre inspiration, cette fois-ci

pleinement assumée par Copernic, est celle de Martianus Capella et de «

quelques autres Latins », qui reprenaient le « système égyptien » déjà admis

par Héraclide et « estimèrent, en effet, que Vénus et Mercure tournent

autour du soleil, qui est au centre, et pour cette raison-là ne peuvent

s'éloigner de lui plus loin que ne le permettent les convexités de leurs orbes

». Si néanmoins dans le système égyptien, Vénus et Mercure tournent

autour du soleil, le soleil en revanche et les autres planètes tournent autour

de la Terre.

- Confirmation du modèle héliocentrique de Copernic qui ne figurait dans

son ouvrage que sous le statut d’hypothèses à la lumière des travaux de

Galilée. Lequel sera forcé d’abjurer ses convictions devant le tribunal

d’inquisition en 1632. Peut expliquer que Copernic ait différé la parution de

son œuvre jusqu’à l’année de sa mort.

- Feyerabend remarque que le système héliocentrique de Copernic a été

accepté en dépit des évidences immédiates et de l’observation. Bien qu’il

résolve un certain nombre d’apories du modèle précédent, il en recèle au

moins autant. Ce n’est donc pas sa valeur scientifique ou sa conformité aux

faits (qui sont déjà des constructions) qui a fait son succès.

- « Révolution copernicienne ». Effets dans les autres sphères de la

connaissance. Ex : la révolution (anti)copernicienne du criticisme kantien.

Point sur la révolution copernicienne

Événement fondateur de la modernité, cette révolution vit s’accomplir la

transition entre le XVIe siècle et le XVIIe siècle de la vision classique d'un

monde clos, géocentrique, hérité de l’astronomie de Ptolémée et reposant

sur la physique aristotélicienne, à un univers infini – ou sans limites

connues –, héliocentrique, comme l’avait esquissé Nicolas Copernic dans

son ouvrage Sur la révolution des orbes célestes. Modèle derrière lequel se

sont rangés, pour l’amender chacun à leur manière, Bruno, Galilée, Kepler,

Descartes et Newton. Kuhn voit dans ce basculement de représentation

l’exemple emblématique d’un changement de paradigme (cf. La révolution

68

copernicienne, 1957) ; Structure des révolutions scientifiques, 1962). Freud

l’interprète comme une épiphanie traumatisante pour l’homme – et

combien plus pour l’humanisme qui mettait l’homme au centre de ses

préoccupations –, recevant la première de ces trois blessures narcissiques

(une quatrième pourrait être invoquée avec la mise au point de

l’intelligence artificielle). Toujours est-il qu’il donna prise à une «

controverse ptoléméo-copernicienne » au cours de laquelle se serait

exacerbée la résistance du monde ancien à l’émergence d’une nouvelle

forme de pensée, dépositaire de ses valeurs propres et de ses propres critères

de vérité scientifique. Ce qui en fait un morceau de choix aux yeux des

historiens des sciences.

Les cosmos pré-coperniciens

La connaissance de la rotondité de la Terre remonte à la plus haute

Antiquité. On pourrait évoquer, pour en rester à la jurisprudence

européenne, les noms de Parménide, de Platon et d’Aristote. Ératosthène (c.

-276-c. 194 avant J.-C.) avait déjà fourni de la circonférence terrestre une

mesure approchée, relativement correcte pour les moyens de l’époque.

Selon l’auteur de la Souda, il se laissa mourir d’inanition après avoir perdu

la vue, désespéré de ne plus pouvoir noyer ses yeux dans les étoiles ; ce qui

est assez dire l’importance (pratique et théorique) que tenait l’astronomie

dans la vie de l’époque. Nombreux restaient toutefois les astronomes à

disposer la Terre au centre du cosmos. Aristarque de Samos (310-230 avant

J.-C.) fit figure d’exception, si l’on en croit L’Arénaire d’Archimède : « Vous

n'êtes pas sans savoir que par l'Univers, la plupart des Astronomes signifient

une sphère ayant son centre au centre de la Terre […] toutefois, Aristarque

de Samos a publié des écrits sur les hypothèses astronomiques. Les

présuppositions qu'on trouve dans ses écrits suggèrent un univers beaucoup

plus grand que celui mentionné plus haut. Il commence en fait avec

l'hypothèse que les étoiles fixes et le Soleil sont immobiles. Quant à la

Terre, elle se déplace autour du Soleil sur la circonférence d'un cercle ayant

son centre dans le Soleil » (Préface de L’Arénaire, c. 280 avant J.-C.).

Que la Terre fût de forme sphérique, nul clerc ou érudit en Occident latin

ne pouvait en douter sous le haut Moyen Âge ; plus en tout cas depuis la

69

traduction du Timée de Platon, où était affirmée que le démiurge avait élu

la forme la plus parfaite pour dessiner le corps du monde. Al-Farghani

(Alfergani), astronome perse du IXe siècle, n’aurait de cesse que de

corroborer cette conception du monde. Décisive en ce sens fut au XIIe

siècle la transmission de ces textes par les savants arabes, suivis de la

traduction de l’Almageste de Claude Ptolémée, fondé sur les travaux

d’Hipparque. Restait encore à écarter les objections liées à la navigation. Il

faut ici citer l’influence décisive de l’explorateur Jean de Mandeville, auteur

d’un Livre des merveilles du monde qu’il rédigea sur la base de récits de

missionnaires franciscains et dominicains et de son expérience (prétendue)

de 34 ans (de 1322 à 1356) d’expéditions à travers l’Inde, l’Égypte, l’Asie

centrale et la Chine.

Au cardinal français Pierre d'Ailly, on doit près de deux-cent ouvrages dont

l'Imago mundi, rédigé en 1410, paru en 1478, qui détaille une cosmographie

géocentrée. Christophe Colomb en possédait un exemplaire, peut-être à

l’origine de sa conviction qu’il pourrait découvrir une nouvelle voie

maritime en direction des Indes. Colomb s’appuyait également sur les récits

de voyages de Marco Polo, rapportés dans son Devisement du monde

(1298), ainsi que sur le précédent de Vasco de Gama. La théorie le cède à la

pratique avec cette nouvelle génération d’explorateurs entrepreneurs qui

accompagne le développement des relations commerciales entre les

continents. Le décloisonnement du monde des astronomes semble

contemporain, et même corrélatif à l’extension de la géographie terrestre.

Ce ne serait pas pourtant à un navigateur que l’on devrait la première

représentation alternative au monde fermé de la scolastique

aristotélicienne. Le célèbre traité de Nicolas Cues (1401-1464), la Docte ignorance, parait en 1440. Koyré y trouve en germe l’ensemble des postulats

qui seraient développés par les penseurs de la science moderne : mobilité de

la Terre qui ne repose pas au centre du cosmos, univers sans limite.

L’époque n’était pas prête à admettre ces vues et n’en relevait peut-être pas

encore la pertinence. Seul Giordano Bruno s’intéressa de près à l’œuvre du

Cusain… à ses risques et périls.

Le contexte qui voit s’accomplir dès le milieu du XVIe siècle la révolution

astronomique préfigurée par Copernic est donc profondément marqué par

70

une cosmologie issue de la synthèse entre le Traité du ciel du Stagirite et

l'Almageste de Ptolémée, le tout interprété dons une optique thomiste en

vue de s’articuler à la révélation chrétienne. Avec la scolastique, encore

puissante à cette époque, n’avait effectivement cessé de se consolider une

conception du monde fondée sur la cosmologie de Ptolémée, elle-même

calquée sur la physique aristotélicienne. L’Église avait assimilé un certain

nombre de principes issus de la philosophie naturelle antique pour les

adjoindre à son corps doctrinal. Pareille cosmologie faisait valoir une

division de l’univers en deux régions. L’une, sublunaire, déclinait un

feuilletage de quatre strates élémentaires : la terre, au centre, était baignée

par l’air, recouvert par les eaux ; venait enfin le feu. L’autre, au-delà des

éléments, formait un espace éthéré, cristallin : l’espace supralunaire. Cette

région éthérée et préservée de la corruption se divisait en neuf sphères ou

orbes emboîtées, solides, soutenant les planètes. Plus au-delà encore se

situait l'empyrée, séjour des bienheureux. Le fait étant que si de l’empyrée

l’on ne pouvait rien voir ; s’il n’y avait de régulier, d’incorruptible et

d’accessible à nos observations que la région supralunaire de l’univers, elle

seule pouvait alors être objet de calcul, elle seule se laissait approcher par le

médium des formes géométriques et des rapports mathématiques.

Le monde supralunaire, espace des étoiles fixes et des objets célestes, nous

est ainsi décrit aux antipodes de celui qu’il domine. Parachevé, parfait, lui

seul peut à la fois prétendre à la rigueur et à l’exactitude de la

mathématique. Cette perfection de la région supralunaire se répercute

comme une figure fractale sur chacun des objets qui la remplissent : les

entités célestes, d’une forme parfaitement sphérique, évoluent dans le ciel

en traçant des figures parfaites – des cercles – ; ils évoluent en épousant des

cycles inaltérables et récurrents, mus par leur « mouvement naturel » et à

l’imitation du premier moteur. Finis au sens d’achevés, ils sont déterminés,

déterminables, soustraits à la génération et à la corruption. Les phénomènes

célestes sont ainsi, contrairement aux phénomènes terrestres, idéalement

conçus pour s’adapter à l’expression et au calcul mathématique. Il y a, d’une

région l’autre du cosmos, un deux poids deux mesures. L’une des

contributions majeures de Galilée fut d’avoir fait un sort à cette dissymétrie.

71

Les grandes étapes de la révolution

Révolution intellectuelle, instrumentale et expérimentale.

Voir notices : Nicolas Copernic, Giordano Bruno, Galileo Galilei, Johannes

Kepler, Isaac Newton, René Descartes.

L’affranchissement de la scolastique

Pas plus que la philosophie n’était distincte de la science, l’astronomie de la

fin de la Renaissance n’était à dissocier de la théologie. C’est donc d’abord

de sa férule que devront s’affranchir les physiciens modernes. Cette prise

d’autonomie au regard de la scolastique thomiste ne relève pas que du

contenu ; elle concerne en première instance la forme. La science et la

littérature militent dans le même sens. Les pionniers de la science moderne

que sont Galilée, Kepler, Descartes, Paré, Fontenelle, se font fort d’écrire en

langue vernaculaire (vulgaire) et non plus en latin. Ils tentent ainsi de

s’émanciper des cercles incestueux de l’Université, d’« embrigader » le grand

public.

Cet aspect culturel de la controverse ptoléméo-galiléenne passe trop

souvent inaperçu des manuels de physique, qui n’ont d’égard que pour ses

moments forts ou rationnels. Il est certain que le divorce d’avec l’Église

prend sa tournure la plus spectaculaire avec la condamnation à mort de

Bruno et le procès de Galilée. Théologiens d’une part et physiciens de

l’autre s’opposent alors sur la question de l’interprétation des Écritures et

des passages cosmologiques que renferme la Bible. Les physiciens se

heurtent à des obstacles qu’ils ne peuvent négliger, sous peine de voir leur

production dramatiquement interrompue. Tout en se voulant conciliant à

l’endroit de l’Église et en se défendant d’en ébranler les dogmes, ils plaident

pour une autonomisation de leur pratique. Cette véritable guerre

d’indépendance inspira le combat de d’Alembert pour une séparation de

l'Église et de la science (cf. Encyclopédie). Les Écritures, plaide-t-il, ne

doivent pas être appréhendées littéralement.

Pascal n’ignore pas le danger qu’il peut y avoir à lire la Bible comme un

72

traité de physique. Non seulement pour la science, mais surtout pour

l’Église, dès lors que son discours l’expose à la réfutation. C’est en effet pour

une grande part du fait de la composante aristotélicienne, incorporée via

saint Thomas d’Aquin à la théologie chrétienne, que s’est amorcé le déclin

de l’emprise de l’Église. Conciliation épithéliale, qui laissait sans réponse un

certain nombre de contradictions. Se voir réfuter par l’expérience était une

chose moins grave que de l’être par soi-même. La scolastique dérogeait

ostensiblement à l’acception de la vérité comme concordance avec les faits

ainsi qu’au critérium de cohérence interne. C’est donc autant pour la survie

de la théologie (résolue à ne plus se mêler de physique, ainsi que le lézard

laisse derrière lui sa queue par instinct de survie) qu’en la faveur de la

nouvelle physique (laissant à d’autres les questions métaphysiques) que la

révolution copernicienne a consacré le principe d'autonomie de la science.

Il est loin d’être acquis que ce soit la seconde qui en ait tiré le plus grand

bénéfice.

Vers une nouvelle révolution copernicienne ?

La formation d’une nouvelle conception du monde démettant l’homme du

centre du cosmos pour s’ouvrir aux immensités d’un univers sans fin traduit

un processus que les insuffisances des anciennes conceptions du monde

rendaient inévitable. L’humanité, écrivait Marx, ne se pose que des

problèmes qu’elle peut résoudre. Ses sources furent multiples, hétéroclites

et ses répercussions inter- ou plutôt trans-disciplinaires.

L’expression de « révolution copernicienne » a fait époque. Au point qu’il

n’est pas rare de l’entendre employer dans des contextes très différents de

l’astronomie. Tout changement de perspective au sein d’une discipline

donnée se laisse analyser comme une « révolution copernicienne ». À tout le

moins est-ce en ces termes que les instigateurs des sciences modernes

aiment à les présenter. Kant fit jurisprudence en qualifiant ainsi le

criticisme (Critique de la raison pure), au prix d’un contresens peu relevé

par ses commentateurs. C’est en effet pour Kant la subjectivité qui se trouve

rétablie au centre de la connaissance, en lieu et place de l’objet l’expérience

; renversement exactement contraire à celui opéré par Galilée, pour qui le

monde cesse de tourner autour de l’homme. « Révolution copernicienne »

73

encore que celle qui préside à la succession des paradigmes chez Kuhn. «

Révolution copernicienne », celle de la génétique du XXIe siècle. Jean-

Jacques Kupiec et Pierre Sonigo, dans leur essai Ni Dieu, ni gène (2003)

soutiennent que leur discipline est encore prisonnière des cadres de pensée

aristotélicien. Un cadre qui a vécu, de l’avis des deux auteurs ; et ce qui s’est

accompli dans le domaine de la physique serait sur le point de se reproduire

dans le champ de la biologie.

Mais c’est peut-être à nouveau vers l’astrophysique qu’il faut porter notre

attention pour guetter la venue d’une nouvelle révolution copernicienne,

vouée à surmonter les défaillances de nos actuels modèles :

(1) La force de gravitation découverte par Newton n’est jamais que l’une des

quatre interactions fondamentales de la nature, à côté de l’interaction

(nucléaire) faible, de l’interaction (nucléaire) forte et de

l’électromagnétisme. Si les Grandes théories de l’unification (GUT) de la

physique théorique contemporaine parviennent (difficilement) à unifier ces

trois dernières en recourant à une même constante, elles se trouvent

incapables d’envelopper la première. S’ensuit l’impossibilité de concilier les

lois de la physique relativiste avec celle de la physique des particules. À la

dissociation aristotélicienne entre les lieux supra- et sublunaire résorbés par

Newton succède une nouvelle fracture entre les théories de l’infiniment

petit et de l’infiniment grand. La recherche d’une théorie quantique de la

gravitation, d’une « théorie du tout », est plus que jamais d’actualité.

(2) La physique née de la révolution copernicienne admettait la réversibilité

des phénomènes physiques ; ce que récuse en particulier le deuxième

principe de la thermodynamique mise à jour par Carnot. Elle supposait un

espace absolu que met en cause la relativité restreinte (1905) et générale

(1915) d’Einstein. Elle impliquait un paradigme mécaniste fondé sur les

propriétés d’un seul type de matière, quand la recherche astrophysique

actuelle se confronte à l’énigme de la matière noire et de l’énergie sombre,

de nature inconnue, constituant ensemble plus de 95 % de la densité totale

de l’univers observable. Le principe de causalité – postulant l’antériorité de

l’effet sur la cause – sur lequel reposait tout l’édifice de la mécanique

classique est enfin contredit par certaines interprétations de la physique

74

quantique, laquelle conteste aussi jusqu’à la pertinence des notions d’espace

et de temps (non-localité, intrication quantique, etc.). Cf. : Point sur la

physique quantique.

(3) De nouvelles représentations cosmologiques ont émergé à la faveur du

développement de la radioastronomie. Des représentations à la lumière

desquels la « blessure narcissique » de la révolution copernicienne ne

s’apparente à une égratignure. L’héliocentrisme a fait son temps. Le soleil

non plus que la Terre n’est immobile au cœur de l’univers. Il se situe dans

une région périphérique de la Voie lactée, système constitué de 200 à 400

milliards d’étoiles (et donc de systèmes solaires). Une galaxie en rotation

autour de son bulbe central, abritant un trou noir supermassif du nom de

Sagittarius A*. Ce changement de référentiel astronomique pourrait déjà

être considéré comme une nouvelle révolution copernicienne. Elle doit

s’accommoder de milliers d’autres galaxies réunies en amas et en superamas

de galaxies ; voire d’autres univers semblables aux nôtres, en parallèle ou en

amont ou en aval du nôtre ; et d’autres univers répondant d’autres lois,

d’autres constantes qui, pour rester toujours hors de portée de l’observation

(deux univers reliés ne serait pas deux univers), peuvent être impliqués par

la théorie.

Leda Cosmides (1985-20XX)

Principales contributions :

- The Adapted Mind. Evolutionary psychology and the generation of culture (avec Jerome H. Barkow et John Tooby) (1992)

- Evolutionary psychology. Foundational papers (avec John Tooby) (2000)

- Universal Minds. Explaining the new science of evolutionary psychology

(avec John Tooby) (2009)

Concepts et idées-forces :

- Psychologie évolutionniste (« évopsy »). Fondements jetés avec

l’anthropologue John Tooby au cours des années 1980.

- Méthode consiste à rapporter des comportements, des attitudes, des

facultés, des phénomènes universellement observables dans les cultures

75

actuelles à des contraintes prégnantes chez nos ancêtres chasseurs-

cueilleurs. Comprendre chaque trait humain (reconnaissance des visages

innée, disposition au langage, comportements sexuels, etc.) à la lueur de sa

putative valeur adaptative ; comprendre en quoi elle fut utile du point de

vue de la survie et de la reproduction de l’espèce dans la période où ces

comportements se sont coagulés (EEA pour « environnement de l’évolution

adaptative »), il y a de cela 1,8 millions d’années à 10 000 ans.

- À la différence de la sociobiologie d’Edward O. Wilson, la psychologie

évolutionniste intègre les facteurs culturels et les effets complexes de la

coévolution entre les gènes et les sociétés, l’organisation politique, et prend

acte des décrochages autorisés par la pensée qui permet à l’individu de

calculer ses avantages à long terme. Quelle conduite est la plus favorable

compte tenu du contexte ?

- Entreprise poursuivie par Donald Symons qui, en 1979, explique les

différences de comportements sexuels par leur pertinence adaptative au

regard de la reproduction : des hommes infidèles et des femmes sélectives

(reproduction plus coûteuse). Dans le même registre, avantage est donné

par David Buss en 1999 à l’établissement de ménages stable (quel que soit le

type d’association), qui aurait favorisé le sentiment d’amour conjugal et le

besoin de stabilité.

- Intérêt pour les fonctions supérieures du cerveau, le néocortex au-delà des

émotions du cerveau mammalien, siège des émotions en fait une

dialectique ; dichotomie à relativiser : il n’y a pas « trois cerveaux »

indépendants ». Emprunte à la psychologie cognitive pour comprendre la

raison de l’émergence des représentations, de la mémoire, du raisonnement,

de la conscience réflexive.

- Ainsi pour le langage, qui dériverait selon Robin Dumbar, d’une tentative

de l’individu pour entretenir des liens d’empathie avec ses confrères.

Activité d’essence sociale, qui désamorce les conflits (cf. son empêchement

dans le mythe de Caïn et Abel); également perceptible chez le singe à

travers l’épouillage. Il est aussi, selon Terrence Deacon, la condition de

l’engagement mutuel et de la confiance et rend possible chez l’humain une

forme plus étroite et plus sophistiqué d’association.

- Les échecs et les aberrations intellectuelles imputables aux biais de

raisonnement trouvent aussi leur explication en termes d’adaptation. Ils

seraient le vestige de la prudence judicieuse ayant sauvé notre ancêtre

76

chasseur craignant de s’aventurer en terrain inconnu, là où ses congénères

n’en seraient jamais revenus.

- Quant à la liberté de choix, au libre arbitre, à la capacité à nous «

reprogrammer » sans cesse, elle pourrait avoir été favorisée en tant qu’elle

permettait de répondre de manière rapide et adéquate aux brusques

variations de l’environnement. Telle est du moins la thèse soutenue par

Daniel Dennet, avec ses prolongements qui voudraient faire du rêve

l’occasion d’une simulation de danger en vue d’élaborer des stratégies de

survie.

- Une extension du paradigme depuis 1995 avec l’éthique évolutionniste,

discipline à l’intersection de la biologie, de la psychologie et de la

philosophie. Les conduites en apparence morales telles que l’altruisme, a priori défavorables à l’individu, peuvent recevoir une explication qui ne

fasse pas appel à une raison désintéressée (Kant) ou à une spécificité

humaine.

- Impératifs moraux et normes sociales ne font que donner une forme

objective à un dégoût viscéral qui nous saisit face à des actes transgressifs

commis ou subis par soi ou par autrui. Selon Randolphe Nesse et Barbara

Frederickson, le sens moral plonge ses racines dans la nécessité d’une

coopération dans une multiplicité de domaines entre individus non-

apparentés. De là les « intuitions morales » (Nicolas Baumard). Est moral ce

qui est mutuellement profitable ; la meilleure stratégie consiste à respecter

ces normes et tabous.

- On note que la plupart des partisans de la psychologie évolutionniste sont

anglo-saxons, et que les théories qu’elle avance restent extrêmement

critiquées en France. Elles pâtissent d’un accueil académique glacé, en

particulier de la part des sciences humaines.

- Limites de l’évopsy. Les principaux motifs de cette défiance tiennent à sa

dimension spéculative. Françoise Parrot, première à avoir retraduit en

français un manuel de la discipline (L. Workman, W. Reader, Psychologie évolutionniste. Une introduction, 2007) pointe les faiblesses d’un procédé

reposant davantage sur des préjugés et des fabrications rétrospectives que

sur une base observationnelle : « Les biologistes ont des fossiles, les

psychologues n’en ont pas. Nous ne savons presque rien du cerveau et des

conduites de nos ancêtres. Donc nous ne pouvons pas en tirer l’explication

de ce qui existe. La psychologie évolutionniste est très spéculative. Rien

77

n’interdit de naturaliser les sciences de l’esprit, mais cette manière-là n’est

pas la bonne ».

- Le second obstacle est d’ordre intellectuel. L’évopsy, comme son nom

l’indique, transgresse la frontière établie en France entre sciences humaines

et sciences naturelles. Une pensée cartésienne dualiste encore

profondément ancrée dans l’esprit de la recherche. D’où un rejet de

principe que regrette Jean Gayon, historien de la biologie et, à sa suite,

Michel Raymond dans le domaine de l’éthologie. L’avenir seul dira si

l’évopsy est véritablement une science féconde ou une impasse de la même

espèce que la phrénologie.

Louis Couturat (1868-1914)

Principales contributions :

- De l'Infini mathématique (1896)

- Les principes des mathématiques (1905)

- L'Algèbre de la logique (1905)

Concepts et idées-forces :

- Tenant du logicisme (avec Russel et Wittgenstein) : programme œuvrant à

réduire les mathématiques à la logique. Opposition frontale à

l'intuitionnisme de Poincaré.

- « Une seule logique ». Désavoué par le développement des logiques

plurivalentes, modales, temporelles, binaires, etc. à compter des années

1940.

Alistair C. Crombie (1915-1996)

Principales contributions :

- Robert Grosstête et l’origine de la science expérimentale. 1100-1700

(1953)

- Science, musique et optique dans la pensée moderne et médiévale (1990)

- Style et traditions de la science occidentale (1995)

Concepts et idées-forces :

- Style de pensée ou style de raisonnement. Notion élaborée dans le

contexte de la controverse des philosophes des sciences autour des

78

implications de la révolution copernico-galiléenne. Au point d’intersection

de l’histoire des mentalités et de l’analyse linguistique, il met en évidence le

cadre normatif et méthodologique ainsi que la forme de langage qui sous-

tend une époque de la pensée scientifique.

- Six styles de raisonnement élémentaires répertoriés : (1) la postulation et

la déduction dans les sciences mathématiques ; (2) l’exploration

expérimentale ; (3) la construction hypothétique de modèles par analogie ;

(4) l’ordonnance de la variété par comparaison et taxinomie ; (5) l’analyse

statistique de régularité de population et (6) la dérivation historique du

développement génétique.

- Concept réinvesti par Geoffrey E.R. Lloyd et par Ian hacking dans les

années 1990 en direction de la praxis, aspect de la production scientifique

complémentaire de la theoria impliquée par les styles de raisonnement. Aux

outils conceptuels s’associent de nouvelles techniques d’exploration du

monde. L’étude des mutations de sa base matérielle sont aussi nécessaires

que celle de sa superstructure pour comprendre l’évolution des sciences.

Georges Cuvier (1769-1832)

Principales contributions :

- Tableau élémentaire de l'histoire naturelle des animaux (1798)

- Leçons d'anatomie comparée (1800-1805)

- Histoire des sciences naturelles depuis leur origine jusqu'à nos jours (1841-

1845)

Concepts et idées-forces :

- Professeur au British Museum, il est le fondateur de la paléontologie, dont

l’appellation fut introduite par Henri Ducrotay de Blainville en 1922.

Discipline appelée à servir de matière première à la théorie de l’évolution,

en tant qu’elle exhume les fossiles des espèces disparues, permet

d’extrapoler la physionomie des espèces modifiées à la faveur de la sélection

et de reconstituer les processus de transformation graduelle ayant eu lieu

depuis l’origine. Permet de jeter des ponts entre des espèces apparemment

distinctes et de postuler une ascendance commune.

- Auteur d’une théorie catastrophiste. Cuvier ne conçoit pas l’existence des

fossiles comme une preuve de la théorie de l’évolution ou de la

79

transformation des espèces (contra Lamarck, zoologiste et Geoffroy Saint-

Hilaire, embryologiste). Loin d’indiquer une parenté entre espèces, ils

seraient le témoignage de catastrophes passées ayant anéanti des

écosystèmes entiers. Le déluge – mythème universel – en serait un récit.

- Cette controverse démontre que les faits sont toujours susceptibles d’une

multiplicité d’interprétations. Les mêmes objets peuvent donc étayer aussi

bien le fixisme créationniste que l’évolutionnisme matérialiste ; tant et si

bien, relève le zoologiste français Yves M. Delage (1854-1920) dans son

Traité sur L’Hérédité et les grands problèmes de la biologie générale (1903),

« qu’on est ou pas transformiste, non pour des raisons tirées de l’histoire

naturelle, mais en raison de ses opinions philosophiques ».

- Critique de l’évolutionnisme de Lamarck, il contribue au raffinement de

ses théories, de la même manière que les hérésies du christianisme des

premiers siècles ont contribué par réaction, à l’élaboration du dogme.

- Promoteur de l’anatomie comparée. Introduit le modèle des

embranchements, appelé à se substituer au concept de « masses » envisagé

par Lamarck. Classification déclinant vertébrés, mollusques, annelés et

rayonnés.

- Conception dynamique de la construction et du fonctionnement du

vivant.

- Loi des corrélations. Un animal doté de sabots doit posséder des cornes,

mais également des dents afin de broyer les végétaux, un de système

digestif. Il doit avoir ses yeux disposés sur la face latérale de son crâne afin

d’étendre son champ visuel et de prévenir les attaques des prédateurs.

Charles Darwin (1809-1882)

Principales contributions :

- De l'origine des espèces (1859)

- La Filiation de l'homme et la sélection liée au sexe (1871)

- L'Expression des émotions chez l'homme et les animaux (1872)

Concepts et idées-forces :

- Théorie de la sélection naturelle. Propose un mécanisme matérialiste non

directif pour expliquer la transformation et la diversification adaptative des

espèces à leur environnement. Élaborée au cours de son voyage sur le

80

Beagle de 1831 à 1836 (cf. l’épisode canonique de la comparaison des

espèces de pinsons installés dans les différentes îles de l’archipel des

Galapagos), inspiré par les travaux de son grand-père Erasmus Darwin et

des pratiques de sélection artificielle en usage dans l’agriculture et dans

l’élevage, la théorie n’est publiée qu’en 1859, avec la parution du traité De l’origine des espèces. - Le terme même d’« évolution » n’apparaît qu’à compter de la sixième et

dernière édition de l’ouvrage. Son sens moderne en biologie lui est donné

par Charles Lyell aux alentours de 1832.

- Rompant d’avec le transformisme de Lamarck et le fixisme catastrophiste

de Cuvier, Darwin précise que les micro-variations ne sont pas orientées

dans leur procès d’apparition ; elles procèdent d’une « loterie » dont le fin

mot ne sera donné qu’avec les lois de l’hérédité de Mendel et le constat des

mutations de l’ADN (théorie synthétique de l’évolution). C’est là ce qui

s’exprimera chez Canguilhem en termes de « labilité », de « normativité »,

d’« erreur vitale innée » et qui prendra chez Jacques Monod la forme

dialectique du « hasard » sanctionné par la « nécessité » de la sélection (Le Hasard et la Nécessité), principe explicatif du dynamisme de la vie et de ses

formes observables.

- Ces variations sont ensuite retenues (ou, le cas échéant, rejetées) au prorata de leurs avantages compétitifs et de leur valeur adaptative,

relativement à un milieu donné, en raison de la plus grande disposition de

l’individu porteur à la reproduction : « Ce qui caractérise donc la théorie de

l’évolution, écrit François Jacob, c’est la manière d’envisager l’émergence

des êtres vivants et leur aptitude à vivre ou à s’adapter au monde qui les

entoure. Pour Lamarck, quand se formait un être nouveau, sa place était

déjà marquée dans la chaîne ascendante des êtres. Il devait par avance représenter une amélioration, un progrès sur tout ce qui avait déjà existé

jusque-là. La direction, sinon l’intention, précédait la réalisation. Avec

Darwin, l’ordre relatif entre l’apparition d’un être et son adaptation est

inversé. La nature ne fait que favoriser ce qui existe déjà. La réalisation

précède tout jugement de valeur sur la qualité de ce qui est réalisé.

N’importe quelle modification peut naître de la reproduction. N’importe

quelle variation peut apparaître, qu’elle représente une amélioration ou une

dégradation par rapport à ce qui était déjà. Il n’y a aucun manichéisme dans

la manière utilisée par la nature pour inventer des nouveautés, aucune idée

81

de progrès ou de régression, de bien ou de mal, de mieux ou de pire. La

variation se fait au hasard, c’est-à-dire en l’absence de toute relation entre la

cause et le résultat. C’est seulement après son émergence que l’être nouveau

se trouve confronté aux conditions d’existence. C’est seulement une fois

vivants que les candidats à la reproduction sont mis à l’épreuve » (La Logique du vivant). On note ainsi deux principaux ajournements à la

théorie de l’évolution selon Lamarck : le hasard et la sélection naturelle.

- Darwin admet, tout comme Lamarck, et l’hérédité des caractères acquis.

Thèse réfutée par le biologiste Auguste Weismann dans les années 1880 et

1990, qui démontre l’indépendance des cellules germinales et somatiques.

Semble néanmoins présenter une relative pertinence sur le terrain de

l’épigénétique.

- La « survie des plus aptes », expression de Malthus reprise par Darwin, ne

signifie pas celle des plus fort ni même des plus intelligents ; et rien ne

prouve que les êtres humains l’emporteront à terme sur les virus. La théorie

de l’évolution ne décrit qu’un mécanisme et ne permet pas de prédire ce

qu’il en sera à l’avenir.

- C’est par ailleurs son incapacité faire des prédictions, son exemption au

critère Poppérien de réfutabilité ainsi que le fait qu’elle traite de

phénomènes uniques et non reproductibles à l’instar des sciences

historiques qui la rend vulnérable à la critique des scientifiques sceptiques

et des créationnistes dogmatiques. Le darwinisme peut-il être considéré

comme une science de la nature ? Comme une science proprement dite ?

- La théorie est complétée vers le début du XXe siècle grâce aux apports de

la génétique (mutation, recombinaison, etc.), de la génétique des

populations et la redécouverte des lois de Mendel. Consacre l’articulation

des mécanismes de la sélection avec les mécanismes de l’hérédité.

- Cet aggiornamento qui donne naissance à la théorie dite « synthétique » de

l’évolution fait de la variabilité le ressort caché du devenir des espèces. Elle

aboutit au néodarwinisme.

- Le darwinisme était déjà une synthèse d’une multiplicité de travaux

antérieurs, que Darwin ne cite pas toujours. Étienne Geoffroy Saint-Hilaire

soutenait également une théorie de la transformation supposée expliquer

l’apparition de nouvelles espèces. Lamarck, du reste, propose sa théorie

transformiste de l’évolution dans sa Philosophie zoologique, ouvrage paru

en 1809, l’année de la naissance de Darwin. On sait par les carnets de

82

l’auteur que ce dernier disposait lors de son voyage sur le Beagle d’un

exemplaire des Principes de géologie de Charles Lyell (1797-1875),

considéré comme le fondateur de la géologie moderne, qui intégrait un

exposé critique de cette théorie. L’économiste anglais Thomas Robert

Malthus, auteur en 1798 de l’Essai sur le principe de population souffle à

Darwin, de retour de son voyage, l’idée de « lutte pour l’existence » dans le

cadre d’un écosystème limité où la quantité de ressources disponible

s’accroît de manière continue quand la démographie s’accroît de manière

exponentielle. Cette notion chez Darwin recouvre « la doctrine de Malthus

appliquée à tout le règne végétal et à tout le règne animal » (L’Origine des espèces). Sans rien ôter à l’importance des observations faites par l’auteur, la

théorie de Darwin, comme la plupart des grands modèles scientifiques,

s’avère un montage théorique à l’intersection de nombreuses influences

intellectuelles astucieusement réorganisées dans un cadre inédit.

- Inédit, mais non pas tout à fait original. La parution, en 1859, de la Bible

de l’évolutionnisme fut précipitée en raison de la théorisation simultanée de

l’évolutionnisme au moyen de la sélection naturelle par Alfred R. Wallace,

moins d’une année auparavant. Rappelle les controverses sur la paternité

des théories (Leibniz vs. Newton, Pascal vs. Descartes, etc.) ; comme s’il y

avait une « atmosphère » de découverte longuement préparée qui

n’attendait que des catalyseurs. C’est ainsi que P.J. Bowler explique le

ralliement rapide de nombreux savants à une révolution scientifique

imminente.

- Idée de transformation graduelle, de développement, d’évolution, de

changement continu se retrouvant dans l’Europe du début du XIXe siècle à

travers d’autres disciplines. Ainsi, Hegel et Comte l’appliquent aux sociétés

et à l’esprit humain ou à l’histoire en général. Johann J. Bachofen et Lewis

H. Morgan l’adaptent à l’anthropologie naissante. Spencer tente d’unifier les

volets biologiques, sociaux et cognitifs de l’évolutionnisme sous un commun

système philosophique, et c’est à cet auteur qu’en 1870 renvoie le terme d’«

évolutionnisme ». L’essor de la linguistique comparative permet enfin de

mettre à jour la généalogie des langues indo-européennes qui semblent

s’être diversifiées à partir d’une (ou plusieurs) souche communes (exception

faite des isolats).

- Un sens philosophique et des implications théologiques majeures.

Désamorce l’argument de la complexité irréductible ou de l’analogie de la

83

montre (« watchmaker analogy ») encore utilisé par certains partisans de

l’intelligent design, avancé par William Palley dans sa Théologie naturelle

(1803).

- C’est également un coup porté à l’idée de Providence, sous sa forme

religieuse comme sous sa forme laïque : le progrès. Le mécanisme de la

sélection récuse les causes finales. Perte de sens bien plus traumatisante que

l’idée accessoire d’avoir avec le singe un ancêtre commun (plutôt que de «

descendre du singe »), cette « blessure narcissique » diagnostiquée par

Freud. L’homme, désormais, subit l’évolution.

- Ce constat de passivité est néanmoins à relativiser dans la mesure où

l’homme est également un être qui produit son environnement, de plus en

plus capable de se modifier lui-même. Possibilité de reprendre le contrôle

grâce aux biotechnologies et à la convergence NBIC. Provolution et

transhumanisme. Cf. Ray Kurzveil.

- Thomas H. Huxley ouvre le ban et la boîte de Pandore en publiant trois

ans après la parution de l’œuvre de Darwin La place de l’homme dans l’évolution (1863). Les crânes fossiles de néandertaliens passés au crible de

comparaisons anatomiques obligent à reconnaître que l’homme et le singe

ont un ancêtre commun. L’apogée de la polémique a lieu lors d’une réunion

à Oxford, en 1860, lorsque Huxley renvoie dans son clocher l’évêque

Samuel Wilberforce qui tentait de l’humilier en insultant ses grands-parents

(descendait-t-il du singe par son grand-père ou sa grand-mère ?). Réplique

apocryphe (cf. S.J. Gould, La foire aux dinosaures). Darwin ne s’empare du

sujet que douze ans après L’Origine des espèces, avec La Filiation de l’homme : « L’homme est issu par filiation de quelque forme préexistante ».

Soutient la transformation et la diversification en races de l’espèce humaine.

Un écho moins retentissant en raison de l’émergence de l’anthropologie et

de la multiplicité des évolutionnismes.

- Large influence de l’évolutionnisme sur les autres disciplines, comme en

témoigne la transposition qu’en fait Herbert Spencer dans le domaine des

sciences sociales, Karl Popper dans celui de l’épistémologie et Richard

Dawkins sur le terrain de la génétique, puis des idées (la théorie des

« mèmes »). La linguistique n’est pas en reste. La médecine et la physiologie

bénéficient aussi de ce modèle : ainsi la différenciation et la spécialisation

des cellules tout comme la production des anticorps pourrait relever de ce

même mécanisme.

84

- Il n’est pas jusqu’à l’évolutionnisme de Darwin, jusqu’à ce que nous

nommons la « théorie de l’évolution » qui ne soit elle-même « évolutive » ; à

telle enseigne que de la même manière que Michel Henry, dans la foulée de

Marx, distinguait Marx et le marxisme (= « l’ensemble des contresens qui

ont été faits sur Marx), un spécialiste de la trempe Pierre Thuillier a pu se

demander si Darwin aurait été darwinien (Le darwinisme aujourd’hui). En

témoignent ces profonds remaniements à la lumière des savoirs ultérieurs et

des apports des autres disciplines (A. Prochiantz (dir.), Darwin : 200 ans).

Julian Sorel Huxley (1887-1975) avance une théorie synthétique de

l’évolution. Elle sera complétée par l’apport de la génétique moderne, de la

génétique des populations, de la zoologie et de la paléontologie pour aboutir

dans les années 1940 au néodarwinisme.

- L’irruption de la biologie moléculaire et de la théorie des jeux complique

encore la donne au cours des années 1960 qui voient l’apparition de

modèles dissidents : la « théorie neutraliste » de Motoo Kimura en

génétique, la théorie des « équilibres ponctués » de Niles Eldredge et de

Stephen Jay Gould en paléontologie (saltationnisme vs. gradualisme).

Débats sur les micro- et les macro-évolutions en biologie moléculaire.

Débat sur le rôle assigné au processus de sélection, relativisé à la lumière des

phénomènes de coopération, de symbiose, d’endosymbiose, etc.

- Interférence d’éléments politico-économiques expliquant l’insistance mise

sur tel ou tel aspect particulier de la théorie. Darwin rédige son maître-livre

au plus fort du capitalisme concurrentiel et individualiste anglais. L’accent

est mis sur le concept de « survie du plus apte » (empruntée à Herbert

Spencer ; cf. D. Becquemont, Dictionnaire du darwinisme et de l’évolution),

devant être compris au sens de conservation de la lignée des spécimens

porteurs de caractéristiques leur conférant un avantage comparatif utile à la

reproduction. La logique de compétition prévaut sur toute autre matière et

considération. Théoricien du communisme libertaire, Pierre Kropotkine

propose sa propre théorie dans une étude intitulée L'Entraide, un facteur de l'évolution (1901). La viabilité n’est plus celle des individus conçus à

l’exclusion du groupe-espèce, mais celle du groupe-espèce avantagé par

l’échange réciproque, la mutualisation des ressources, la solidarité de ses

membres. Tout se passe comme si nos deux naturalistes avaient

inconsciemment déduit leur théorie de l’évolution de l’environnement

social au sein duquel ils ont usé leur plume et leur intelligence ; comme s’ils

85

avaient chacun projeté dans la nature la donne économique et politique qui

structurait leur représentation du monde. Il en ressort qu’on ne peut

comprendre exhaustivement une théorie sans avoir préalablement

considéré qui parle et d’où. Tel sera le credo de la sociologie des sciences.

- Succès certain mais ambigu. La filiation de l’homme, publié dix ans après

L’Origine des espèces, rapporte les propos du naturaliste et médecin Carl

Vogt aux dires duquel « personne, en Europe du moins, n’ose plus soutenir

la création indépendante et de toutes pièces des espèces ». Unanimement

saluée, la théorie de Darwin faisant droit aux principes de l’évolution n’est

toutefois adoptée que sous réserve de l’abandon chez la plupart des hommes

de science européen de son pivot central : l’idée de sélection naturelle. En

témoigne le peu d’enthousiasme des plus fervents soutiens de l’auteur, Ernst

Heackel et Thomas H. Huxley (dit « le bouledogue de Darwin »). Darwin

lui-même au terme de sa vie se reproche d’avoir surestimé ce facteur.

- Diffusion de la théorie de l’évolution entre 1860 et 1900. Plusieurs

versions coexistent (lamarckisme, mutationnisme, orthogénisme,

néodarwinisme) ; celle de Darwin basée sur la sélection naturelle est alors

minoritaire.

- Aujourd’hui paradigme dominant, ayant radicalement changé notre vision

du monde vivant, la théorie de l’évolution acquiert une valeur de méta-

théorie qui semble subsumer un grand nombre d’autres disciplines

ressortissant aux sciences biologiques et humaines. Mais une multiplicité de

sous-modèles dont aucun ne s’impose comme dominant.

- Darwin fournit l’exemple d’un auteur extrêmement étudié, autant que sa

théorie. P.J. Bowler recours à l’expression d’« industrie darwinienne » pour

désigner la production de milliers de livres exégétiques ou biographiques

consacrés à Darwin (Darwin. L’homme et son influence, 1998). Un

phénomène de « darwinomania » comparable à la littérature péri-

platonicienne en philosophie. Il s’agit pour les philosophes des sciences et

l’épistémologue de mettre à jour les processus de découverte scientifique, de

comprendre comment germe une idée. Pluralité de facteurs. Dans une

perspective nietzschéenne, le psychiatre et psychanalyste John Bowlby a

ainsi consacré une étude biographique de plus de 500 pages à l’étude de sa

maladie chronique : Charles Darwin. Une nouvelle biographie (1995). Son

œuvre, austère, est néanmoins peu lue, même par les spécialistes de

l’évolution.

86

- Tentatives ultérieures pour faire de l’évolutionnisme la clé

d’interprétation des comportements humains :

(1) Comportements des sociétés avec l’eugénisme de Galton ou le

darwinisme social (/antisocial) de Spencer, triomphant au début du XXe

siècle. Puis rejet consécutif au traumatisme des camps d’extermination, en

particulier par les sciences humaines, hostiles à l’idée d’un déterminisme

biologique portant atteint à la liberté de l’esprit.

(2) Comportements individuels avec le projet de sociobiologie d’Édward

O. Wilson, qui interprète les conduites altruistes (de parentèle ou

réciproque) négligées par la théorie classique dans une perspective holiste,

l’individu se sacrifiant pour la survie du groupe. Modèle plus intégré des

sociétés humaines, bien que limité tantôt par le recours au paradigme

animal, tantôt par le tout-génétique.

(3) Depuis la fin des années 1980, relayée par la psychologie

évolutionniste (« évopsy »). Tentative de synthèse théorisée par la

psychologue Leda Cosmides et par l’anthropologue John Tooby. Cf. Leda

Cosmides.

- Créationnisme, néo-créationnisme et Dessein Intelligent en lutte féroce

contre le darwinisme. La théorie de l’évolution attaquée pour ses

manquements scientifiques dans certains États américains, qui voudraient

que soit enseignée (naguère avec l’appui du président Georges W. Bush)

comme une alternative égale à une lecture biblique plus ou moins réformée,

qui ne dit pas son nom. Donnera lieu aux différents « procès du singe » au

Tennessee, en Arkansas et dans le Kansas. Il est toutefois douteux que ces

alternatives soient plus réfutables et donc plus scientifiques (selon

l’acception popperienne) que le darwinisme ; ce que démontre par l’absurde

un étudiant de l’Oregon, Bobby Henderson, en proposant que soit aussi

dispensé un enseignement du « pastafarianisme » : doctrine faisant du

Créateur un plat de spaghettis géants en lévitation. Cf. Bobby Henderson.

Lorraine Daston (1951-20XX)

Principales contributions :

- Objectivité (avec Peter Galison) (2007)

- « The Disciplines of Attention », dans David E. Wellbery (ed.), A New History of German Literature (2005)

87

Concepts et idées-forces :

- Distinction entre vérité et objectivité. Il y a une différence entre décrire

une chose à la manière dont elle nous apparaît et la décrire telle qu’elle est.

- La dynamique de cet écart justifie une histoire de l’objectivité, laquelle

pour l’auteur traverse au moins trois stades qu’illustrent les livres d’images

scientifiques (intitulé « atlas » au XVIIIe siècle) et définissent chacun un

éthos scientifique :

(1) La « vérité d’après nature » connaît son apogée au XVIIIe siècle. Elle

se présente comme une tentative de représenter le type ou l’archétype

d’une classe d’objets ; en l’occurrence, le spécimen le plus représentatif de

son espèce, quitte à parfaire ses caractéristiques. La vérité d’après nature

procède par correction pour aboutir à une forme idéalisée de la chose

représentée.

(2) L’« objectivité mécanique » la relaye au milieu du XIXe siècle lorsque

les scientifiques (apparus à la même époque) accusent le caractère subjectif

de cette pratique. L’observateur ne doit pas corriger, mais s’effacer devant la

nature. L’image doit refléter le perçu ; et ne rien faire davantage. L’usage de

la photographie permet d’éliminer beaucoup de ces éléments impurs qui

introduisent des distorsions indésirables.

(3) Le « jugement exercé » ou « qualifié » est le mot d’ordre du XXe

siècle. La nature ne s’offre pas directement aux investigations de

l’observateur : il faut la décrypter et, pour cela, entraîner son regard :

apprendre à lire un graphique, une statistique, une radiographie, etc.

- Thématisation des embranchements de l’histoire des sciences (par

opposition à l’approche formaliste du cercle de Vienne) alimentée par trois

courants, auxquels nous ajouterons un quatrième :

(1) Le courant philosophique étudie les interactions entre les théories et

les idées philosophiques ; soit la métaphysique des sciences. Les découvertes

et leur modalité d’énonciation sont redevables de présupposés qui ne

relèvent pas directement des sciences. Le relativisme est écarté en cela qu’il

ne concerne que l’invention, et n’enlève rien à la rigueur et à la rationalité

des résultats passés au crible de procédures de vérifications. Citons, au

nombre de ses obédiencier, Alexandre Koyré en France et Gerald Holton en

Amérique.

88

(2) Le courant sociologique étudie la production des savoirs scientifiques

sous le rapport de la subjectivité d’individus confrontés à des institutions, en

butte à des impératifs industriels, moraux et politiques, alloués d’une

subjectivité séduite par des principes d’ordre extra-scientifique, animés

d’intérêts individuels ou collectifs. Un courant plus ouvertement relativiste

(contra l’option rationaliste et réaliste), se distribuant en différentes écoles.

David Bloor et Bob Barnes développent en 1976 le programme fort qui met

en vis-à-vis les intérêts sociaux avec le contenu des découvertes. Harry

Collins et Trevor Pinch se réclament pour leur part de la socio-histoire des

sciences et pratiquent l’analyse des controverses.

(3) Le courant historique. Prépondérant en France, il s’autorise d’une

exégèse minutieuse des textes et d’un travail archivistique circonstancié

pour mettre à jour les tenants et les aboutissants d’une connaissance en

formation ou d’une controverse localisée. Ce que l’on peut qualifier de «

micro-histoire » n’a de cesse de mettre à mal les grandes reconstructions

positivistes et rationnelles de l’histoire des sciences, laquelle va souvent à

tâtons et à l’aveugle. Steven Shapin montre ainsi que la « révolution »

moderne relève d’une projection rétrospective et finaliste.

(4) Le courant ethnographique, ignoré par Daston, parachève la

typologie. Souci marqué pour la « science en train de se faire » partagé par

Bruno Latour en France et Steve Wolgard outre-Atlantique, qui montrent

comment le chercheur recourt dans son activité à des choix intuitifs, à des

arguments hétéroclites. La science conçue comme art du bricolage nécessite

une forme de négociation tant avec l’observation qu’avec les autres acteurs

de la science.

Richard Dawkins (1941-20XX)

Principales contributions :

- Le Gène égoïste (1976)

- Phénotype étendu (1982)

- Pour en finir avec Dieu (2006)

Concepts et idées-forces :

- La science en guerre contre la religion. Fait notamment un sort aux

théories créationnistes (Terre jeune, etc.) ou du Dessein Intelligent

89

(évolution finalisée par un Grand Architecte). Fut à l’initiative de la « Out

Campaign », invitant les athées à faire leur « coming out » et s’identifier

publiquement, notamment grâce au port de « lettre écarlate » (A majuscule

rouge pour « Atheism »).

- Le gène égoïste. Transposition aux gènes de la théorie de l’évolution.

Opère une révolution copernicienne qui en déplace le centre de gravité. Les

espèces sont les formes du vivant adoptées par les gènes pour se transmettre

et pour se reproduire.

- L’altruisme, entre autres, n’est donc pas à interpréter comme un aspect lié

à la sélection de groupe (le sacrifice individuel majore les chances de survie

de l’espèce au détriment de celle de l’individu) dans une perspective holiste

et non individualiste de l’évolution. D’accord avec le biologiste W.D.

Hamilton, Dawkins admet que ce comportement vise à favoriser des

proches porteurs de gènes semblables.

- Le modèle du gène égoïste ouvre la voie à une théorie de l’esprit. S’inscrit

dans le prolongement de la sociobiologie et la psychologie évolutionniste

(evopsy).

- La théorie des mèmes. Équivalent culturel du gène, le mème fait entrevoir

la possibilité de recourir aux principes darwiniens de la sélection pour

expliquer comment certaines idées/religion/idéologie/phénomènes de mode

parviennent à se transmettre et à proliférer en fonction de leurs avantages

comparatifs. De même que le gène selon Dawkins, le mème se sert de

l’homme comme d’un réplicateur, une gonade, un instrument de

reproduction. Les mécanismes de la transmission sont conservés tout

comme ceux de la variabilité : un mème copié peut subir des altérations, se

modifier, se raffiner, se combiner avec un autre mème et créer de nouvelles

versions de lui-même plus efficace st susceptible de se transmettre. Focalisé

sur l’information et les comportements, la « mémétique » se propose ainsi

comme l’analogue intellectuel de l’évolutionnisme biologique recentré sur

les gènes.

- Un intérêt épistémologique certain dans la mesure où elle explique la

diffusion ou la disparition des théories en relation avec les exigences de

l’environnement et les contraintes intellectuelles de chaque époque.

90

René Descartes (1596-1650)

Principales contributions :

- Discours de la méthode (1637)

- Méditations métaphysiques (1641)

- Principes de la philosophie (1644)

- Passions de l’âme (1649)

Concepts et idées-forces :

- Procédure du doute hyperbolique reprise des philosophes sceptiques.

Néanmoins chez les sceptiques, pas de récusation possible de l’existence

d’une extériorité au moi ; pas de risque de phénoménisme. C’est Dieu qui,

chez Descartes, assure l’adéquation de l’objet physique ramené à la figure et

au mouvement et la chose extérieure.

- Cogito ergo sum. La connaissance procède en s’appuyant sur l’évidence du

sujet épistémologique (Foucault).

- Soutient ce qui deviendra la distinction des qualités premières et secondes

(et tertiaires) chez Locke pour expliquer la relativité des sensations, tout en

préservant au phénomène un substrat matériel réduit à l’étendue diversifié

par la figure et au mouvement.

- Prend part à la révolution scientifique du XVIIe siècle, tributaire d’une

révolution conceptuelle (philosophie mécaniste), de la naissance de

l’expérimentation (perfectionnement et multiplication des instruments de

mesure) ainsi que de l’adoption de la méthode analytique exposée dans le

Discours de la méthode, qui rompt d’avec la scolastique (on retrouve

l’idéalisme platonicien Platon en rejetant Aristote).

- Pose les fondements d’une nouvelle mécanique fondée sur la

mathématisation de l’étendue et du mouvement = reconstruction du

phénomène à l’intérieur du domaine de l’intelligibilité géométrique.

Mathématisation du phénomène corrélative à la mathématisation de l’esprit

: Logique de Port-Royal par Arnauld et Nicole, Éthique « more geometrico »

de Spinoza, Leibniz et son projet de Caractéristique universelle, etc.

- Mathématisation du mouvement se heurte notamment au problème de

l’infini : les paradoxes de Zénon, Giordano Bruno, etc. D’où la distinction

posée par les Principes, première partie, entre infini et indéfini. Alors que

l'infini se dit de Dieu, l'indéfini se dit du monde physique et des

mathématiques.

91

- Illustration de la manière dont une discipline se constitue comme science

au XVIIe siècle, par voie de dématérialisation d'un champ de l'expérience. Il

s’agit de surmonter l’apparence immédiate pour remonter du fait irrationnel

et subjectif au phénomène réglé et objectif. Le geste de Descartes consiste

ainsi d’abord à effectuer la spatialisation de ce qui n’est pas spatial, la

quantification de ce qui n’est pas (ou du moins pas immédiatement)

quantifiable. La dimension ou la mesure (d’une étendue, d’une translation)

joue chez Descartes le rôle de paramètres. La mesure de tels paramètres est

ce que l’on retient pour constituer l’objet des sciences. La certitude (le fait

de circonscrire une vue) résulte de ce processus. Les sciences modernes

effectuent lors une réduction dont la finalité est de donner accès au

phénomène-objet.

- Découvre les lois de la réflexion et de la réfraction, fonde la géométrie

analytique (avec Pierre de Fermat) qui rend possible la représentation d’une

fonction algébrique par une courbe géométrique. Prépare une nouvelle

vision du monde prônant l’image d’une nature débarrassée de ses qualités

occultes. Renoue avec la position chrétienne contre l’animisme grec.

- Pour Imre Lakatos, la théorie mécaniste cartésienne (et son prolongement

en optique) constitue un programme de recherche scientifique (PRS) ou

socle de principes et d’hypothèses rectrices qui « envisagent l’univers

comme un immense système d’horlogerie ».

- Typologies des idées (innées, factices, adventices). Nous connaissons par

les idées, par l’entendement, non par les sens et l’imagination (cf. analyse du

morceau de cire)

- Dualisme âme-corps et notions communes. Res extensa vs res cogitans. Le

problème de l’union et le traité des Passions de l’âme. Théorie des animaux

machines, les esprits animaux, de la glande pinéale, etc.

- Le critère d’évidence et les idées claires et distinctes. Nous concevons en

nous une idée de l’infini (marque de l’ouvrier dans son ouvrage), mais ne

pouvons l’imaginer. Exemple du chiliogone, figure à mille côtés.

- L’erreur liée à l’illimitation de la volonté qui va au-delà de l’entendement.

Nous affirmons davantage que ce que nous entendons.

92

John Dewey (1859-1952)

Principales contributions :

- Reconstruction en philosophie (1919)

- Expérience et Nature (1925)

- Logique. La théorie de l'enquête (1938)

Concepts et idées-forces :

- Inflexion pragmatiste imprimée à la philosophie classique en vue de la

moderniser et de l’affecter à la résolution de problèmes humains. Critique

corrélative de la philosophie classique qui se consacre à des spéculations

abstraites et à des dissertations creuses sur les essences et autres intelligibles.

Son but devrait être d’épouser les évolutions du monde, quitte à se

transformer perpétuellement pour lui donner du sens et aménager l’ordre

qu’il ne possède jamais de manière a priori et absolue (contra les partisans

du cosmos grec au latin et de l’harmonie préétablie). Des « instruments

d’enquête sur les faits humains ou moraux » sont nécessaires pour éprouver

les théories scientifiques et philosophiques, ramenées au statut d’hypothèses

à valeur provisoire et relative.

- Instrumentalisme. Définition de la pensée comme instrument façonné au

cours de l’évolution à la faveur duquel l’homme s’adapte à un monde lui-

même en perpétuelle évolution. Perspective darwinienne conduit Dewey à

la comprendre « génétiquement, comme le produit d'une interaction entre

un organisme et son environnement », à concevoir la connaissance « comme

ayant une instrumentalité pratique dans l'orientation et le contrôle de cette

interaction », et les idées et théories comme instruments pratique dont la

valeur se mesure de manière relative en fonction des défis qu’ils permettent

de relever, des intérêts humains.

- « Naturalisme interactif » = Coévolution perpétuelle de la pensée et de son

environnement. Raison pour laquelle l’enquête scientifique n’a pas de

terme, ni la philosophie qui est un processus dont le contenu ne saurait être

acquis a parte post. Contra la conception platonicienne d’une science

absolue, objective, indépendante du contexte matériel, identique à elle-

même.

- Réorientation de la philosophie dont la question centrale devrait être de

savoir ce que « peuvent les professeurs de philosophie pour contribuer à la

création d'un monde meilleur ». D’où une vigoureuse prise à partie de la

93

philosophie contemplative traditionnelle, indifférente au sort de

l’humanité, voire légitimant sa condition (cf. Reconstruction en philosophie, 1919). Dewey renvoie dos à dos l’empirisme logique (de

Bertrand Russell, Rudolf Carnap, Willard Van Orman Quine, Max Black et

consorts) à l’origine la philosophie analytique anglo-saxonne, et les

philosophies de l’histoire, surgeons de la tradition herméneutique

continentale, en déphasage avec l’actualité.

- Caractère économiquement intéressé de la philosophie classique. Plus

particulièrement, de celle de Platon et d’Aristote, articulée aux intérêts

d’une certaine classe sociale. Cet édifice spéculatif n’a pas de valeur en soi,

et surtout pas extrait de son contexte. Anachronique mais, plus encore,

illégitime quant à sa prétention à être une discipline plus noble que les

autres arts ou sciences. Dewey observe enfin que si cette philosophie est

prompte à la critique (ce qui la rend indéniablement précieuse), elle affiche

moins d’entrain à se prendre elle-même pour objet de critique. Anticipe par

certains aspects sur ce que Marx, en réinvestissant un concept forgé par

Destutt de Tracy, appellera l’idéologie.

- Naturalisme empirique. Promeut le ré-enracinement de l’expérience dans

la nature sociale de l’homme. En quoi cette philosophie peut être qualifiée

d’humanisme naturaliste.

- Caractère collectif et évolutif de l’expérience. Celle-ci doit être

contextualisée en étant rapportée à la culture comprise au sens

anthropologique du terme. Elle concerne un ensemble d’individus et non

un individu seul ; est sous-déterminée par un environnement social

dépositaire de ses codes, de ses rites de ses institutions. Mais elle peut à son

tour faire évoluer cette grammaire sociale qui l’influence autant qu’elle

l’influence. Voir la postface de Joëlle Zask à l’édition française d’Experience et nature : « Les activités de l'individu sont largement déterminées par son

environnement social, mais réciproquement ses propres activités

influencent la société dans laquelle il vit, et peuvent apporter des

modifications dans sa forme. Il est évident que ce problème est l'un des plus

importants qu'il faille envisager dans une étude des changements culturels

».

- Théorie de l'enquête et assertabilité garantie. L’enquête consiste en

l’examen de diverses hypothèses fournies par les théories philosophiques

94

traditionnelles en vue de résoudre un problème d’adaptation faisant suite à

une modification de l’environnement.

- La solution convenue n’est pas une vérité, ou pas au sens d’adéquation

d’un énoncé et de la réalité ; elle relève de l’« assertabilité garantie » (=

satisfaction), supprime provisoirement le besoin à l’origine du doute. Le

pragmatisme n’a d’intérêt que pour ce qui fonctionne. Critère d’efficacité

pratique.

- Une logique adaptée au raisonnement scientifique. De même que

l’Organon d’Aristote satisfaisait à l’état de la science du quatrième siècle

avant J.-C., vise à élaborer un instrument théorique qui donne le change

aux exigences scientifiques de l’esprit moderne. Ni un traité (Bacon et Mill),

ni une axiomatisation mathématique (Russell), mais une refondation

radicale de la logique en direction de l’instrumentalisme. Système indexé

sur l’action, valable par ses effets, dépositaire de ses canons de méthode

propres.

Wilhelm Dilthey (1833 -1911)

Principales contributions :

- Introduction aux sciences de l’esprit (1883)

Concepts et idées-forces :

- Opposition sciences de l’esprit (histoire, psychologie, sociologie, etc.) vs.

sciences de la nature (physique, chimie, biologie, etc.). Les premières

portent sur la réalité physique ; elles prêtent à une explication en termes de

lois et de causalité. Les secondes frayent dans la matière humaine et

impliquent une démarche qui fasse droit à la subjectivité des individus ;

elles relèvent de la compréhension.

- Une distinction à replacer dans le contexte du scientisme et du positivisme

triomphant de la fin du XIXe siècle et que K.O. Apel considère non plus en

termes d’opposition mais de complémentarité : il est un fait que toute

explication requiert déjà un acte de compréhension (La controverse expliquer-comprendre. Une approche pragmatico-transcendantale).

- Weltanschauung (conception du monde). Notion issue du romantisme

allemand, critiqué par Hegel ; à ne pas confondre avec l’épistémè de

Foucault.

95

Pierre Duhem (1861-1916)

Principales contributions :

- La Théorie physique. Son objet et sa structure (1906)

- Sauver les apparences. Sur la notion de théorie physique de Platon à Galilée (1908)

- Le Système du Monde. Histoire des Doctrines cosmologiques de Platon à Copernic (1913-1959)

Concepts et idées-forces :

- Avec Ernst Mach et Henri Poincaré, l’une des trois grandes figures de la

philosophie des sciences à l’aube du XXe siècle. Des analyses fondées sur

l’enquête historique, donnant le la de la tradition française.

- Élargissement à la physique le champ du conventionnalisme que Poincaré

confine à la géométrie.

- Instrumentalisme. La théorie considérée comme une représentation

commode des lois mathématiques : « Une théorie physique n'est pas une

explication, c'est un système de propositions qui ont pour but de

représenter un ensemble de lois expérimentales » (La théorie physique, son objet, sa structure) ; lois expérimentales qui sont des modèles symboliques

et approchés de l’observation. L’usage des théories est alors prédictif,

nullement explicatif. La théorie ne décrit pas le réel en soi, mais une façon

de s’y rapporter.

- L’instrumentalisme de Duhem, lequel conçoit les théories à la manière de

système déductif abstrait retenus pour leur fécondité, s’oppose au réalisme

épistémologique selon lequel les théories peuvent prétendre à parler de la

vérité ; ensuite de quoi ce qu’elles énoncent existe.

- S’oppose pour cette raison à la théorie atomique inchoative, qui postulait

des entités sans nécessité. L’observation des atomes à la faveur des

microscopes à effet tunnel apporte un démenti à Duhem : il y a bien des

atomes.

- La promotion d’une collection de faits à l’état de théorie ne peut se

satisfaire du dégagement des lois de régularité, de la description des

constantes et de la généralisation à partir d’inductions ; encore lui reste-t-il

96

à conférer aux phénomènes empiriques un pendant symbolique, de

développer un formalisme mathématique.

- La théorie va au-delà de l’expérience en avançant des concepts

hypothétiques abstraits, non observable, tels ceux de force, de masse,

d’accélération, d’inertie, etc. Autre objection à opposer aux empiristes naïfs

et aux positivistes.

- Acception cohérentiste de la « vérité » d’une théorie supplante l’acception

coïncidentiste traditionnelle synthétisée par la formule « adequatio intellectus et rei ».

- Holisme épistémologique. Il définit une conception organiciste de la

théorie physique. Le propre de l'organe est qu’il ne peut être appréhendé

qu'à l'aune du corps entier. Ce rapport de l'organe relativement au corps est

analogue à celui qui rattache une hypothèse à la constellation des théories

qu'elle mobilise. On ne peut donc pas de trancher entre deux hypothèses ;

on ne peut trancher qu’entre deux ensembles théoriques qui devront être

pris en bloc en bloc. Cette thèse, qui fut reprise par Quine, sera plus tard

appelé la « thèse de Duhem-Quine » ou « holisme de la confirmation ». La

thèse de Duhem-Quine peut être lue comme un élargissement à toutes nos

connaissances de l’holisme physique thématisé par Duhem. Cette

découverte aura des conséquences pratiques et théoriques majeures dans le

domaine des sciences expérimentales. Elle a pour corollaire le fait qu'il ne

saurait y avoir d'expérience cruciale (en physique comme ailleurs). Contra

Bacon.

- Caractère global du contrôle expérimental. Une expérience ne sanctionne

donc jamais une hypothèse particulière, mais toujours un ensemble

théorique. Il suit de là que l'énoncé des résultats d'une expérience implique

du physicien qu'il réaffirme sa croyance en une pluralité de théories

connexes (de la mesure, de l'instrument, des lois optiques, etc.). Et si c'est

bien parmi ces théories qu'il faut traquer l'hypothèse déficiente, rien ne

permet de dire de laquelle il s'agit, quoi remplacer et quoi sauver. Ce dont

nous avertit la contradiction expérimentale, c'est d’une tare dans le système

des hypothèses que mobilise la théorie. Elle ne dit rien de l'hypothèse à

l’origine de ce dysfonctionnement.

- L'attitude exigée du physicien aux prises avec le démenti de l'expérience

est directement liée à l'architectonique des théories. Selon Duhem, le

développement d'une théorie requiert quatre démarches successives,

97

rigoureusement sériées : (a) définition des concepts ; (b) formulation des

hypothèses ; (c) développement mathématique et (d) contrôle expérimental.

Partant, les hypothèses ni les définitions sont atteintes par l'expérience :

celles-ci n'ont pas de valeur empirique ; ce sont des conceptions, purement

formelles, du physicien. Ce qui est confronté à l'expérience, ce sont les

conséquences du développement mathématique, les lois qui s'en dégagent.

Le physicien doit revenir de manière dialectique sur (a) et (b), sur les

définitions et hypothèses qu'il pose et corrige librement. Notons que le

contrôle n'intervient qu'en aval : la théorie n'est pas le fruit de l'expérience

; elle est présupposée, intuitionnée. L'auteur s'oppose en cela aux

conceptions inductivistes de la science.

« Un physicien conteste telle loi ; il révoque en doute tel point de

théorie ; comment justifiera-t-il ses doutes ? Comment démontrera-

t-il l’inexactitude de la loi ? De la proposition incriminée, il fera

sortir la prévision d’un fait d’expérience ; il réalisera les conditions

dans lesquelles ce fait doit se produire ; si le fait annoncé ne se

produit pas, la proposition qui l’avait prédit sera irrémédiablement

condamnée […].

Un pareil mode de démonstration semble aussi convaincant, aussi

irréfutable que la réduction à l’absurde usuelle aux géomètres ; c’est,

du reste, sur la réduction à l’absurde que cette démonstration est

calquée, la contradiction expérimentale jouant dans l’une le rôle que

la contradiction logique joue dans l’autre.

En réalité, il s’en faut bien que la valeur démonstrative de la

méthode expérimentale soit aussi rigoureuse, aussi absolue ; les

conditions dans lesquelles elle fonctionne sont beaucoup plus

compliquées qu’il n’est supposé dans ce que nous venons de dire ;

l’appréciation des résultats est beaucoup plus délicate et sujette à

caution.

Un physicien se propose de démontrer l’inexactitude d’une

proposition ; pour déduire de cette proposition la prévision d’un

phénomène, pour instituer l’expérience qui doit montrer si ce

98

phénomène se produit ou ne se produit pas, pour interpréter les

résultats de cette expérience et constater que le phénomène prévu ne

s’est pas produit, il ne se borne pas à faire usage de la proposition en

litige ; il emploie encore tout un ensemble de théories, admises pour

lui sans conteste ; la prévision du phénomène dont la non-

production doit trancher le débat ne découle pas de la proposition

litigieuse prise isolément, mais de la proposition litigieuse jointe à

tout cet ensemble de théories ; si le phénomène prévu ne se produit

pas, ce n’est pas la proposition litigieuse seule qui est mise en défaut,

c’est tout l’échafaudage théorique dont le physicien a fait usage ; la

seule chose que nous apprenne l’expérience, c’est que, parmi toutes

les propositions qui ont servi à prévoir ce phénomène et à constater

qu’il ne se produisait pas, il y a au moins une erreur ; mais où gît

cette erreur, c’est ce qu’elle ne nous dit pas. Le physicien déclare-t-il

que cette erreur est précisément contenue dans la proposition qu’il

voulait réfuter et non pas ailleurs ? C’est qu’il admet implicitement

l’exactitude de toutes les autres propositions dont il a fait usage ; tant

vaut cette confiance tant vaut sa conclusion […]. »

Duhem, La théorie physique, son objet, sa structure, chap. 6.

- Ensuite de quoi le physicien est libre de modifier telle ou telle hypothèse

qui lui déplaît ; et les critères qui président à ce choix n'ont pas de

justification démonstrative. Le choix d'incriminer telle hypothèse plutôt

qu'une autre relèverait bien plutôt des intuitions, présupposés, valeurs du

physicien, et même de son « bon sens » relativement aux connaissances de

son époque.

- Le libre choix des hypothèses à conserver ou révoquer introduit donc une

part de contingence dans la constitution des théories. Cette contingence

n'est acceptable pour le physicien que s'il fait sien le postulat selon lequel la

science n'a pas tant vocation à rendre compte de la réalité, à « expliquer »,

qu'à donner du réel une « représentation » conforme à l'expérience. La

science n'est pas la vérité ; c'est un dispositif dont la valeur dépend de sa

capacité à faire des prédictions. C'est ce qu'on appellera une conception «

instrumentaliste » de la science, par opposition à l'interprétation «

matérialiste » ou « réaliste » de la physique.

99

- Encore faut-il être en mesure de distinguer le bon grain de l'ivraie. De fait,

dès lors que la science abandonne sa prétention à saisir l'essence même de la

réalité pour n'en donner qu’une représentation, se pose la question des

critères qui vont permettre d'apprécier laquelle des nombreuses

représentations possibles est la plus adaptée. D'une théorie X ou Y toutes

deux conformes à l’expérience, laquelle privilégier ? C'est ici

qu'interviennent les « valeurs objectives de la sciences ». Ces valeurs

objectives président à l'arbitrage du physicien, au prorata du degré

d'importance qu’il leur accorde. Une théorie plus cohérente, plus élégante,

plus simple, précise, féconde, complète, a davantage de chances d'être

priorisée.

- Valeurs et critères du choix rationnel : précision, cohérence, complétude,

simplicité, fécondité. Elles sont nécessités pour arbitrer entre les différentes

représentations possibles. Duhem promeut spécifiquement la complétude, la

cohérence et la simplicité. Rien n'empêche cependant le physicien

d'interpréter à sa manière ces différents principes d'évaluation, ni ces

principes d'entrer en conflit les uns avec les autres. Longtemps, la

cohérence a servi d'argument en faveur de la théorie géocentrique de

Ptolémée, tandis que la simplicité était invoquée par les partisans de la

théorie héliocentrique de Copernic. La première s'accordait avec la

physique d'Aristote, alors prépondérante ; la seconde permettait de

diminuer le nombre de cercles célestes.

- Duhem s'en prend à la vulgate de la méthode expérimentale telle qu’elle

se trouve reprise par, notamment, ceux qui l’enseignent. On définit

compendieusement la méthode expérimentale comme une démarche

scientifique visant à tester la validité d'une hypothèse au moyen

d'expériences répétées, précises et encadrées. On pensait donc, jusqu'à

Duhem, être en mesure de confirmer ou d'infirmer une hypothèse

particulière en la livrant directement au tribunal de l'expérience. Or,

précise-t-il, « il n'en est pas ainsi ; la Physique n'est pas une machine qui se

laisse démonter ; on ne peut pas essayer chaque pièce isolément et attendre,

pour l'ajuster, que la solidité en ait été minutieusement contrôlée. » (La théorie physique, son objet, sa structure). En clair, on ne peut pas faire un

inventaire des hypothèses et les tester les unes après les autres (démarche

analytique). Toutes les fois qu'une théorie se trouve en contradiction avec

100

expérience, c'est le système entier qui se trouve mis à mal sans qu'on puisse

dire lequel de ses rouages est déficient.

- Pas d’expérience cruciale. La notion d'expérience cruciale vient de Bacon

qui dans le Novum Organum, la nomme aussi « fait de la croix, en

empruntant cette expression aux croix qui, au coin des routes, indiquent les

divers chemins ». En guise d’exemple, on admettait pour décisive

l'expérience de Foucault en tant qu'elle permettait de trancher entre

l'hypothèse corpusculaire et hypothèse ondulatoire de la lumière ; en vérité,

c'est entre deux systèmes théoriques complets que mettent en jeux ces

hypothèse (l'optique de Newton, et l'optique de Huygens) que l’expérience

arbitre ; à supposer bien sûr qu'il n'y ait pas d’autres hypothèses auquel le

physicien n'a pas encore songé… ce qui cela se révélera être le cas (les

quanta, puis les bosons vecteur). En résumé, il y a donc selon Duhem

plusieurs raisons qui font qu'une expérience cruciale n'a pas de légitimité

pour transformer une hypothèse physique en vérité incontestable :

(1) C’est, tout d’abord, qu’un fait dit « scientifique » est le produit d'une

expérimentation qui met en jeu tout un réseau de théories connexes (non

pas une hypothèse donnée dont on saurait si elle est réfutée ou vérifiée).

(2) De plus, un ensemble théorique invalidé peut toujours s'adapter

moyennant des aménagements, tels que la modification d'une hypothèse

auxiliaire (Popper fut le premier à établir cette distinction entre hypothèses

fondamentales et auxiliaires). Chaque fois qu'une expérience prétend

confondre l'une de nos hypothèses, nous avons toujours le choix entre

l'abandonner ou bien la conserver, et modifier à la place un autre de nos

énoncés.

(3) Au reste, pour qu'une telle expérience soit susceptible de garantir ou

d’infirmer une hypothèse physique, il faudrait énumérer exhaustivement

les diverses autres hypothèses auxquelles un groupe déterminé de

phénomènes peut donner lieu ; sur ce terrain, le physicien n'est jamais sûr

d'avoir épuisé toutes les suppositions imaginables.

- Primat de la théorie, laquelle précède, calibre l’expérience. Il n’y a pas

plus d’induction pure que d’expérience cruciale.

- Pas de remise en cause du progrès scientifique. Qu’une théorie ne reflète

pas la vérité ne condamne pas la science au pur relativisme. Au fur et à

mesure que se succèdent les théories, celles-ci deviennent plus adéquates,

saisissent de mieux en mieux les articulations de la réalité. Incidemment, se

101

met en branle un processus de cheminement envers une « classification

naturelle » (donc non-conventionnelle). Reprise d’Auguste Comte : on ne

recherche pas les causes finales ou originaires des phénomènes, on donne

une description commode, efficace. Représenter n'est pas livrer la vérité sur

le réel ; toutefois on s'en rapproche de manière asymptotique.

-Duhem entrevoit les prémices de la science moderne dans la science

médiévale plutôt qu’au XVIe siècle. Ex : impetus chez Jean Buridan comme

préfiguration du principe d’inertie vs. conception

aristotélicienne l’antipéristase ; latitude des formes chez Nicole Oresme,

prodromes de la quantification des qualités ; intuition de la rotation de la

Terre chez les penseurs du Moyen Âge ; pluralité des mondes chez Albert

de Saxe, Giordano Bruno et Bernard le Bovier de Fontenelle (Entretiens sur la pluralité des mondes, 1686). Le procès de Galilée serait l’apex de la

critique de l’aristotélisme par les penseurs modernes. L’Église joue malgré

elle un rôle de promoteur de ces nouvelles idées (effet Streisand : mettre à

l’index, c’est pointer du doigt).

- La cohérence logique est recherchée par ces penseurs conventionnalistes

davantage que l’applicabilité de ces théories à la réalité physique. La

promotion du critère d’efficacité (Machiavel en politique, Descartes en

mécanique, Vésale en anatomie, Paré en médecine) constitue le pivot de la

révolution scientifique du XVIIe siècle.

- Prise en compte de la collectivité de l’œuvre scientifique. Le physicien

expérimentateur collabore avec le théoricien.

- Étude sur la révolution scientifique du XVIIe siècle. La science classique

croyait « sauver les phénomènes » en dégageant des lois abstraites à même

de subsumer la multiplicité des faits sous des principes universels. Il

s’agissait de faire ressortir une constance au sein de phénomènes en

apparence aléatoires, une permanence qui rende possible l’explication et

l’anticipation. Les faits d’observation ne sont plus capricieux, mais ordonnés

à la faveur d’une théorie. Cette théorie ressaisissait le monde dans un

modèle qui en propose une simplification commode.

102

Albert Einstein (1879-1955)

Principales contributions :

- Divers articles fondateurs publiés dans la revue Annalen der Physik en

1905, « annus mirabilis » d’Einstein : « Sur l’électrodynamique des corps en

mouvement » ; « Un point de vue heuristique concernant la conception et la

transformation de la lumière » ; « L’inertie d’un corps dépend-elle de sa

capacité d’énergie ? » ; « Sur la théorie quantique du rayonnement » ; « Des

ondes gravitationnelles » ; « La description de la réalité physique par la

mécanique quantique peut-elle être considérée comme complète ? »

- La théorie de la relativité restreinte et générale (1916)

- La relativité (1956)

- L’Évolution des idées en physique (avec Leopold Infeld) (1936)

Concepts et idées-forces :

- Théorie de la relativité restreinte (1905) et générale (1915). Dépassement

des équations de l’électromagnétisme de Maxwell en direction d’une

nouvelle théorie de l’espace et du temps qui forment un continuum, un

contenant inséparable du contenu énergétique et matériel. L’article « Sur

l’électrodynamique des corps en mouvement » (1905) consacre cette

rupture. Contra l’absolutisme de l’espace newtonien, la configuration

géométrique du monde (topologie) se révèle relative à la distribution des

masses et des vitesses des entités qui le remplissent. L’espace devient bien

plus qu’un système de coordonnées au sein duquel viendraient s’inscrire les

phénomènes : il participe des phénomènes, les détermine, se détermine en

eux d’après leur détermination. Les « équations du champ » décrivent le

comportement du champ de gravitation. Elles sont la base de la physique

relativiste moderne.

- S’appuie sur le « principe de relativité » énoncé par Poincaré, mais en

abandonnant toute référence à la notion d’éther. Néanmoins, controverse

toujours ardente sur la paternité de la relativité.

- Équation E = mc2 ; avec E pour l’énergie de masse, m pour masse et c pour

célérité ( : vitesse de la lumière = 2x108 m/s). Valable dans cette formulation

de base que pour les corps de vitesse nulle dans un référentiel donné.

Formulé pour la première fois dans son article de 1905 intitulés « L’inertie

d’un corps dépend-elle de son contenu en énergie ? ». Épicentre d’une

nouvelle révolution scientifique, avec renouvellement de la mécanique

103

céleste et naissance de la physique nucléaire. De très nombreuses

applications civiles et militaires (armes, centrales nucléaires). Influence

également les autres sciences en leur communiquant un modèle théorique,

de la même manière que l’évolutionnisme de Darwin a pu se généraliser au-

delà de la biologie.

-Cette avancée s’explique (aussi) par un contexte socio-politique et des

nécessités techniques. Chaque ville-station du chemin de fer européen à la

toute fin du XIXe siècle avait sa propre comptabilité horaire. Polychromie

problématique qui compliquait la vie des voyageurs autant que des

cheminots, et plus encore de l’armée en mouvement. La coordination était

devenue impérative, ainsi que l’affirmerait devant le Parlement impérial le

comte von Moltke en 1891. Einstein est alors fonctionnaire à l’office des

brevets ; il conçoit l’équation de la relativité en examinant ceux traitant de

la synchronisation des horloges à distance. Donne quitus à une

interprétation externaliste du progrès scientifique. Externalisme social,

culturel, historique qui ne doit pas méconnaître l’originalité d’Einstein que

fascinaient les trains.

- Confirmation en demi-teinte. Celle-ci a lieu en 1919, après l’échec de la

première expédition de 1915, et a pour but de mesurer la déviation des

rayons lumineux au bord d’une masse lors d’une éclipse solaire. C’est

Arthur Eddington qui supervise cette vérification mais avec une marge

d’erreur trop importante pour lui permettre d’entériner la théorie

d’Einstein – il le fit néanmoins. Un « faux bon résultat », comme l’écrivait

Stephen Hawking dans son ouvrage de 1988, Une brève histoire du temps, en grande partie déterminée par les attentes (ou « protensions ») de

l’observateur.

- Ses travaux sur le mouvement brownien apportent la preuve théorique de

l’existence des atomes et des molécules. Jean Perrin en apporte la sanction

expérimentale en 1912.

- Cosmologie statique. Convaincu que l’univers ne s’étend pas (démentie par

Hubble), Einstein fixe une constante cosmologique. Ce qu’il reconnaît plus

tard avoir constitué « sa plus grande erreur ».

- Contributions de première main à la théorie des quanta ; ainsi avec

l’introduction de la notion d'émission stimulée, l’explication de l’effet

photoélectrique et la corrélation entre quantité de mouvement et quantum

de lumière. Énigme des quanta qui pour Einstein restera toute sa vie un

104

sujet de perplexité : « Ces cinquante ans de rumination consciente ne m’ont

pas rapproché de la réponse à la question "que sont les quanta lumineux ?"

Aujourd’hui le premier fripon venu croit qu’il sait ce qu’ils sont, mais il se

leurre » (Lettre d’Einstein à Michele Besso du 12 décembre 1951).

- Regard sceptique et pour le moins critique jeté sur la physique quantique

en gestation (voir notice). Bien qu’il soit indirectement impliqué dans son

élaboration. La controverse avec Niels Bohr, Erwin Schrödinger et Werner

Heisenberg prend rapidement des accents philosophiques, sinon

théologiques. Einstein déjuge leurs interprétations probabilistes ou non-

déterministes : « Gott würfelt nicht » (« Dieu ne joue pas aux dés »), déclare-

t-il lors de son intervention au cinquième congrès Solvay de 1927 ; à quoi

Niels Bohr réplique: « Qui êtes-vous Albert Einstein pour dire à Dieu ce

qu’il doit faire ? ».

- Il convient néanmoins de ne pas se méprendre concernant la nature de la

prétendue religiosité d’Einstein. La question du Hasard et de la Providence

(= du déterminisme) renvoie à des options scientifiques et n’entend pas les

dépasser. Dans son article de 1930, « Comment je vois le monde », Einstein

détaille ce qu’il appelle sa « religiosité cosmique », qui fait l’économie de

tout dieu personnel, de tout fondement moral ou dogme irrévocable.

- Paradoxe EPR (1935), qui deviendra le paradoxe EPR-Bell (Einstein-

Podolsky-Rosen-Bell). Entendait prouver par l’absurde l’inanité des

fondements de la mécanique quantique. L’intrication quantique, levier de la

réfutation, allait pourtant se vérifier expérimentalement.

- Il y a effectivement contradiction entre les principes structurants de la

relativité générale et les propriétés du monde quantique. L’un des défis

majeurs de la physique contemporaine consiste précisément à développer

une théorie quantique de la gravitation qui permettrait d’articuler (ex :

théorie quantique à boucles) ou d’envelopper (ex : théorie des cordes) ces

deux physiques.

- La science dit ce qui est (Sein) ; elle ne dit pas qui doit être (Sollen) ;

contra le lyssenkisme et le scientisme. « La méthode scientifique ne peut en

effet rien nous apprendre d'autre qu'à saisir conceptuellement les faits dans

leurs déterminations réciproques. Le désir d'atteindre à une connaissance

objective fait partie des choses les plus sublimes dont l'homme est capable.

Mais il est d'autre part évident qu'il n'existe aucun chemin qui conduise de

la connaissance de ce qui est à celle de ce qui doit être ». Les théories sont

105

descriptives et non pas prescriptive. Mais à y regarder de plus près, décrire,

n’est-ce pas déjà sélectionner ; n’est-ce pas déjà prescrire ?

Albert Einstein, selon Roberto Bizama, 2009.

Paul Feyerabend (1924-1994)

Principales contributions :

- Contre la méthode. Esquisse d’une théorie anarchiste de la connaissance

(1975)

- Science in a Free Society (1978)

106

Concepts et idées-forces :

- Anarchisme ou pluralisme épistémologique. Toute les révolutions

scientifiques ont impliqué le dépassement d’une méthode sclérosée,

incompatibles avec l’explication des phénomènes. « Il n’existe rien qu’on

puisse nommer une méthode scientifique, ou plutôt si, ce serait ces trois

mots : "tout est bon" ("anything goes") ». Ensuite de quoi la science doit être

ouverte à toutes les hypothèses, idées, méthodes, démarches. Une

heuristique de la découverte.

- Insiste sur le fait qu’« aucune théorie scientifique n’est compatible avec les

faits observés ». Pas plus l’héliocentrisme de Copernic, adopté en dépit de

l’observation et de l’évidence naturelle, que la relativité restreinte

d’Einstein, en butte à des observations contraires, non plus enfin que le

modèle atomique de Bohr incompatible avec bon nombre de données. Les

théories doivent leur succès à des astuces, des omissions, des subterfuges et

de la rhétorique.

- Contre Popper, pour qui la recherche scientifique réfute les théories non

viables à l’aune des résultats de l’expérimentation, Feyerabend montre que

les anomalies sont ou bien négligées (sciemment ou non), ou bien mises de

côté et relativisées. Aucune de nos théories ne correspond effectivement

pleinement et sans réserve avec l’ensemble des observations.

- Pas de fait scientifique qui ne soit d’abord une interprétation, une

production ad hoc de phénomène conçu pour confirmer plutôt que pour

édifier ou éprouver une théorie.

- Feyerabend énonce différents types de relativisme : pratique,

démocratique, épistémique.

- Relativisation de la supériorité (hégémonie ?) de la science comme

organum de connaissance au regard des autres disciplines. Les théories

scientifiques sont des « fictions convaincantes » qui n’ont pas plus – ni

moins – de légitimité et que les mythes, les systèmes religieux, les belles

histoires de la littérature. Cette analyse n’est pas pour plaire aux huiles de la

science institutionnelle aux yeux desquels abattre les piliers la science, c’est

menacer de faire s’écrouler l’ensemble d’un édifice érigé si laborieusement.

Pourvoyeuses de légendes dorées, les biographies autorisées ont une valeur

plus protreptique et édificatrice qu’historique. Cela ne signifie pas qu’elles

n’aient pas de valeur du tout.

107

Richard P. Feynman (1918-1988)

Principales contributions :

- Le cours de physique de Feynman (avec Robert B. Leighton et Matthew

Sands) (1961-1963)

- Particules et lois de la physique (avec Steven Weinberg) (1987)

- Quantum Electrodynamics (1961)

- The Theory of Fundamental Processes (1961)

- Vous voulez rire, monsieur Feynman ! (1985),

Concepts et idées-forces :

- Électrodynamique quantique relativiste. Dans le prolongement des

travaux de Dirac qui en trace les linéaments, elle consiste en la description

des interactions électromagnétiques entre les particules chargées.

- Théorie des interactions faibles. Interactions responsables de la cohésion

du noyau atomique, d’où suit la désintégration radioactive des particules

subatomiques. Anticipe théoriquement la découverte dans les décennies des

années 1970-1980 des bosons vecteurs W+, W- et Z0.

- Diagrammes de Feynman. Feynman propose dans cette optique une

technique de calcul des sections efficaces d’interaction entre les particules,

faisant appel aux diagrammes qui portent aujourd’hui son nom (voir notice :

point sur le modèle standard) ; ce qui lui vaut avec Julian Schwinger et Sin-

Itiro Tomonaga de recevoir en 1965 le prix Nobel de physique. Lesdits

diagrammes aujourd’hui des instruments incontournables de la physique

théorique, en particulier de la théorie des cordes et de la théorie M.

Diagramme de Feynman :

e-

Photon

e-

- Contribution au projet Manhattan. Projet secret de mise au point de la

première bombe atomique. Réquisition de différents ateliers travaillant

108

indépendamment les uns les autres, en parallèle, le tout étant centralisé à

Los Alamos. Une pépinière de physiciens (Feynman y rencontra

notamment Enrico Fermi et Niels Bohr). Le projet aboutit avec l’explosion

le 16 juillet 1945 de la première bombe A. Cet événement pointe le risque

d’embrigadement des scientifiques dans des programmes militaires et de

perte d’indépendance. Toutefois, de nombreuses avancées technologiques

majeures n’auraient jamais été rendues possibles sans la mise à disposition

des budgets militaires. La guerre, une accoucheuse de science. La science

avance par le mauvais côté.

- Feynman fut également l’un des grands noms de la vulgarisation. Connu

du grand public autant par ses cours universitaires que par ses livres. Trahit

une certaine conception du savoir scientifique qui ne doit pas être réservé à

une élite privilégiée.

Point sur le modèle standard

Ce point a pour objet d’esquisser un panorama succinct de situation actuelle

de la recherche fondamentale et de ses grandes orientations dans le

domaine de la physique fondamentale. Il ne saurait y avoir matière plus «

concernante » pour la philosophie, tant elle s’emploie à faire violence à

notre conception naïve de la réalité. Trois axes seront articulés au fil de

cette exposition : les particules en constituent naturellement le premier ;

viendra ensuite la description des forces à l’origine de leurs interactions.

Nous conclurons enfin sur la nature du vide quantique, veillant à souligner

tout ce qui sépare le modèle standard de la pensée de Démocrite – le

premier « atomiste ».

Typologie des particules

Les atomes constituent les briques dont sont faites les substances qui

constituent le monde matériel. Ces briques elles-mêmes – les mal-nommées

« indivisible » (a-tomos) – sont en réalité décomposable en trois sous-entités

; soit 1) l'électron, gravitant autour d’un noyau formé par 2) des protons et

3) des neutrons (ce sont les « nucléons »). Ces trois espèces de particules

peuvent-elles être considérées comme « élémentaires », c’est-à-dire

109

insécables ? Se pourrait-il que ces trois composantes bien liées puissent à

leur tour être décomposés en quelques entités subtiles plus légitimes à

postuler au titre convoité de particules élémentaires ? Il semble en dernier

ressort que si l’électron est bien une particule élémentaire, il n’en va pas de

même pour le proton et le neutron. L’erreur la plus rédhibitoire serait

cependant de croire que les atomes ainsi conçus renferment la totalité des

particules présentes dans la nature. Bien d’autres ont été découvertes ; bien

d’autres restent à découvrir. Le modèle standard des particules a pour

fonction d’en constituer une classification, de manière analogue au tableau

de Mendeleïev dans le domaine de la chimie. Deux grandes familles de

particules y sont décomposées : les fermions et les bosons de jauge.

(1) Fermions (leptons, hadrons et quarks) :

On répartit en deux catégories les particules constituant la matière, aussi

appelées fermions :

- L'électron est le prototype de la famille des leptons, à laquelle il convient

d’adjoindre le muon, le tau, et trois neutrinos. Ces six particules ont été

jusqu’ici considérées comme dépourvues de structures internes, donc

comme effectivement élémentaires.

- Le proton et le neutron appartiennent quant à eux à l’ensemble des

hadrons, et à la sous-espèce des baryons. Ceux-ci peuvent être générés au

moyen d’accélérateurs au sein desquels sont reproduites les conditions

initiales de l’univers. Le LHC du CERN (à l’origine du World Wide Web

que les Européens ont omis de breveter) de Genève a ainsi récemment

permis la détection de la particule Higgs. Son principe se résume à faire

entrer en collision des corpuscules dotés de haute énergie (= vitesse). Quant

aux hadrons, leurs caractéristiques est qu’à l’inverse des leptons, ils ne

constituent pas des particules élémentaires, mais serait composés d'un

nombre défini et limité de corpuscules plus essentiels, appelés quarks. Le

nombre de ces quarks a finalement été porté à six, auxquelles sont

attribuées les « saveurs » : up, top, down, bottom, strange et charm.

L’appareil théorique permettant de comprendre les interactions entre les

quarks et les gluons et ainsi d’étudier la cohésion du noyau atomique est

110

due aux physiciens Hugh David Politzer, Frank Wilczek et David Gross.

C’est un 1973 qu’ils posent les bases de la chromodynamique quantique

(abrégée QCD), en mesure d’expliquer le comportement étrange de ces

particules subatomiques. Le terme de « chromodynamique » (chrôma :

« couleur » ; dunamis : « puissance ») renvoie aux différentes associations des

quarks aux trois couleurs primaires (rouge, vert et bleu), également à la base

du codage informatique dit RVB ; ce sont aussi les longueurs d’onde

correspondant aux trois espèces de cônes présents sur la rétine.

Il convient de souligner toutefois qu’aucun quark n'a jamais pu être détaché

de ses partenaires ni donc être observé de manière isolée. Cela tient à ce que

la chromodynamique quantique appelle le « confinement » qui fait que leur

constante de couplage varie de façon proportionnelle à leur distance

(contrairement aux effets de la gravitation sur les corps graves), et leur

confère une « liberté asymptotique ». Le proton et le neutron comportent

des parties, mais ces parties demeurent inextricablement liées.

Schéma de composition d’un neutron, constitué par deux quarks down et

un quark up. Interactions par l’entremise des gluons figurée ici par un tracé

sinusoïdal.

(2) Bosons de jauge :

Le modèle standard de la physique des particules intègre donc 6 quarks et 6

111

leptons, l’ensemble s’inscrivant dans cette première famille des particules

élémentaires que sont les fermions. En marge des fermions, les constituants

indivisibles de la matière, existe un autre type de particule à l’origine des

forces régissant leurs interactions : les bosons de jauge (cf. infra), équivalent

à ce que la mécanique quantique appelle aussi les quanta d’énergie.

Leptons Quarks

Charge

électrique 0 –1 e +2/3 e –1/3 e

Fermions

de

1re

génération

νe

Neutrino

électronique

e

Électron

u

Quark up

d

Quark

down

Fermions

de

2e

génération

νµ

Neutrino

muonique

µ

Muon

c

Quark

charm

s

Quark

strange

Fermions

de

3e

génération

ντ

Neutrino

tauique

τ

Tau

t

Quark top

b

Quark

bottom

Interactions Faible

Électro-

magnétique

Forte

Bosons de

jauge

Z0

Boson Z

W- et W+

Boson W

γ

Photon

g

(8)

Gluon

Tableau récapitulatif des particules élémentaires selon le modèle standard

Le modèle standard recenserait donc 12 particules de la matière (fermions)

et 12 particules de force (bosons), auxquelles il faudrait ajouter le bosons de

Higgs récemment découvert. Ce qui élèverait à 25 le nombre total de

112

particules élémentaires constituant l’univers. Plusieurs indices semblent

indiquer qu’il faudrait cependant doubler le nombre de fermions en

incluant leur pendant négatif, une collection correspondante d’anti-

fermions : les antiparticules de la matière. D’abord spéculative, l’hypothèse

de telles entités proposée par Dirac fut vérifiée en 1933 avec la découverte

d'un positron (anti-électron) émis à la faveur de la rencontre entre un

noyau atomique présent dans l’atmosphère terrestre et un rayon cosmique.

La symétrie CPT (dont le théorème fut démontré par Wolfgang Paoli) au

fondement de la théorie quantique des champs prédit depuis pour chaque

espèce de particule de la matière une antiparticule semblable, de masse

identique, mais dont la charge est inversée. Les particules de charge nulle

telles que le photon présentent un cas limite, étant leur propre

antiparticule. Aussi les antiparticules des particules constituantes de

l’atome, à savoir les antiprotons, les antineutrons et les anti-électrons,

peuvent-ils être associés pour obtenir de véritables anti-atomes. Plus de 50

000 atomes d'anti-hydrogène ou anti-atomes d’hydrogène ont ainsi pu être

synthétisés dans les laboratoires du CERN. Il n’est toutefois pas nécessaire

de se rendre dans les laboratoires du CERN pour observer de l’antimatière.

Des positrons sont en effet naturellement produits par les éclairs lors des

orages. C’est ce qu’a pu mettre en évidence le physicien Michael Briggs en

s’appuyant sur les relevés du télescope spatial Fermi. Une ceinture naturelle

d'antiprotons a également été localisée autour de la terre : que ne serait-elle

pas présente autour d’autres planètes ?

L’ensemble des antiparticules redoublant théoriquement la matière

ordinaire est appelé antimatière. Certains bosons sont à eux-mêmes leur

antiparticule (notamment le gluon et le photon, comme vu précédemment)

du fait de leur masse nulle ou de leur charge neutre. Mais il faut

comptabiliser aussi les antiparticules des particules de force. La prise en

compte de tous ces aggiornamentos dans le recensement des particules

élémentaires multiplie quasiment par deux le montant du décompte initial.

Cette comptabilité peut être contestée pour différentes raisons (et ne

manque pas de l’être). Un certain nombre de modèles issus de la physique

théorique postule de nouvelles particules (fermions et bosons) telles que le

113

neutrino stérile, les bosons Wʹ et Zʹ, X et Y, le graviton (G), l’axion et le

majoron (J). La théorie de la supersymétrie prédit encore une super-

partenaire pour chacun des items que renferme le modèle standard. Les

squarks et les sleptons font leur entrée en scène dans la famille des

fermions. Quant aux bosons, ils doivent compter avec les photinos, les

neutralinos (wino, bino, higgsino), les jauginos (gluino, zino, gravitino,

axino et charginos). Autres entités hypothétiques que l’on rencontre parfois

dans la spéculation (astro)physique : les leptoquarks, le dilaton, le préon et

le tachyon (particule supraluminique violant la clause de la constante c).

Leur existence manque encore d’être prouvée. Les accélérateurs de

particules ont encore de beaux jours à vivre.

D’autres modèles envisagent au contraire la réduction de cet ensemble

bariolé de particules élémentaires à une seule entité fondamentale ; ainsi

des théories des cordes (ou de la théorie des supercordes) qui rapportent

cette diversité accidentelle aux différentes fréquences de vibrations d’une

corde unidimensionnelle (cf. pour de plus amples développements : point

sur les théories de l’unification). L’économie réalisée en termes de particules

se paie toutefois au prix d’une réévaluation du nombre des dimensions

pouvant aller de 10 (1re théorie), 11 (théorie M), voire jusqu'à 26

dimensions (dans 2/5 des théories des cordes pré-théorie M), dont 21 «

enroulées » sur elles-mêmes et une pouvant s’étendre jusqu’à constituer

l’écrin dimensionnel d’un univers (p-brane).

Il importe de noter que l’emploi du terme de « particules » n’a de valeur que

didactique au sein de notre présentation. On pourrait aussi bien lui

substituer celui de champ, la mécanique quantique étant acquise à l’unité

foncière de ces deux notions. L’essence ondulatoire ou bien corpusculaire

de la lumière ne relève dans cette optique que d’une question de point de

vue. Cette unité substantielle s’est avérée au terme de la synthèse des deux

révolutions majeures de la physique qu’auront été au XXe siècle la théorie

de la relativité et la physique quantique. Elle a donné naissance à ce que

l'on appelle aujourd'hui la théorie quantique relativiste des champs. Cette

théorie met à l’honneur une réalité tressée d’autant de champs

fondamentaux qu’il y a de particules élémentaires. Chaque particule

élémentaire peut être traite comme un champ fondamental. Le monde se

114

décompose en un ensemble de champs interagissant entre eux en

permanence par l'entremise de leurs quantas à la fois ondes et corpuscules.

La représentation dualiste du monde opposant champs et particules s’efface

sous ces auspices au profit d'une vision conciliatrice qui transcende les

dichotomies. Elle accomplit une avancée cruciale en direction d’une

physique plus homogène et unitaire.

Forces et les interactions

Plus homogène, personne n’en doute. Mais est-ce là suffisant pour satisfaire

les physiciens, et même les philosophes un tant soit peu versés dans la

question ? On devine aisément que non. Ce qu'ils recherchent, au moins

depuis Thalès, n'est pas tant l'homogénéisation que l'unification sans reste

de la physique. Unification qui ne passerait plus dorénavant par un

« principe » (arché) comme dans l’Antiquité (voir : point sur les principes),

mais par une équation mathématique « ultime ».

Or, c’est encore peu dire qu’à cette enseigne, le modèle standard laisse à

désirer. Si l’on ne peut nier que ses prédictions ont été validées

expérimentalement avec la découverte d’entité théorique qu’il ne faisait que

postuler (le boson de Higgs, primus inter pares), il apparaît admettre bien

trop de particules au goût de beaucoup de physiciens. Il n’explique ni la

matière noire, ni l’énergie sombre qui constituent pourtant, d’après ce

même modèle, la plus grande masse de l’univers. Il échoue à lier la force de

gravitation aux trois autres interactions fondamentales. Il s’avère impuissant

à rendre compte des phénomènes de très haute densité, les singularités

physiques telles les trous noirs et l’état de l’univers avant le mur de Planck.

Quoi qu’on en ait, aussi précieux qu’il ait été jusqu’à présent, le modèle

standard brûle sans doute de ses derniers feux.

Il n’est pas assuré que la relève viendra de sitôt. Des efforts se poursuivent

actuellement qui tendent au dépassement de ce paradigme-obstacle.

Rappelons pour mémoire que l’univers est apparu régi par quatre forces

résultants en réalité d’un échange de boson entre fermions élémentaires :

l'interaction nucléaire forte, l'interaction électromagnétique, l'interaction

nucléaire faible et la gravitation. Les bosons en question, aussi appelés les «

115

bosons de jauge » ou « particules de rayonnement », sont au nombre de 12 et

se répartissent de la manière suivante :

Forces :

- Electromagnétique

- Nucléaire Forte

- Nucléaire faible

- Gravité

Bosons :

- Photons

- Gluons

- W+, W-, Z0

- Higgs

Notons que l’existence graviton, prévue à l’origine pour être le quantum de

la force gravitationnelle, n’a jamais été détectée. Celle du boson de Higgs a

en revanche pu être confirmée expérimentalement en 2012 grâce aux

installations du CERN. Ce serait donc au boson de Higgs, ou plus

exactement, à l’inertie engendrée par l’interaction des particules

élémentaires avec le champ de Higgs, que serait due la masse de ces

dernières. La masse n’est donc pas une propriété inhérente aux particules,

mais un effet de leur interaction.

Nombre de physiciens misent sur la possibilité de rassembler ces quatre

interactions fondamentales en un seul formalisme mathématique. Une

équation pour les expliquer toutes, c’est là tout le sens de la quête pour la

grande unification (Grand Unified Theory : GUT) qui opérerait le

syncrétisme tant désiré, qui retrouverait l’avant-Babel de la physique.

L’équation adamique constituerait en outre, de la même manière que la

recherche de la langue mère chez les linguistes, une remontée dans le

temps.

Tout porte à croire que l’univers à ses premiers instants n’était pas divisé

entre ces quatre interactions (peut-être y en a-t-il davantage), pulvérisé en

lignées de particules élémentaires hétéroclites. La disjonction des quatre

forces aurait été un événement second et la matière telle que nous la

connaissons, le produit de l’évolution de l’univers. L’unité prime sur la

116

diversification, tant logiquement que chronologiquement. Or, l’unification

des particules et des interactions que la physique tente de réaliser exige des

conditions de température (ou d’énergie, ce qui revient au même) très

spécifiques, qui ne se rencontrent qu’au commencement de l’univers… et

dans les accélérateurs.

On admet aujourd'hui que 10-43 secondes après le big-bang (« temps de

Planck », limite de nos possibilités actuelles de concevoir l'image physique

du monde, en deçà de laquelle se situe l’ère de « l'obscurité théorique »), les

trois forces, l'électromagnétique, la nucléaire forte et la nucléaire faible,

n’en faisait en effet qu’une seule, la force électronucléaire. Le

refroidissement graduel de l’univers consécutif à son expansion (ou

entropie) aurait eu pour effet de les dissocier. Reste la gravité, la quatrième

interaction que personne jusqu’aujourd’hui n’est parvenu à lier à trois forces

pour obtenir une véritable « Théorie du tout ».

117

Schéma de l’expansion de l’univers, hypothèse orthodoxe et exploratoire sur

son évolution, grande unification (GUT) et Théorie du Tout

118

Le vide quantique

Nous venons à l’instant de traiter de la matière et de sa décomposition en

particules élémentaires, que Démocrite anticipait par la notion d’atome

(recouvrant quarks et électrons), ainsi que des forces à l’œuvre dans

l’univers, qu'il ne pouvait connaître ; nous reste encore à faire état de

l’image que nos théories actuelles nous ont livrée du vide. Du vide, dont on

rappelle que Démocrite faisait le deuxième « constituant » du monde, à

parité avec l’atome. La distinction entre ces deux principes était entière et

ne faisait aucun doute aux yeux de l’Abdéritain. Le vide était partout où il

n’y avait pas d’atomes ; réciproquement, les atomes existaient partout où il

n’y avait pas de vide. Le caractère compact des atomes démocritéens

empêchait par ailleurs qu’ils puissent contenir en eux le moindre espace de

vide. Cela serait démenti dès le début du XXe siècle avec la découverte par

Rutherford (et avant lui par Hantaro Nagaoka) de la structure planétaire de

l’atome… que la physique quantique a depuis rendue obsolète (mais qui ne

laisse pas d’être enseigné dans les manuels du secondaire). C’est dire que le

vide chez Démocrite excluait la matière et la matière le vide ; les deux

réalités fondamentales étaient irréductibles l’une à l’autre. Elles se

juxtaposaient, aussi indifférentes que peut l’être un caillou plongé dans

l’eau.

Cette conception a été foncièrement revisitée au prisme de

l’électrodynamique quantique, prolongement de la mécanique quantique.

Son mérite fut d’avoir, de pair avec la relativité d’Einstein, entièrement

révolutionnée la conception statique que l’on se faisait de la structure de la

réalité au profit d’un schéma relationnel ou interactionnel. Au vide conçu

de manière négative comme une absence d’atome, elle substitue un vide

transi de champs électromagnétiques. Champs dont les fluctuations

aléatoires ont pour effet… de le peupler de particules. On se réfère

communément à ce vide écumant de champs par l’expression de « mer de

Dirac », en référence au physicien qui en a le premier fait l’hypothèse. C’est

l’énergie du vide (ou « énergie du point zéro »), manifestée à de très faibles

échelle par l’effet Casimir, qui rend de fait possible cette coagulation de

matière, conformément au principe de la conversion de l’énergie en masse

E = mc2. Comprenons bien la conséquence de cette proposition : elle rend

119

possible la création d’une particule réelle à partir du néant, ou de ce qui

jusqu’alors passait pour l’être.

On comprendra peut-être mieux ce dont il est question en convoquant la

métaphore du prêt bancaire sans charge d’intérêt, celui – entre autres –

qu’une banque centrale publique consentait aux États avant le putsch des

marchés financiers (loi de prohibition imposée par les multinationales).

Tout se passe comme si la création de matière impliquait l’utilisation d’un

quantum d’énergie qui doit être « emprunté » au vide et restitué d’autant

plus rapidement que l’emprunt est élevé ; comme si les fluctuations

quantiques responsables de la matérialisation de nouvelles particules

installaient une situation de dette énergétique que ces mêmes particules ne

pouvaient éponger qu’en retournant au vide. Or, c’est bien en s’annihilant

après un laps de temps infinitésimal que ces particules semblent effectuer ce

remboursement. Ce processus quasi-instantané ne permet pas leur détection

: on les nomme donc des particules « virtuelles ». Selon la théorie quantique

des champs, ces particules virtuelles sont responsables des forces qui

s'exercent entre les particules proprement dites. Et c’est à leur échange que

sont rapportées l’ensemble des interactions qui se produisent entre les

corpuscules et entre les corps graves, sujets à la gravitation.

Cette réserve d’énergie apparemment inépuisable que représente le vide

(quantique) fonctionne de manière continue. Il en ressort que le vide, loin

d’être une absence d’être, un désert matériel, se constitue comme une

banque d’énergie agitée de fluctuations quantiques, remplie en permanence

par une multitude de particules virtuelles de toutes espèces. Le vide

bouillonne littéralement d’être en puissance. Nous sommes très loin de

l’image statique que s’en faisait l’atomiste de l’Antiquité.

Le vide a non seulement investi l’intérieur de l’atome, remplissant les

différentes couches entre les électrons et l’espace entre le noyau et la

première de ces couches, mais les atomes et autres particules subatomiques

se sont également vus plonger dans une véritable mer de particules

virtuelles avec lesquelles elles sont en perpétuelle interaction. Au vide

inerte de Démocrite s’est substitué un vide actif et dynamique, agent des

120

forces qui régissent l’univers, participant à sa structuration ; mieux même, il

apparaît comme la source primordiale possible dont a jailli cet univers à la

faveur d’une fluctuation quantique originaire, une « rupture de symétrie » –

quelque puisse être par ailleurs la cause de cette rupture et de l’excédent de

matière au regard de l’antimatière, initialement produites en quantité égale.

C’est en effet l’une des plus importantes questions de la physique laissée

ouverte que de savoir à quoi tient la « victoire » de la matière sur

l’antimatière. La création de particules virtuelles est une création en double

: sont produites simultanément une particule et sa correspondante à charge

électrique inverse, son antiparticule. Celles-ci ne mettent qu’un bref instant

après leur concrétisation pour deux nouveau se rencontrer, pour

complètement s’anihiler en se transformant en énergie – restituant ce

faisant au vide l’énergie de leur emprunt.

Schéma (a) d’annihilation et (b) de matérialisation d’une paire particule-

antiparticule, ici l’électron (-) et son positron (+), avec émission de deux

photons gamma. Crédit : Addison Wesley

121

Comment comprendre alors que la quantité de matière se soit trouvée en

proportion plus importante que la quantité d’antimatière ? Une hypothèse

met en avant l’asymétrie qui se constate dans la transformation des kaons

neutres, selon qu’ils évoluent spontanément de particule à antiparticule, ou

d’antiparticule à particules (étant leurs propres antiparticules). C’est la

moindre durée de conversion de l’antikaon en kaon au regard de l’opération

inverse qui expliquerait le surplus relatif de matière dans l’univers : un

milliard de particules de matière classique pour une seulement

d’antimatière. La rencontre de la matière et de l’antimatière n’aurait alors

laissé comme résultat de la soustraction que de la matière. Ceci ne nous

apprend rien toutefois de la cause ultime de cette dissymétrie : pour quelle

raison la conversion du kaon neutre est-elle plus prompte dans un sens et

plus poussive dans l’autre ?

Nous avons indiqué par quel moyen les particules virtuelles trouvent à se

matérialiser, et comment cette opération était conditionnée par la mise à

disposition d’une énergie suffisante. De telles énergies étaient présentes

dans les premières fractions de seconde après le big-bang. Les accélérateurs

de particules ont vocation à reproduire ces conditions et à permettre ainsi

de ressusciter des entités qui ne se trouvent plus dans l’univers tel qu’il est

aujourd’hui.

Les particules ne sont pas que de la matière brute ; inversement, le vide

n’est pas qu’une pure absence. Les particules sont dans le vide et le vide

dans les particules. Les particules jaillissent du vide et y retournent

éventuellement. S’efface dans cette optique la frontière hermétique que

Démocrite avait dressée entre le vide et la matière. Le vide n’apparaît plus

que comme l'état latent de la réalité sensible, quand la matière est l’état

manifeste du vide, de l’énergie coagulée. Vide et matière sont deux aspects

d’une même réalité, l’avers et le revers de la même médaille. Ces deux

réalités ne sont en dernier ressort que les expressions complémentaires et

réversibles d’un seul et même principe.

Beaucoup s’en faut toutefois que cette théorie des états transitifs suffise à

dénouer le mystère du vide et de la matière. Bien des questions demeurent

122

encore ouvertes ; dont celle – qui ne relève peut-être plus expressément de

la science – de savoir d’où viennent les champs qui galvanisent le vide,

quelle est la cause des fluctuations qui le parcourent et comment la matière

en est venue à subsister, cela en violant (apparemment peut-être) le

principe de parité particules-antiparticules et de précarité des particules

virtuelles.

Paul-Michel Foucault (1926-1984)

Principales contributions :

- Histoire de la folie à l'âge classique (1962)

- Les mots et les choses : une archéologie des sciences humaines (1966)

- L'Archéologie du savoir (1969)

- Dits et Écrits, vol. 1 (1954-1975), vol. 2 (1976-1988), vol. 3 (1976-1979),

vol. 4 (1980-1988)

Concepts et idées-forces :

- Une pensée qui emprunte aux outils d’analyse et aux notions frayées par

les « contre-sciences » humaines que seraient la psychanalyse, la

linguistique et l’ethnologie.

- Influencé par Canguilhem, rapporteur de sa thèse intitulée Folie et déraison. Histoire de la folie à l’âge classique, lequel ne tarit pas d’éloges sur

l’œuvre de son élève : « Les mots et les choses est pour les sciences de

l’homme ce que la Critique de la raison pure était pour les sciences de la

nature » (« La mort de l’homme ou l’épuisement du cogito », dans Critique,

juillet 1967). Là où le premier s’était intéressé à la question de la

normativité vitale, le second reporte son étude sur le terrain de la

construction des normes sociales et analyse les processus de normalisation.

Juste retour des choses, c’est par l’œuvre de Foucault que la philosophie

anglo-saxonne contemporaine va prendre connaissance de Canguilhem.

- L’épistémè. Le terme d’épistémè recouvre les « conditions du discours »

s’imposant à discipline et appelées à se modifier au cours du temps. Ainsi

que s’en explique Foucault au cours d’un entretien daté de 1972, « ce que

j’ai appelé dans Les mots et les choses "épistémè" n’a rien à voir avec les

catégories historiques. J’entends tous les rapports qui ont existé à une

certaine époque entre les différents domaines de la science [...] Ce sont tous

ces phénomènes de rapport entre les sciences ou entre les différents

123

discours dans les divers secteurs scientifiques qui constituent ce que

j’appelle épistémè d’une époque » (Dits et Écrits). - Succession des épistémès dans le cadre d’un projet d’histoire des systèmes

de pensée. La périodisation de l’histoire que propose Foucault fait apparaître

des époques qui se distinguent par l’existence d’un certain nombre de

conditions de vérité définissant les cadres du possible et de l’acceptable,

aussi bien dans le champ du politique que dans celui des sciences. Trois

périodes, trois épistémè correspondante ; auxquelles s’ajoutent une

quatrième épistémè qu’il définit comme étant celle de notre époque :

(1) L’épistémè de la Renaissance (XVIe siècle) caractérise l’âge de la

ressemblance et de la similitude.

(2) L’épistémè classique (XVIIe siècle) définit l’âge de la représentation.

Axée sur les concepts d’ordre, d’identité et de différence. La notion d’«

homme » n’existe pas encore dans le sens épistémologique que nous lui

attribuons : « Il n’a ni puissance de vie, ni fécondité du travail, ni épaisseur

historique du langage. C’est une toute récente créature que la démiurgie du

savoir a fabriqué de ses mains, depuis deux cents ans » (Les mots et les choses). (3) L’épistémè moderne (XXe siècle) qui reste encore pour une grande

part la nôtre et dont Foucault, dans Les mots et les choses, tente de faire

apparaître les contours. Parmi les différents penseurs ayant contribué à sa

mise en place figurent, après Descartes, 1) Arnaud, Nicole et Pascal, célèbre

pour leur Logique de Port-Royal (1662), décisif en matière de logique, de

grammaire et de syntaxe ; 2) Adam Smith, chef de file des Lumières

écossaises, auteur de la Richesse des nations (1776) ; et 3) Antoine Destutt

de Tracy, penseur de la politique de l’après-Révolution, connu pour ses

Eléments d'idéologie publiées entre 1825 et 1827.

(4) L’épistémè hypermoderne vers laquelle nous nous engageons depuis

le milieu des années 1950. Elle autorise la thématisation de l’épistémè.

- Épistémologie discontinuiste. L’archéologie de Foucault consiste à penser

les ruptures, les « discontinuités énigmatiques », les « mutations », les «

évènements radicaux », les « décalages infimes mais essentiels » dans l’ordre

du savoir. Elle mesure les écarts entre les différentes époques, les différentes

« figures de la vérité ». Il s’agit de mettre en perspective de manière critique

les précédentes épistémès avec nos propres cadres de pensée, de

comprendre la distance qui nous sépare de ces précédentes épistémès.

124

- Exemple de différentes mutations de l’épistémè dans les domaines (1) des

sciences de la vie, avec la transformation de l’histoire naturelle en biologie ;

(2) des sciences du langage, avec l’apparition de la linguistique qui prend la

suite de la grammaire générale ou (3) des sciences camérales, avec l’essor de

l’économie moderne.

- Archéologie du savoir. Les mots et les choses se présente comme une «

archéologie des sciences humaines ». Un paradigme géologique plutôt que

généalogique. À chaque époque correspond une épistémê, une strate ;

chaque strate repose sur la strate précédente. Il n’y a pas cependant, d’une

strate à l’autre, de continuum, de graduation : il y a des superpositions de

« couches » de couleur et de texture différentes. L’épistémê antécédente est

nécessaire à l’éclosion de la suivante, qui ne s’y dilue pas comme son

prolongement naturel. Exemple de l’évolutionnisme en biologie, dont

l’émergence est tributaire d’une biologie fixiste incarnée par Cuvier.

Exemple de l’économie critique de Marx, conditionnée par les théoriciens

de l’économie classique (Ricardo, Smith, etc.).

- Donne à l’épistémê une extension plus large que celle des paradigmes de

Kuhn. Elle est irréductible aux « structures » du structuralisme, dans la

mesure où le structuralisme postule un invariant en-deçà des

transformations accidentelles qui s’organisent autour de lui. Foucault,

comme l’écrit Jean Piaget, pense à l’inverse la juxtaposition d’épistémès de

part en part hétérogènes les unes par rapport aux autres.

- Biopouvoir, biopolitique.

- Herméneutique du sujet.

Hans-Georg Gadamer (1900-2002)

Principales contributions :

- Vérité et méthode (1960)

- Langage et vérité (1995)

- La philosophie herméneutique (1996)

Concepts et idées-forces :

- Au scientisme régnant à son époque dans les sciences de l’esprit, Gadamer

rétorque que la méthode scientifique ne saurait être la seule démarche

d’investigation, ni la plus adaptée pour aborder l’activité humaine.

125

- Partage avec Dithley la distinction comprendre vs expliquer.

- Part néanmoins, à rebours de Dithley, de l’art plutôt que les sciences

humaines pour entreprendre de prouver que la compréhension ne réside

pas dans la maîtrise d’une technique de l’esprit : elle est le fruit d’une «

rencontre ». Rencontre impliquant des sujets qui ne sont ni neutres ni

objectifs, mais héritiers d’une tradition, dépositaires de préjugés (lesquelles

ne sont pas condamnables en soi), inexorablement « situés ». Mais aussi

éduqués perpétuellement à la faveur d’un « travail de l’histoire ». En sorte

que tout acte interprétatif est façonné par un passé, déterminant pour le

futur ; que chaque événement est l’occasion d’enrichir ce soubassement

interprétatif de nouvelles expériences. Cf. le « cercle herméneutique » chez

Heidegger.

- Ainsi dans l’art, une « expérience de vérité » nous fait découvrir l’œuvre

sous le chiffre de la rencontre et fait participer le spectateur – le « spect-acteur » – à la constitution de l’œuvre. Autant de sujets que d’œuvres.

Dimension cognitive de l’art contra la Critique de la faculté de juger de

Kant qui le relègue dans une sphère autonome, hermétique à la

connaissance. Prouve que certaines vérités échappent aux sciences de la

nature.

- Ontologie de l’œuvre d’art. Reprise de la notion de mimésis chez Aristote.

Les images saintes (icônes) exaltées par Jean Damascène opposées à

l’esthétique moderne de l’art pour l’art.

- Le dialogue interprétatif au centre de l’herméneutique de Gadamer se

constitue dans l’élément langage.

Galileo Galilei (1564-1642)

Principales contributions :

- Le Messager des étoiles (1610)

- Histoire et démonstrations à propos des taches solaires (1613)

- L'Essayeur (1623)

- Dialogue sur les deux grands systèmes du monde (1632)

126

Concepts et idées-forces :

- Pose les fondements de la mécanique classique, de la physique analytique,

quantitative, mathématique et expérimentale. Prépare ainsi la synthèse

newtonienne qui accomplit la révolution scientifique du XVIe-XVIIe siècle.

- Révolution instrumentale. Perfectionnement de la lunette d’approche,

invention d’un lunetier hollandais, grâce à l’association de deux verres

grossissants montés en série aux deux extrémités d’un tube en plomb.

Contribution des ingénieurs italiens ; en l’occurrence, des verriers de

Murano. Fait apparaître l’importance du contexte économique. Importance

également du contexte politique. Galilée présente une première version de

son instrument au Doge de Venise le 21 août 1609. Braqué sur la mer, fait

apparaître distinctement les navires éloignés, permet de discerner leur

pavillon et ainsi de prévenir l’attaque surprise des Turcs ou des corsaires.

Les sénateurs de la République de Venise envisagent immédiatement des

applications militaires. Galilée, pour sa part, à l’idée de s’en servir pour

observer le ciel. Les deux lunettes astronomique fabriquées à Padoue en

1609 grossissants jusqu’à vingt fois les objets distants, auront permis à

l’astronome d’aller de découverte en découverte et d’apercevoir des choses

que l’homme n’avait jamais vues. Au nombre de ces découvertes :

(1) La profusion des astres. La Voie Lactée, qui jusqu’alors n’avait était

qu’une bande laiteuse et floue, s’avère constituée d’une pléiade d’étoiles : «

Ce qui nous a été donné d'observer, c'est l'essence ou mieux la matière dont

est constituée la Voie Lactée, telle qu'elle apparaît au moyen de la lunette ;

et ainsi, toutes les discussions qui, pendant des siècles, ont partagé les

philosophes, prennent fin devant la certitude qui s'offre à notre vue, et

grâce à quoi nous sommes libérés des disputes verbeuses […] De plus,

merveille encore plus grande, les étoiles que certains astronomes ont

appelées "nébuleuses" sont des troupeaux de petites étoiles éparpillées

d'admirable manière » (Le Messager des étoiles). Plus ultra : c’était déjà la

devise de la Renaissance. Par-delà l’inconnu. Par-delà les colonnes

d’Hercule, faire reculer les limites du savoir en même temps que celles de

l’univers. De telles observations sont ce qui précipite, selon le titre de

l’ouvrage d’Alexandre Koyré, le passage « du monde clos à l’univers infini ».

(2) Les satellites de Jupiter. Io, Europe, Ganymède et Callisto, que Galilée

baptise les Medicea Sidera (les « étoiles Médicées ») en référence au quatre

127

frères de la maison Médicis. Prouve que la Terre n’est pas la seule planète

pouvant servir de foyer à la révolution d’autres objets célestes. Il n’est donc

plus absurde de penser que le soleil le puisse aussi ; donc, par extrapolation

que la Terre tourne autour du Soleil.

(3) Cratères de Lune et taches solaires. La lune et le soleil arborent à leur

surface de nombreuses irrégularités (Histoire et démonstrations à propos des taches solaires) ; ces astres n’ont rien des sphères parfaites et lisses que

voulait y voir le Stagirite. Topologie écorchée, irrégulière, analogue à celle

de la Terre.

L’étude mathématique des phénomènes ne doit plus être réservée au monde

supra-lunaire. Ces découvertes apportent les preuves observationnelles qui

faisaient encore défaut au modèle héliocentrique de Copernic. Elles font

comprendre à Galilée que la même physique s’applique à la mécanique

terrestre et à la mécanique céleste.

- Révolution expérimentale. La nature est soumise à la question,

conformément à une méthode qui articule l’établissement de lois

universelles et la constitution de schémas idéalisés de la nature. Le

phénomène auparavant donné dans l’expérience devient l’objet construit de

l’expérimentation, produit à l’aide de dispositifs et exprimé par des mesures.

Illustration de cette méthode chez Galilée à travers différentes

expérimentations :

(1) Les fondements de la balistique. L’expérience du pendule oppose un

démenti à la conception aristotélicienne classique du mouvement des corps

admis en Italie depuis le début du XIIe siècle selon laquelle « les corps ont

des mouvements rectilignes qui les ramènent dans leur lieu naturel, les

éléments air et feu vont vers le haut, les éléments terre et eau vers le bas ».

Combiné à un déplacement horizontal, l’accélération verticale d’un corps se

traduit par une trajectoire parabolique.

(2) Visant à mettre à jour les principes de la physique des graves (du latin

gravis, « lourd »), l’expérience du lâcher de boules de pierre de poids

inégaux mais de forme identique depuis le clocher de l’église de Padoue,

vers 1604, prolonge cette expérience. Elles conduisent au constat que la

vitesse de chute des corps ne dépend pas de leur masse. S’oppose une

nouvelle fois à la thèse aristotélicienne selon laquelle « plus un objet est

lourd, plus il tombe vite car il est constitué en plus grande proportion de

l'élément terre ».

128

(3) Mise en place d’un dispositif comprenant un plan incliné permet

d’analyser plus en détail ces résultats. Il en ressort une démonstration de la

loi sur la chute libre des corps édictant qu’à partir d’un état de repos, les

espaces parcourus sont proportionnels aux carrés des temps de parcours.

(4) l’expérience sur les corps flottants de 1611 fait la démonstration que

la flottaison des corps dépend de leur poids et non de leur surface. la glace

est plus légère que l'eau (sa densité est moindre), contrairement à ce

qu’enseignait Aristote, à savoir que « si la glace flotte c'est à cause de sa

forme en plaque. Il y a les corps lourds d'un côté et les corps légers de

l'autre ». Publication l’année suivante (1612) de ces résultats dans le Discours sur les choses qui flottent sur l'eau ou qui s'y déplacent : « Je

m'attends à une terrible attaque de l'un de mes adversaires, et je l'entends

presque déjà crier à mes oreilles que c'est une chose de traiter des questions

physiquement et une autre d'en traiter mathématiquement, et que les

géomètres devraient s'en tenir à leurs fantaisies et ne pas se mêler des

questions philosophiques, où les conclusions sont différentes des questions

mathématiques. Comme si la vérité pouvait n'être pas une, comme si de nos

jours la géométrie était un obstacle à l'acquisition de la vraie philosophie,

comme s'il était impossible d'être géomètre autant que philosophe, et qu'on

du inférer comme une conséquence nécessaire que si quelqu'un connaît la

géométrie il ne peut connaître la physique et ne peut raisonner

physiquement des questions physiques ».

- Révolution théorique. Désubjectivation du phénomène et construction de

l’objet scientifique par le recours à la mathématisation : « La philosophie est

écrite dans cet immense livre qui se tient toujours ouvert devant nos yeux,

je veux dire l'Univers, mais on ne peut le comprendre si l'on ne s 'applique

d'abord à en comprendre la langue et à connaître les caractères avec

lesquels il est écrit. Il est écrit dans la langue mathématique et ses caractères

sont des triangles, des cercles et autres figures géométriques, sans le moyen

desquels il est humainement impossible d'en comprendre un mot. Sans eux,

c'est une errance vaine dans un labyrinthe obscur ». Généralisation de

l’usage des mathématiques à l’ensemble des phénomènes observables, quand

elle se cantonnait auparavant aux corps célestes, les seuls, en apparence, à

manifester des mouvements parfaits. Prête à la science moderne une forme

d’universalité qui supplée à la défectivité des sens.

129

- Naissance de la science proprement dite à l’intersection de ces trois

révolutions (instrumentale, expérimentale et théorique). Ce que résume

Kant en s’inspirant de Bacon à l’occasion de la seconde Préface à la Critique de la raison pure (1787) : « Lorsque Galilée fit rouler ses boules sur un plan

incliné avec une accélération déterminée et choisie par lui-même, ou que

Torricelli fit porter à l'air un poids qu'il savait être égal à celui d'une

colonne d'eau à lui connue, ou que, plus tard, Stahl transforma des métaux

en chaux et celle-ci à son tour en métal, en y retranchant ou en y ajoutant

certains éléments, alors ce fut une nouvelle lumière pour tous les

physiciens. Ils comprirent que la raison n'aperçoit que ce qu'elle produit

elle-même d'après ses propres plans, qu'elle doit prendre les devants avec

les principes qui déterminent ses jugements suivant des lois constantes, et

forcer la nature à répondre à ses questions, au lieu de se laisser conduire par

elle comme en lisières ; car autrement nos observations faites au hasard et

sans aucun plan tracé d'avance ne sauraient se rattacher à une loi

nécessaire, ce que cherche et exige pourtant la raison. Celle-ci doit se

présenter à la nature tenant d'une main ses principes, qui seuls peuvent

donner à des phénomènes concordants l'autorité de lois, et de l'autre

l'expérimentation, telle qu'elle l'imagine d'après ces mêmes principes. Elle

lui demande de l'instruire, non comme un écolier qui se laisse dire tout ce

qui plaît au maître, mais comme un juge en fonctions, qui contraint les

témoins à répondre aux questions qu'il leur adresse. La physique est donc

redevable de l'heureuse révolution qui s'est opérée dans sa méthode à cette

simple idée, qu'elle doit chercher (et non imaginer) dans la nature,

conformément aux idées que la raison même y transporte, ce qu'elle doit en

apprendre, et dont elle ne pourrait rien savoir par elle-même. C'est ainsi

qu'elle est entrée d'abord dans le sûr chemin de la science, après n'avoir fait

pendant tant de siècles que tâtonner ».

- Première formulation du principe d’inertie, dont découle la notion de

force : « Tout corps possède une certaine inertie qui l’oblige à conserver sa

vitesse, à moins qu’une force extérieure l’oblige à arrêter ce mouvement ».

- Relativité du mouvement : « Enfermez-vous avec un ami dans la cabine

principale à l'intérieur d'un grand bateau et prenez avec vous des mouches,

des papillons, et d'autres petits animaux volants. Prenez une grande cuve

d'eau avec un poisson dedans, suspendez une bouteille qui se vide goutte à

goutte dans un grand récipient en dessous d'elle. Avec le bateau à l'arrêt,

130

observez soigneusement comment les petits animaux volent à des vitesses

égales vers tous les côtés de la cabine. Le poisson nage indifféremment dans

toutes les directions, les gouttes tombent dans le récipient en dessous, et si

vous lancez quelque chose à votre ami, vous n'avez pas besoin de le lancer

plus fort dans une direction que dans une autre, les distances étant égales, et

si vous sautez à pieds joints, vous franchissez des distances égales dans

toutes les directions. Lorsque vous aurez observé toutes ces choses

soigneusement (bien qu'il n'y ait aucun doute que lorsque le bateau est à

l'arrêt, les choses doivent se passer ainsi), faites avancer le bateau à l'allure

qui vous plaira, pour autant que la vitesse soit uniforme [c'est-à-dire

constante] et ne fluctue pas de part et d'autre. Vous ne verrez pas le

moindre changement dans aucun des effets mentionnés et même aucun

d'eux ne vous permettra de dire si le bateau est en mouvement ou à l'arrêt

[…] » (Dialogue concernant les deux plus grands systèmes du monde). On

ne peut juger du déplacement ou de la vitesse d’un objet sans référer ce

déplacement ou cette vitesse à un point fixe (ou désigné arbitrairement

comme tel), plus tard appelé « repère galiléen ». En l’occurrence, pour tout

ce qui concerne les mouvements terrestres, la Terre, et le soleil pour tout ce

qui concerne les mouvements des corps célestes (parmi lesquels la Terre).

- Pascal exploite la métaphore : nous sommes embarqués dans la vie – «

engagé » dira Sartre –, et notre seul repère en matière de morale et de

connaissance consiste en Jésus-Christ. La relativité galiléenne est reprise par

Newton, érigée en principe par Poincaré, refondue par Einstein dans le

cadre d’une théorie physique.

- Publication en 1632, avec l’onction du Pape Urbain VIII, du Dialogue sur les deux plus grands systèmes du monde qui rend compte de ces

découvertes astronomiques et fait un sort à la vision géocentrique de

l’univers. Trois personnages : Salviati (héraut de Galilée), Simplicio

(représentant d’Aristote) et Sagredo (arbitre) ; quatre jours pour convaincre

de la supériorité du modèle défendu par Copernic contre celui de Ptolémée

(complication du système d’Aristote).

- Galilée doit répondre de son ouvrage devant l’Inquisition romaine. Nous

sommes en 1616. L’œuvre de Copernic, De la révolution des sphères célestes, publiée en 1543 (l’année de sa mort) venait la même année d’être

mise à l’index. Giordano Bruno (1548-1600) avait été brûlé en place

publique pour avoir soutenu des idées proches de celle de Copernic.

131

Contexte peu favorable à une « révolution scientifique » mais qui,

précisément en raison ces actions d’éclat visant à « faire exemple », aura

précipité ce changement de paradigme.

- Retour devant le tribunal d’inquisition en 1633. Point d’orgue d’un

affrontement entre la science naissante et la religion cacochyme, porteuse

chacune d’une vision du monde. Image souvent manichéenne, parfois

condescendante, du progrès en butte à la superstition. Galilée contraint de

reconnaître que sa théorie n’est qu’une hypothèse mathématique et

d’abjurer ses convictions héliocentriques. Noter que le fameux « E pur si muove ! » (« Et pourtant elle se meut ! »), réplique rendue célèbre par la

pièce de Bertolt Brecht, La vie de Galilée, ne fut jamais prononcée.

- Inaugurée en 1657 par le Grand-Duc Ferdinand II (1610-1670) et par le

prince Léopold de Médicis (1617-1675), l'Accademia del Cimento fait

profession de reprendre les travaux de Galilée et de réfuter

expérimentalement un grand nombre de principes aristotéliciens

universellement admis. Il s’agit de la première organisation européenne se

prévalant d’ambitions strictement scientifiques, préfigurant la Royal Society

de Londres (1660) et l'Académie Royale des Sciences de Paris (1666). La

science devient une pratique institutionnalisée et collective.

Peter Galison (1955-20XX)

Voir : Lorraine Daston.

Bertrand Gille (1920-1980)

Principales contributions :

- Les ingénieurs de la Renaissance (1960)

- Histoire des techniques (1978)

- Les Mécaniciens grecs (1980)

Concepts et idées-forces :

- Ancrage technique, économique, social et matériel de la connaissance.

Travail archivistique d’exploration et de reconstitution des réalisations

techniques des ingénieurs de la Renaissance, principalement de Léonard de

Vinci, touchant à des domaines aussi variés que l’architecture, l’artillerie,

l’horlogerie, l’hydraulique, les automates et la manufacture textile, duquel il

132

faut conclure que leur apparition corrélée à celle du capitalisme italien au

crépuscule de l’ère féodale fut l’une des conditions sine qua non à

l’avènement de la science classique.

- Approche intégrative, holiste, externaliste, complexe, des objets de

l’épistémologie et de l’histoire des sciences. De même que les états de la

science ne sont pas compréhensibles abstraction faite du contexte historique

qui les voit naître (non plus que chaque discipline et même chaque énoncé

produit au sein de ces disciplines abstraction faite de l’ensemble organique

du savoir et du pouvoir d’une époque), chaque technique considérée ne

peut être étudiée à part le système des technologies qui constituent un stade

de leur histoire.

- Interdépendance entre système social et système technique. Primat

chronologique de celui-ci sur celui-là, qui l’accompagne comme son ombre

mais ne le précède pas. L’imposition d’un système technique appelle la mise

en place de l’économie sociale correspondante – et non l’inverse. C’est bien

ici la base technique qui détermine l’évolution des autres systèmes ou

superstructures (juridiques, politiques, économiques) de sorte à maintenir

une cohérence d’ensemble. Éventualité de systèmes techniques bloqués ;

d’où stagnation des sciences et des institutions.

- Réhabilitation des mécaniciens grecs, point aveugle d’une historiographie

des sciences biaisée et sélective qui n’aurait d’yeux que pour la pensée

abstraite et la science spéculative, au risque de méconnaître une tradition

qui, de Thalès jusqu’à Vitruve en passant par Archimède, Philon de Byzance

et autre Héron d'Alexandrie, fut l’atelier classique de la technologie.

-Dans la lignée de ce qui précède, l’hiatus entre théoriciens d’une part et

praticiens de l’autre, sciences fondamentales d’une part et sciences

appliquées de l’autre n’avait pas cours à l’âge classique, où les savants se

préoccupaient autant de problèmes matériels que de métaphysique.

Sciences et techniques n’en sont venues que tardivement à se disjoindre,

sinon à s’opposer du fait des philosophes.

- Au nombre des réalisations des ingénieurs de la Grèce antique, Bertrand

Gille distingue entre autres l’arbre à cames, mis au point par les Grecs

d’Alexandrie, qui rend possible de programmer certaines opérations

techniques ; les cinq chaînes cinématiques élémentaires qui ont pour intérêt

d’améliorer les machines de chantier ainsi que les premiers automates de

133

divertissement ; des dispositifs mettant à profit l’écoulement des fluides

pour concevoir des machines homéostatiques, etc., etc.

- Le développement des mathématiques grecques doit beaucoup à la volonté

d’universaliser les principes mis en œuvre par la technique. La conception

des plans, le calcul des effets est tributaire d’un outil théorique dont

l’amélioration répond à des nécessités censément matérielles. L’astronomie

elle-même découvre son origine dans le besoin de marquer le temps des

récoltes (le passage des saisons) et l’espace du voyage.

Ernst von Glasersfeld (1917-2010)

Principales contributions :

- L'invention de la réalité, contributions au constructivisme (1988)

- « Cognition, Construction of Knowledge and Teaching » dans Synthese, 80

(1989)

- « Questions and Answers About Radical Constructivism » dans M.K.

Pearsall (ed.), Scope, Sequence, and Coordination of Secondary Schools Science, vol. 11 (1992)

- « The radical constructivist view of science » dans A. Riegler (èd.),

Foundations of Science, special issue on - « The Impact of Radical Constructivism on Science » (2001)

Concepts et idées-forces :

- Constructivisme radical. Mot d’ordre : « Ne plus considérer la

connaissance comme la recherche de la représentation iconique d'une

réalité ontologique, mais comme la recherche de manières de se comporter

et de penser qui conviennent. La connaissance devient alors quelque chose

que l'organisme construit dans le but de créer de l’intelligibilité dans le flux

de l'expérience » (E. von Glaserfeld, « L'invention de la réalité » dans P. Watzlawick, 1981-1985).

Kurt Gödel (1906-1978)

Principales contributions :

- « Über formal unentscheidbare Sätze der Principia mathematica und

verwandter Systeme » (1931)

134

Concepts et idées-forces :

- Le théorème de complétude du calcul des prédicats du premier ordre,

démontré dans sa thèse de 1929. Une proposition universellement valide

peut être démontrée.

- Le théorème d’incomplétude, publié en 1931, apporte la démonstration du

fait qu’aucun système logique suffisamment puissant pour axiomatique et

l’arithmétique ne peut être à la fois complet et cohérent ; ou bien la

cohérence de ses axiomes ne peut être prouvée à l’intérieur d’un tel

système. Tout système formel donné admet au moins une proposition qui

ne peut être infirmée ou confirmée à partir des axiomes sur lesquelles il

repose.

- Un exemple heuristique peut être proposé en admettant qu’une formule

qui énonce qu’elle n’est pas démontrable ne peut être démontrée

(tautologie) ; donc elle n’est pas démontrable. Or c’est précisément ce

qu’elle énonce, elle est donc également valide. La formule est valide mais

n’est pas démontrable.

- Ces théorèmes achèvent de ruiner l’entreprise d’axiomatisation de la

science portée par le cercle de Vienne, notamment sous la forme d’un jeu

d’axiomes définitifs rabattant l’édifice mathématique sur une base

mathématique comme dans les Principia mathematica de Russell et de

Whitehead, ou via le formalisme de Hilbert. C’est également une fin de

non-recevoir opposée au projet leibnizien de Caractéristique universelle.

- En admettant la cohérence des axiomes admis de la théorie des ensembles,

ceux-ci ne permettent pas de réfuter l'hypothèse du continu.

- Élabore la théorie des fonctions récursives.

- Gödel est un cas exemplaire de conciliation de la rationalité scientifique et

de mysticisme ésotérique (cf. Pierre Cassou-Noguès, Gödel). Le logicien

peut trouver son inspiration et la matière de sa réflexion dans la spéculation

théologique la plus échevelée. Voire également dans la folie et la fertile

paranoïa de Gödel qui provoquera sa mort n’est pas sans rappeler celle de

l’économiste et mathématicien américain John Forbes Nash dont la

biographie adaptée à l’écran (A Beautiful Mind, réalisé par Ron Howard,

2001) a largement participé à sensibiliser le grand public sur la question.

- La Preuve ontologique de Gödel, inspirée de celle de Leibniz, apporte la

démonstration de l’existence de Dieu formalisée dans le système de la

logique modale.

135

Albert le Grand (1193-1280)

Principales contributions :

- Alkymia (Alchimie)

- De Intellectu et Intelligibili (Sur l'intellect et l'objet intelligible) (1250)

- De Anima (De l'âme) (1254-1257)

- Physica (1257)

- De animalibus (Des animaux) (1258)

- De mineralibus (Des minéraux) (1263)

- Summa theologiae (Somme théologique) (1276)

- Divers Commentaria sur l’œuvre d’Aristote, sur l’Ancien et le Nouveau

Testament

Concepts et idées-forces :

- Moine dominicain allemand, théologien et philosophe. Figure majeure de

la science médiévale, connu pour ses nombreux travaux abordant la quasi-

totalité des champs de la connaissance étudiée de son temps (physique,

astronomie, géographie, zoologie, botanique, minéralogie, psychologie, etc.)

Un essai d’encyclopédie avant la lettre, complétée par une Somme de

théologie qui servira de modèle à celle de son élève direct, Thomas d’Aquin.

- Avec Boèce et Jacques de Venise, participe à la diffusion en Occident des

traités d’Aristote dont il propose des commentaires. Réactualise les savoir de

l’Antiquité en augmentant les textes grecs et latins de la réflexion

intellectuelle et de l’apport des Arabes, tout particulièrement dans les

domaines de la médecine, de l’astronomie et des mathématiques.

- Production personnelle, dont il faut retrancher toutefois une collection

importante d’œuvres pseudépigraphes ou non authentifiées. À ces

doxographies, il associe ses propres gloses, critiques et observations. Défiant

envers la connaissance d’autorité (esprit critique), il se plaît à interroger lui-

même les spécialistes de chaque domaine pour recueillir leur expérience.

Attitude réservée à l’encontre du dogmatisme caricatural (ou caricaturé) de

la scolastique (« Aristoteles dixit ») : « C'est ce qu'on raconte, lit-on souvent

dans ces traités, mais je ne l'ai pas vérifié par moi-même ».

- Doit son titre d’« ancêtre » de la science moderne à l’importance qu’il

accordait à l’expérience et à l’observation. La démarche scientifique consiste

136

selon lui en « la recherche des causes des phénomènes naturels ». Albert le

Grand, dans un ouvrage de botanique, conseille pour cela de « faire des

conjectures et des expérimentations ».

- Définition de l’expérimentation qui jouit de cette prérogative de « mettre

à l'épreuve de l'expérience les nobles conclusions de toutes les sciences » ;

elle vérifie autant les résultats (déductif) des mathématiciens que les

assertions générales des philosophes. L’expérimentation commence à

rompre d’avec l’expérience commune, faite de tâtonnements empiriques, en

ce qu’elle renvoie à une entreprise méthodique et systématique de

confrontation des postulats aux phénomènes.

- Fascination pour l’occultisme, discipline très répandue chez les érudits de

l’époque entre lesquels il pouvait y avoir des accords. Connaissance de

première main des sciences occultes, en dépit de réserves d’ordre

théologique. Albert le Grand ne doute pas de l’influence des corps célestes

sur les destinées humaines et de la possibilité de la transmutation. La

première de ces croyances soulevait le problème de la prédétermination de

l’œuvre missionnaire et de la crucifixion de l’œuvre de Jésus-Christ : le Fils

de Dieu pouvait-il être contraint par une force supérieure ? D’un autre côté,

essentiels au déterminisme comme postulat fondamental est condition de

possibilité des sciences.

- Rapport incontournable entre magie et science. Albert le Grand, fort de sa

connaissance des œuvres d’Ibn Qurra et de Picatrix, se fait fort de ne plus

être en apprenti : « Bien plus, nous sommes experts en magie » (« Etiam nos ipsi sumus experti in magicis ») (De anima, I, 2, 6). Et l’auteur d’ajouter, en

marge des assertions de son De l’Âme, qu’il s’agit de « vérité que nous avons

expérimentée par notre pratique de la magie » (De anima, I, passim).

Reprend la partition entre magie démoniaque et condamnable – la goétie,

comprenant la nigromancie (magie noire) et l’invocation des démons – une

magie acceptable pour un chrétien, celle qui marie les éléments entre eux

en vertu de leurs affinités naturelles. Cette seconde forme de magie prend

activement part au projet originaire de Création dont l’homme est

l’instrument. C’est une magie qui, loin de s’y opposer, loin d’être une

preuve d’orgueil, actualise la volonté de Dieu.

- On voit ainsi à l’œuvre chez le Grand une influence prépondérante de la

magie, qui culminera à la Renaissance, en tant que levier du basculement

entre le paradigme ancien, fondé sur la contemplation (observer l'ordre), et

137

le paradigme nouveau, finalisé à l'action de l'homme sur la nature

(ordonner le monde). C'est elle qui, en effet, semble imposer le critère

d'efficacité pratique en fait de celui de concordance avec les Écriture et la

physique classique aristotélicienne. Ce critère d’efficacité pratique est

l’élément crucial de la distinction entre la « vraie magie » et le

charlatanisme au Moyen Âge. Et pourrait donc avoir été l’opérateur de la

transformation de la connaissance spéculative en connaissance opératoire.

Un même rapport pourrait être établi avec l'Inquisition, qui fait passer dans

le domaine religieux et juridique du régime du déclaratif au régime de la

preuve. En sciences aussi, dès lors, il faut prouver (et ce n’est pas pour rien

que l’élengkos socratique était à l’origine une pratique judiciaire). Autant

d’idées qu’il reste à explorer…

- Le plus célèbre traité d’alchimie d’Albert le Grand, l’Alkimia, permet de

déceler l’amorce d’un projet de charte à l’usage du savant expérimentateur.

Soit les principes d’un ethos scientifique : « (1) L'alchimiste sera discret et

silencieux. Il ne révélera à personne le résultat de ses opérations. (2) Il

habitera loin des hommes une maison particulière, dans laquelle il y aura

deux ou trois pièces exclusivement destinées à ses recherches. (3) Il choisira

les heures et le temps de son travail. (4) Il sera patient, assidu, persévérant.

(5) Il exécutera d'après les règles de l'art les opérations nécessaires. (6) Il ne

se servira que de vaisseaux (récipients) en verre ou en poterie vernissée. (7)

Il sera assez riche pour faire en toute indépendance les dépenses qu'exigent

ses recherches. (8) Il évitera d'avoir des rapports avec les princes et les

seigneurs » (Alkimia). Énonciation de vertu quasi-monacales, d’exigences de

rigueurs, de conditions d’expérimentation, d’impératifs d’indépendance

ayant pour fin de soustraire la recherche aux influences du politique

(principe de laïcité épistémologique).

Robert Grosseteste (1168-1253)

Principales contributions :

- Œuvres philosophiques : Commentaires sur Aristote (vers 1220) ; De Luce ; De Finitate Motus Et Temporis (Finitude du temps et du mouvement) (vers 1230)

- Œuvres théologiques : De libero arbitrio (Sur le libre arbitre)

138

- Œuvres scientifiques : Sur la génération de sons (De generatione sonorum), Sur la sphère (De sphaera), Sur les comètes (De Cometis), Sur l'air (De impressionibus aæris), Sur les lignes, les angles et des figures (De Lineis, angulis et figuris), Sur l'arc en ciel (De iride), Sur la couleur (De colore), La chaleur du Soleil (De calore solis), Le mouvement des corps superceleste (De motu supercaelestium)...

Concepts et idées-forces :

- Évêque de Lincoln, proche de l’ordre des Franciscains. En marge de sa

pastorale, s’illustre dans les domaines de l’optique, des mathématiques, de la

philosophie et de la littérature. De nombreux commentaires sur Aristote qui

font époque dans la pensée occidentale.

- Hérite du philosophe arabe Ibn al-Haytham (dit Alhazen) la conviction

que la science se forge au creuset de l’expérience. Considéré par nombre

d’historiens des sciences comme le vrai « père » de la méthode

expérimentale, dont s’inspirera Roger Bacon, peut-être à son contact.

- A.C. Crombie veut voir en lui l’artisan d’une révolution intellectuelle

d’une ampleur comparable à celle qui gagnerait l’Europe quatre siècles plus

tard : il est le premier philosophe occidental ayant « clairement compris les

principes de la science expérimentale moderne ».

- Importance des mathématiques, qu’il sait être un outil privilégié et

transversal des sciences. Grosseteste leur prête des développements

géométriques avec son De lineis, angulis et figuris, et un emploi

astronomique via sa Theorica planetarum, De accessione et recessione maris. - Avant Bruno et Fontenelle, Grosseteste tente d’importer dans le champ

des mathématiques la notion d’infini, confinée par les métaphysiciens au

domaine de la théologie. Fait un usage de l’infini comme grandeur

mesurable en affirmant l’infinité des entiers équivalents au double de

l’infinité des nombres pairs. Faiblesse de l’argumentation, mais le principe

ne se retrouvant pas avant que Georg Cantor démontre la supériorité de

l'infini des nombres réels (aleph1) relativement à l’ensemble des entiers

(aleph0).

- Théorie de la lumière origine de toute chose, valable dans le champ

scientifique autant que dans le champ religieux. Inspiration platonicienne

139

(l’analogie du bien), augustinienne (théorie de l’illumination), biblique

(Genèse).

- Les sciences dites naturelles, visibles, composent avec les sciences

occultes. Pas de démarcation nettement tracée entre ces deux domaines.

Pour pionnier qu’il puisse être en matière de méthode, Grosseteste ne

négligeait nullement l’astrologie qu’il plaçait au sommet de la hiérarchie des

sciences, et – comme beaucoup de ses contemporains – croyait à l’alchimie

ainsi qu’à la transmutation des métaux vils en or, source d’inspiration et

métaphore (selon C. G. Jung) de la purification de l’âme. Transmutation

aujourd’hui pratiquement possible en cela que tout est fait d’atomes.

Point sur la religion et l’occultisme

Pour être l’un et l’autre deux systèmes d’interprétation du monde aux

postulats distincts, le modèle scientifique et le mythe religieux sont

présentés le plus souvent comme irréconciliable. Du savoir rationnel, il est

devenu commun de faire l’adversaire millénaire de la croyance, celui que

les prêtres baptisaient du nom de l’Orgueilleux, de Prométhée, de Lucifer,

l’Ange « porteur de lumière ». De la « croyance », on n’a de cesse de vouloir

faire ce qui transcende la science pour accéder à un savoir qui dépasse tout

savoir pour atteindre à une intuition suprême de la vérité. La connaissance

serait sceptique et la foi dogmatique. La connaissance serait critique et la foi

doctrinaire.

La connaissance serait prouvée là où la foi ne peut que s’éprouver. La

connaissance décrirait l’être, là où la foi donnerait le sens. Ou bien

soustrairait l’être à toute velléité de rationalisation. C’est cette deuxième

option que retient la tradition lorsqu’elle fait dire à Tertullien « Credo quia absurdum », « je [le] crois parce que c'est absurde ». La sentence authentique

extraite du De Carne Christi, ch. 5, se présente en contexte de la manière

suivante : « Et mortuus est Dei Filius : credibile est quia ineptum est ; et sepultus resurrexit ; certum est quia impossibile est », « Le fils de Dieu est

mort : c'est croyable parce que c'est absurde ; et, après avoir été enseveli, il

est ressuscité ; c'est certain parce que c'est impossible ». Le scandale de la

Crucifixion n’est pas à la portée de l’intelligence humaine ; le cœur seul, qui

140

est l’organe de la foi, peut s’approcher des vérités qui dépassent

l’entendement ». « Credo ut intelligam », « je crois pour comprendre »,

précise Saint Augustin.

S’ajoute à ce tableau en clair-obscur des jugements d’ordre politiques,

philosophiques et idéologiques. La science se veut émancipée de la religion.

À l’une échoit l’onction de la modernité, à l’autre la présomption de

minorité (voir l’opuscule de Kant, manifeste de l’Aufklärung : Qu’est-ce que les Lumières, 1784). C’est contre la « superstition » que les Croisés de la

raison ont pris les armes ; contre l’illuminisme, contre l’obscurantisme que

s’est faite la croisade des libre-penseurs. Du moins est-ce là l’enseignement

que nous avons tout reçu. Qui ne l’a pas entendu dire un jour : que la

science « autonome » et « objective » devait être irrévérencieuse, que la

religion « opium du peuple » ou « délire collectif » offrait des solutions

simplistes et dogmatiques à des problèmes complexes ? Y a-t-il plus

opposées que ces deux démarches ?

La bonne question serait : y a-t-il plus fallacieuse que cette opposition ? On

ne peut nier que le monde chrétien ne paraît pas à première vue faire bon

accueil au principe de raison. Des résistances sérieuses, qui ne se réduisent

pas à des luttes de pouvoir, semblent défier toute tentative de reconstruire

un ordre dans ce chaos animé qu’est la Création. Il ne suffisait pas de

décréter que les astres étaient des luminaires pour évacuer de la nature

toute influence surnaturelle. Passons sur l’apport d’Aristote, médiatisé par

Thomas d’Aquin, à la « physique chrétienne ». Elle ne relève pas

directement de la doctrine religieuse qu’elle prétend compléter. Restons-en

à l’herméneutique des Écritures : qu’en ressort-il ?

Une Providence conduisant l’existence individuelle et l’histoire collective ;

une Grâce divine fondant sur ses élus, eu égard à leurs œuvres ou

indépendamment de celles-ci ; un Christ et ses apôtres thaumaturges, dont

les miracles dérogent impérieusement aux « lois de la nature » (quoiqu’en ait

dit Leibniz). Des anges qui manifestent la volonté d’un Dieu dont « les voies

sont impénétrables ». Une hiérarchie d’esprits célestes. Une démonologie

active face à laquelle se dressent des hommes investis par le Saint Esprit. Et

d’autres hommes, jusqu’aux plus misérables, qui disposaient via la prière

141

d’un instrument de pression ; qui disposaient par leurs intercesseurs

qu’étaient le Christ, la Vierge Marie et la communauté des saints, d’un

pouvoir indirect d’action sur la nature ou sur les autres forces qui agissaient

en elle.

Pourquoi d’ailleurs borner cette liste aux avocats du Dieu ? C’est aux esprits

malins que les nécromanciens et autres adeptes de la goetie adressent

parfois leurs vœux. À Lucifer, ils vendent leur âme dans l’espoir d’acquérir

une magie plus puissante. Le « Pacte » singe l’« Alliance ». Le plus court

chemin vers la puissance est tracé par l’Orgueil du premier ange déchu,

héritier du royaume terrestre. Le Grand Satan n’est-il pas « prince de ce

monde » ? Un monde qui apparaît en proie à d’innombrables forces

capricieuses qui collaborent, s’entravent, s’empêchent ou se confortent,

agissent sur la nature selon leur motivation propre. Un monde au sein

duquel Josué peut obtenir de Dieu qu’il fige la course du soleil et de la Lune

pour une journée entière. Voilà qui tranche le problème de Hume ; et l’on

comprend trop bien pour quelles raisons le sceptique écossais choisit dans

son Enquête sur l’entendement humain, 4ème section, 1ère partie de faire

appel à cet exemple précis.

Providence, Grâce, miracles, magie, intercessions en service commandé :

voilà qui ne prêtait guère à la recherche de « lois » de cause à effet. La

scolastique inspirée par les traités d’Aristote n’y incitait guère davantage,

soustrayant à l’empire de la précision et des mathématiques la région

sublunaire. Une pareille représentation du monde ne promeut ni ne justifie

en rien l’exploration des « causes » et des « relations stables » entre les

phénomènes en vue de leur théorisation. Comment l’homme médiéval,

pétri de christianisme, aurait-il pu imaginer d’extraire une régularité de cet

entrelacement de volitions et de nolitions imprévisibles ?

« Comment ? » : c’est là toute la question. Car la science n’est pas née de

rien : « Ex nihilo nihil fit ». Elle également peut être dite « fille de l’Église ».

Et son berceau, volens nolens, fut la théologie. Au vu des considérations

développées jusqu’ici, on peut être surpris de ce renversement. Il en ressort

que notre exposé ne saurait avoir été complet. Le seul aspect « irrationnel »,

« superstitieux » de la religion, ne saurait l’épuiser. À charge de l’historien

142

des sciences de dégager quelle fut son rôle épistémologique.

La religion berceau des sciences

Nous avons vu que la dialectique entre la « raison naturelle » et la

« révélation » posait un certain nombre de problèmes que la théologie

tentait de surmonter, au prix d’efforts parfois considérables. Le principal

enjeu consistait à déterminer si le fait des miracles autorisait l’établissement

de « lois de la nature ». En étaient-ils une expression, ou la réfutation ?

L’intrusion permanente de causes surnaturelles dans le cours de la nature

rendait-elle impossible une recherche de certitude dans les rapports de

cause à effet ? La seule sagesse consistait-elle en la résignation et en

l’admiration passive des mystères de la création ?

Force est de répondre par la négative. Le ferment religieux de la science

moderne est une réalité dorénavant admise, de même que sont avérées les

origines mythologiques et poétiques de la science grecque. Le raisonnement

de la science moderne plonge ses racines dans l’exégèse des érudits du

Moyen Âge chrétien. Méthodes, outils, notions ; la plupart de ses

instruments de pensée ont été façonnés dans le creuset de la glose. Citons,

en guise d’échantillon :

- L’impetus chez Jean Buridan, qui préfigure le principe d’inertie ;

- La latitude des formes comme quantification des grandeurs intensives, qui

anticipe sur la cinématique moderne ;

- L’infini immanent chez Giordano Bruno, qui transpose à la création un

attribut de Dieu ;

- La logique de Leibniz (cf. Discours de métaphysique, De arte combinatoria) et celle de Port-Royal.

Emile Durkheim, en 1912, met à l’ordre du jour cette découverte majeure

de l’histoire des idées : « Nous verrons que la notion de forces naturelles est

très vraisemblablement dérivée de la notion de forces religieuses ; il ne

saurait donc y avoir entre celles-ci et celles-là l'abîme qui sépare le

rationnel de l'irrationnel » (Les Formes élémentaires de la vie religieuse). La

religion nourrit la science comme elle nourrit la politique, le droit et l’art.

143

La religion inspire si bien la science que le retournement vindicatif de celle-

ci contre celle-là s’apparente davantage à une manière de parricide qu’à une

confrontation de disciplines opposées, n’ayant rien à se dire, à ce moment

critique d’affirmation de tout adolescent tenté, pour s’autonomiser, de

renier ses honteuses origines. Durkheim encore : « La pensée scientifique

n'est qu'une forme plus parfaite de la pensée religieuse » (ibid.).

La science et l’occultisme

Il y a peut-être plus ; plus inavouable encore. À la théologie ne peut être

imputée l’entière responsabilité (ou l’entière gloire) de l’essor de la pensée

scientifique moderne. L’innocuité des savoirs orthodoxes enseignés

aujourd’hui n’ôte rien à l’hérésie « obscène » des pratiques d’autrefois qui

leur ont donné vie. Nietzsche n’avait rien manqué de cette influence, qui,

dans Le gai savoir, mettait en évidence une continuité entre ces deux

régimes de compréhension du monde, la science et l’occultisme : « Croyez-

vous donc que les sciences seraient nées, croyez-vous qu'elles auraient crû,

s'il n'y avait eu auparavant ces magiciens, ces alchimistes, astrologues et

sorciers qui durent d'abord, par l'appât de mirages et de promesses, créer la

faim, la soif, le goût des puissances cachées, des forces défendues ? »

Le cas de Newton est des plus significatifs. Celui qui fut peut-être le plus

grand alchimiste anglais, de son siècle n’aurait sans doute jamais pris au

sérieux ni même envisagé l’idée d’une « attraction universelle » s’il n’avait

été familier du concept alchimique d’« affinité » (cf. Les Affinités électives, roman de Johann W. von Goethe, 1809). Des historiens et philosophes des

sciences dans la lignée de Bachelard, Duhem, Koyré et Kuhn, n’ont pas

manqué de relever la dépendance philosophique et religieuse – à tout le

moins extra-scientifique – des hypothèses en sciences. La religion et la

magie, l’art et les mythes sont moins à cet égard des restrictions

intellectuelles que des pépinières d’idées, le terreau fertile d’intuition

fulgurante. Ce n’est pas sans raison que Popper faisait aux intégristes de

l’inductivisme et du positivisme le reproche de rejeter la métaphysique

comme source d’inspiration.

Or, s’il est une inspiration que le puritanisme rationaliste s’est fait un point

144

d’honneur à toujours écarter, plus encore que celle de la religion, c’est bien

celle de l’occultisme. Car si la science pouvait être opposée à la croyance, de

combien plus devrait-elle l’être à la magie ? Comment celle-ci aurait-elle pu

jouer un rôle autre que négatif ou purement réactif dans l’avènement de la

raison moderne ? Comment ce refuge de l’irrationnel, ce repoussoir ultime

et véritable antimodèle du discours « bien-fondé » aurait-il pu avoir sa part

à la naissance de la méthode scientifique ?

En jouant le rôle de moyen-terme entre la scolastique et la science

expérimentale moderne. En promouvant les normes, les exigences et les

méthodes qu’elle devait adopter. C’est à déterminer selon quelles voies, par

quels moyens et en quels termes que nous consacrerons ce morceau d’«

archéologie » de la science moderne, intéressée tout particulièrement par les

apports théoriques autant que pratiques qui ont été ceux de l’astrologie, de

l’alchimie et, au sens large, de la « magie naturelle ».

L’astrologie et le déterminisme

L’astronomie était en germe dans l’astrologie. Nous lui devons une première

tentative de description systématique du ciel nocturne et, sur cette base,

l’exploration d’une théorie supposée expliquer le comportement des êtres

(et non seulement des astres).

Nous avons exposé plus tôt l’impasse que pouvait constituer pour une

science des phénomènes un monde soumis aux caprices de puissances

imprévisibles. C’est à ce monde que l’astrologie met fin. Plus mais de « cause

errante ». L’univers régulier des tireurs d’horoscopes impose des relations de

cause à effet beaucoup plus strictes que ne pouvaient l’être celles d’un

monde chrétien, conduit et reconduit au gré des décrets particuliers et

généraux parfois contradictoires de Dieu. Précisément, l’astrologie accorde

aux influences des astres le statut de causes déterminantes des phénomènes

terrestres.

Il n’est sans doute pas anodin, à cet égard, que le même Bacon qui exposa la

méthodologie de la science expérimentale (cf. : notice) fut également

professeur de magie et expert en astrologie. Contrairement à ce que

145

l’anecdote de la mésaventure de l’imprudent Thalès rapportée par Platon

dans le Théétète (174a-175a) pourrait laisser penser, on peut avoir la tête

dans les étoiles tout en gardant les pieds sur terre. Et dans les cieux

nocturnes fourbir les armes d’une nouvelle épistémologie. Aussi ne serons-

nous pas surpris d’apprendre que c’est dans les traités d’occultisme que l’on

trouve la formulation la plus saillante du principe de déterminisme appliqué

au monde naturel, là où le fatum des stoïciens et, avant lui, la destinée

(moïra) de la tragédie grecque en réservaient l’emploi à l’édification morale.

C’est tout au moins cette idée directrice véhiculée en première intention

par la magie en général, et par l’astrologie de manière privilégiée, qui allait

engendrer le postulat fondamental des sciences, édictant que la nature ne se

contredit pas (jamais, en aucun lieu, en aucun temps) ; que tout effet a sa

cause identifiable et peut être objet de prédictions.

Mieux même : au-delà du déterminisme et de la causalité ; au-delà de la

liaison des phénomènes – qui devient nécessaire et non plus simplement

probable –, l’astrologie prépare la réconciliation des lieux supra- et

sublunaires qu’accomplirait Newton. La magie naturelle ne se déprend

jamais de la conviction d’un ordre universel qui, comme son nom l’indique,

s’applique de manière uniforme à tout ce qui existe. Voici qui nous conduit

très loin de la nature enchantée et chaotique des premiers âges ou de

l’univers chrétien exposé aux miracles.

Ce n’est pas tant la teneur prédictive de l’astrologie qui doit retenir notre

attention, que le cadre théorique qu’elle met en place. Il ne s’agit pas de

créditer les énoncés qui se réclament des sciences occultes, mais bien plutôt

de faire la part entre ce qui relève en elles de l’imaginaire spéculatif ou de la

structure épistémologique. C’est cette structure que l’astrologie va insuffler

par capillarité aux autres disciplines, pour autant que ces dernières

assument de reposer sur elle. La médecine du XIIe siècle présente un cas

d’école de cette diffusion. L’utilité de l’astrologie ne pouvait pas lui

apparaître pour essentielle une fois admis l’incidence du mouvement des

astres sur l’ensemble de la nature, le corps humain inclus. On ne pouvait

plus dès lors se permettre d’ignorer les conjonctions du ciel, eu égard aux

patients qu’il s’agissait de soigner, aux simples qu’il faillait cueillir, à la

préparation des décoctions et à leur administration. Toutes les parties du

146

corps avaient leur ascendant céleste qu’il fallait prendre en considération

autant pour le dressage du diagnostic que pour le choix et les modalités de

la thérapeutique. Religion, science et occultisme ne se distinguent plus

guère chez un penseur de de la prestance de Pierre d'Espagne. Ce médecin

théologien ordonné pape en 1276 sous le nom de Jean XXI alla jusqu’à

proposer des correspondances entre les sept planètes connues et les sept

tuniques (humeurs) de l’œil.

L’intérêt (pragmatique) que les milieux médicaux témoignaient à

l’astronomie explique la profusion, dès le XIVe siècle, des ouvrages traitant

de problèmes techniques dans le domaine civil et militaire. L’historien

médiéviste américain Lynn Townsend White recense effectivement à cette

époque une surreprésentation des professions médicales dans les archives

consacrées à l’ingénierie (Technology and inventions in the Middle Ages,

1940). C’est par l’astronomie que le médecin en seraient arrivés à nourrir

une passion pour la physique et pour la mécanique, puis pour les automates.

C’est en tant qu’astrologue médecin que l’Italien Giovanni Dondi construisit

l’« Astrarium ». Seize ans de recherches furent nécessaires à l’élaboration de

cette horloge astronomique capable de donner l’heure tout en représentant

en temps réel le mouvement des planètes.

Assimilation du ciel à une horloge astrale ; le ciel image du corps : c’en est

assez pour façonner le regard théorique de la médecine moderne. Les

hommes de l’art se mettent peu à peu à concevoir le corps sous les auspices

de la machine. C’est là, en filigrane, l’essor de la mécanique moderne, les

commencements de la géométrisation de l’étendue parachevée avec

Descartes. Descartes qui – rappelons-le – concevait les corps vivants sur les

modèles des machines hydrauliques ; Descartes qui se voulait médecin

avant toute chose, et de la santé (et non de la connaissance) faisait le

souverain bien. Mais déjà chez Descartes ont disparu les préoccupations

astronomiques qui hantaient ses prédécesseurs. On voit que les

conséquences de l’astrologie sur la naissance et le devenir des sciences (dont

la médecine, cas paradigmatique) sont bien plus vastes et plus profondes que

l’on veut bien l’admettre.

Notons enfin que le schème de la réflexion entre le microcosme et le

147

macrocosme, tout comme la loi de causalité exprimant le déterminisme, se

retrouvent au cœur de l’alchimie ; ce qui ne laisse pas d’en faire une

discipline digne d’intérêt pour l’histoire des idées. En marge des opérations

et des techniques reprises par la chimie, cette autre science occulte fut

également d’une importance majeure au regard de la promotion des normes

de la science moderne : c’est elle qui associe de la manière la plus étroite au

processus de théorisation l’exigence de l’expérimentation. Un mariage

consommé sous les auspices de l’hermétisme dominant chez les penseurs de

la Renaissance et du bas Moyen Âge. Étroitement associés aux

investigations médicinales et alchimiques des « mages » de cette époque

produisent des éloges militants de la pratique. Il ne s’agit plus dorénavant de

contempler l’ordre du monde ou de l’interpréter – pour emprunter à Marx

la formulation de la onzième « Thèse sur Feuerbach » –, mais de le

transformer. À ce changement de paradigme s’attache immédiatement un

critère d’efficacité que la « magie naturelle » va mettre au cœur de son

activité.

La magie naturelle et le critère d’efficacité

Il n’est pas accordé à tous les hommes de voir leurs prières suivies d’effets.

Le croyant s’adresse à des entités libres qui peuvent choisir de ne pas

souscrire à ses désirs. Pour le meilleur, sans doute ; il est connu depuis les

tragédies de Sénèque que les dieux punissent parfois les hommes en

exauçant leurs souhaits (cf. Phèdre, acte IV). Le Dieu chrétien, dit-on, non

plus que les Saints qui l’accompagnent, ne saurait s’adonner à une telle

cruauté. Pas davantage ne se laisse-t-il forcer la main, à l’inverse des génies

et autres entités que convoque la magie. Le propre de la formule magique

est ainsi d’être une « parole efficace ». Sa dimension opératoire est ce qui la

distingue de la parole vulgaire, de la prière chrétienne et du « vœu pieux ».

Elle doit agir sur le réel. La connaissance qu’elle met en œuvre est orientée

en vue de la production d’effets ; effets qui sont le signe de sa validité. Les

mots et les opérations sont attachés aux choses par des liaisons causales.

Tout l’apport théorique de l’occultisme médiéval à la science expérimentale

moderne peut être résumée à ce mode ordre d’efficacité pratique.

À quoi bon tant d’application à respecter cette norme ? Entrons dans les

148

détails. En reprenant pour les besoins de la démonstration l’exemple

proverbial de phénomène d’aimantation.

Le pouvoir d’attraction de la roche magnétique était connu par les Anciens

depuis la plus haute Antiquité. Il revient à la Chine d’en avoir proposé la

première description ; mais c’est en Grèce ancienne que ses propriétés

semblent avoir le plus inspiré, depuis sages présocratiques jusqu’aux mages

de la Renaissance. Cette pierre noire aux mystérieuses propriétés ne se

contentait pas d’attirer à elle les amalgames ferrugineux, elle leur

communiquait une part de son pouvoir magnétique. Platon, dans l’Ion,

l’appelle la « pierre de Magnésie » (du nom de la ville de Magnésie, située en

Asie Mineure), et l’utilise comme paradigme de la chaîne d’or de

l’inspiration divine, transmise le long de ses différents maillons, perdant de

sa puissance au prorata de son degré d’éloignement de la source. Plutarque,

aux premiers siècles de notre ère, dans son traité d’Isis et Osiris, rapporte

que les Égyptiens appelaient « os d'Horus » la pierre d'aimant, et le fer « os

de Typhon (= Seth) », la chair des dieux de l’Égypte ancienne étant

(symboliquement) composé d’or imputrescible et leur corps d’autres «

éléments durs et mous » immunisés contre le temps. Contemporain de

Plutarque, Pline l'Ancien rapporte en ces termes la découverte très

empirique du phénomène de polarisation : « Il y a auprès du fleuve Indus

deux montagnes, dont l'une retient et l'autre repousse toute espèce de fer ;

de la sorte, si l'on porte des clous aux souliers, dans l'une on ne peut pas

retirer son pied, dans l'autre on ne peut pas le poser » (Histoire naturelle, II,

97-99).

Le Moyen Âge n’a pas été pas moins fasciné par ce pouvoir étrange que

semblaient posséder les aimants permanents. Qu’une pierre puisse exercer

une telle force d’attraction (et de répulsion) physique et sans contact sur un

morceau de fer était assurément l’indice d’une « qualité occulte ». Ainsi

seulement pouvait être expliqué sa vertu propre, son « charme », analogue

pour les corps à ce que des sentiments tels que l’amour et l’amitié pouvaient

produire dans l’esprit.

« Mariage », « alliance », « affinités », « noces », etc., l’alchimie médiévale

allait faire bon usage de ces métaphores ; et ce n’est pas un hasard si la

149

pierre noire de magnésie a hérité du nom d’ « aimant », au prix d’un

anthropomorphisme passablement évocateur. La tentation est grande de lui

attribuer toutes sortes de propriétés. Comme le rappelle Daniel J. Boorstin

dans son essai de 1986, Les découvreurs : « Une pierre d'aimant placée sous

l'oreiller d'une épouse infidèle avait le pouvoir, disait-on, de lui faire avouer

sa faute. La croyance populaire attribuait à l'aimant une telle force qu'un

seul fragment suffisait pour guérir toute sorte de maux et même servir de

contraceptif ». Si l’on peut raisonnablement douter de la pérennité de cet

usage, la pierre d’aimant en avait d’autres beaucoup plus précieux. En

premier lieu, dans le domaine de la navigation. Avant de devenir l’« atelier

du monde », la Chine fut longtemps son laboratoire. Nous ne lui devons pas

que l’imprimerie (indûment attribuée à Gutenberg), l’invention du papier et

la recette de la poudre à canon. Elle fut aussi à l’origine de la première

boussole – alors appelée « aiguille du sud » en raison de l’orientation des

planisphères.

Cette technologie d’exploration datée des alentours de l’an Mil se composait

d’un cadran incrusté surmonté d’une aiguille de fer mobile magnétisée par

contact avec un aimant. L’aiguille pivote ainsi de sorte à s’aligner sur le

champ magnétique terrestre, lui-même à l’origine de l’aimantation des

roches de magnésie. Ce n’est que deux siècle après sa mise au point que la

boussole chinoise atteignit les côtes européennes où les marins ne tardèrent

pas à l’adopter en la rebaptisant du nom de « marinette ». La marinette fut

l’épicentre d’une révolution majeure dans l’histoire de la navigation. Elle

palliait les insuffisances et les incertitudes des précédentes techniques de

repérage s’appuyant sur des relevés astronomiques nécessitant l’obscurité et

la limpidité du ciel. Son principal inconvénient était de ne pouvoir indiquer

la position de son utilisateur (c’est là tout l’avantage comparatif de la

technologie de guidage par satellite, ou GPS). L’ingénieur militaire Pierre

de Maricourt ne tarit pas d’éloges sur les propriétés de l’aimant, comme en

atteste son Epistola de magnete de 1269. Couramment abrégé De Magnete,

le traité de Maricourt permit la mise au point du compas magnétique (non

sans quelques erreurs de déviations qui valurent à Christophe Colomb son

abordage fortuit aux Bahamas). Ce qui permit à l’auteur britannique des

Pilgrimes (1613-1626) d’affirmer que « la pierre d'aimant [loadstone] est la

pierre angulaire, la semence même d'où nait la découverte ».

150

La pierre d’aimant s’avérait en tout état de cause dépositaire de propriétés

d’une valeur inestimable, qu’il fallait bien compter au nombre des vertus

qui lui appartenaient en propre. Le phénomène d’aimantation – et

l’incapacité des érudits de l’époque à en rendre raison – justifiait à lui seul

que l’on s’oblige au recensement des autres qualités occultes. Or, seule

l’expérimentation pouvait permettre d’effectuer correctement ce

recensement. Les qualités occultes appartenaient aux corps si et seulement

si ces corps étaient à même d’induire des modifications sensibles sur le

monde. Toute prétention à attribuer aux corps d’autres propriétés sans que

celles-ci puissent être mesurées devait être rejetée. L’esprit critique du

maître ès sciences occultes consistait dès alors à ne tenir pour véridique que

ce qui avait été vérifié méticuleusement ; et c’est à son exemple que se vont

se convertir jusqu’aux théologiens du Moyen Âge chrétien.

C’est donc à l’aune de son effectivité qu’est distinguée la magie authentique

de la charlatanerie. La vérité se mesure à l’effectivité de son action sur le

monde, c’est-à-dire à son utilité. Cela signifie qu’elle ne s’évalue plus en

référence à sa conformité à une doctrine qui la précède. Physique

aristotélicienne et savoirs révélés n’ont plus voix au chapitre de la magie

médiévale. Cela signifie aussi que l’ordre du monde n’est plus tant observé

(dans les deux sens du terme) qu’institué par le sujet en tant qu’il le produit.

Il n’en fallait pas moins pour amorcer le processus qui conduirait à révoquer

l’épistémè de la contemplation pour celle de l’efficacité pratique, cheville

ouvrière de la révolution intellectuelle moderne. Il n’est pas assuré que sans

l’occultisme et la nécessité qui s’y fit jour de séparer le bon grain de l’ivraie,

la science proprement dite se soit jamais émancipée de la scolastique.

L’ironie tient à ce que ce furent parfois les mêmes penseurs formés à l’école

de la scolastique qui firent le plus pour son dépérissement. Tout bien

compté, les Évangiles eux-mêmes n’encourageaient-ils pas cette appétence

pour l’occultisme ? L’épisode de la nativité ne se faisait-il pas déjà l’écho de

traditions astrologiques faisant état de chefs bédouins capables de déchiffrer

l’annonce de la venue du Sauveur au ciel de Bethléem ? Les premiers

hommes qui accueillirent le Christ n’étaient-il pas « trois mages »,

ultérieurement reconvertis en « rois » ? La Bible se serait-elle montrée si

151

complaisante à l’endroit de sorciers nomades si leur sagesse n’avait été que

divagations païennes et les chimères démoniaques ?

Roger Bacon ne pouvait le croire. Ce franciscain du XIIIe siècle n’avait pas

son pareil en matière de théologie. Il cultivait pourtant une conception

déflationniste de la foi dans le domaine de la recherche de la vérité. Son

insistance sur l’expérience (physique, magique, mystique), seule source

véritable de la connaissance de la nature (en lieu et place des Écritures et

des traités du Stagirite), en fait un précurseur des scientifiques

expérimentateurs de la révolution intellectuelle moderne. Avec Bacon

s’affirme effectivement une volonté de multiplier les sources, de s’instruire

même auprès des artisans, des ingénieurs et des bergers. Qu’importe le

chemin, qu’importent les témoins, seul compte les faits. Bacon met sur un

pied d’égalité les bibles scolastiques et les propos d’auberge.

État d’esprit qui rompt ouvertement d’avec celui des universitaires imbus de

leurs raisonnements théologico-philosophiques et de leur gloses à n’en plus

finir, hors-sol. Or, plus que ses pérambulations civiles et ses fréquentations

vulgaires d’esprit pratiques et pragmatiques, la magie fut pour le Doctor mirabilis une occasion de se déprendre des préjugés rationalistes et

orthodoxes qui encombraient la scolastique. La magie fut par conséquent

non pas seulement le préalable, mais plus encore la condition du progrès

scientifique : « Le principal obstacle à la découverte de la forme de la Terre,

des continents, et des océans n'aura pas été l'ignorance, précise en cela

Boorstin, mais l'illusion de savoir » (op. cit.). L’esprit critique durci au feu

des athanors devait venir à bout de cette illusion. L’histoire des sciences –

peut-être encore intimidée par les soupçons diffamatoires que les Lumières

ont fait peser sur l’occultisme médiéval – est encore loin d’avoir pris la

mesure de sa contribution tout ce qu’il y a de plus réel à l’émergence de la

science moderne.

L’épreuve de l’expérience

Contribution qui ne se limite pas à quelques postulats, méthodes, concepts,

normes de vérité et instruments de pensée, mais comprend un aspect

pratique. Le critère d’efficacité ne vaut qu’à la lumière de l’expérience. Il ne

152

sanctionne une « proposition » magique qu’une fois celle-ci mise à l’épreuve

des faits. C’est cette mise à l’épreuve – moyennant un contrôle systématique

et empirique – des « recettes » consignées par des générations de « mages »

qui va permettre de décanter l’or du savoir aggloméré aux mystifications de

bataillons de faux-monnayeurs. C’est donc sur l’expérience que la magie

médiévale va s’appuyer pour rejeter de son champ de recherche les

amulettes et les grigris et les trucages et les médications fumeuses et les

tours de passe-passe et de prestidigitation qui s’en réclament abusivement.

C’est ainsi, peu à peu, que vient à se constituer une authentique « science

expérimentale ». Scientia experimentalis : tel est, de fait, le nom que lui

donne Thomas d’Aquin, disciple d’Albert le Grand. Désignation qui, au

XVIe et XVIIe siècles, viendrait à qualifier la méthode d’investigation des

artisans de la science moderne.

Cette entreprise de « purification » de la magie intéressa au premier chef

notre Bacon, persuadé que la légitimité sociale et culturelle de la science

expérimentale (= la magie rationalisée) devait passer par l’assurance de ses

fondements épistémologiques, l’énonciation de ses méthodes, de ses

objectifs et de ses intérêts. Pratiques, sans doute ; techniques, assurément.

Car c’est par l’occultisme que les praticiens expriment les préoccupations et

revendications d’une révolution intellectuelle en germe.

En arrière-plan des controverses sur la magie se profile une légion

d’ingénieurs adeptes des « arts mécaniques ». Bien que le terme ingeniator

remonte au XIe siècle, les universités s’étaient toujours montrées

condescendantes ou franchement réservées leur égard – le moine

enseignant Hugues de Saint Victor faisant figure d’exception. Ces arts

n’avaient jamais trouvé preneurs dans les hauts-lieux de la formation de

l’élite intellectuelle. Une telle situation peut être comparée à celle des

médecins chirurgiens et des docteurs, ceux-ci s’accommodant d’une

instruction livresque et théorique, déléguant volontiers les tâches pratiques

à leur valets manuelle (kheirourgía : « travail de la main »). Ce qu’Aristote

était à la physique, Hippocrate et Galien l’étaient à la médecine.

L’anoblissement de la chirurgie et la réhabilitation de l’expérimentation fut

redevable des travaux anatomiques (et artistiques) André Vésale et des

succès d’Ambroise Paré. La promotion de la technique et des arts

153

mécaniques dut également trouver ses médiations. L’occultisme fut la

principale de ces médiations, le cheval de Troie des praticiens.

À telle enseigne qu’il ne serait pas absurde, pour en venir au fait,

d’interpréter la science moderne comme résultant de l’épuration de

l’occultisme médiéval à la faveur de l’expérience, ayant précipité le

remplacement du critère de conformité à l’« ordre de la nature » posé par

Aristote les Pères de l’Église par celui d’efficacité pratique. La science

contemporaine – devenue « technoscience » ensuite de l’interdépendance

de la recherche fondamentale et appliquée –, est pour sa part en passe de se

défaire de ces préoccupations. Le catéchisme scientifique du XXIe siècle

n’est plus à la contemplation, en tant que conformation un ordre établi, ni

au progrès humain organisé autour de la technique et de son effet sur le réel

; il est devenu l’« innovation », au diapason de la Silicon Valley. Mais

n’anticipons pas, ne croisons pas les temps.

Remplacement donc du critère de conformité par celui d’efficacité, telle a

été l’œuvre paradoxale des sciences occultes. N’est-ce pas précisément ce

remplacement ou déplacement du lieu de la vérité qu’exprime le revirement

de l’exégèse chrétienne dans l’interprétation de la parabole évangélique de

Marthe et de Marie, dès le début du XIIe siècle ? Celui-là même que le

bénédictin Rupert de Deutz se désolait de retrouver chez nombre de ses

ouailles « qui placent presque tous leurs espoirs dans le travail manuel » ?

Posons le décor. Marthe et Marie, rapporte l’Évangile de Luc (10, 38-42),

sont deux sœurs ayant fait chacune le choix d’une vie typiquement opposée.

Il faudrait plus rigoureusement parler d’une répartition des tâches,

anticipant ce que Marx allait appeler le divorce du travail manuel et du

travail intellectuel. À Marthe est échue la responsabilité des besognes

ménagères et de l’intendance tandis que la vocation toute spirituelle de

Marie sa sœur la destine au service divin. Marthe peine à la tâche ; Marie

s’isole dans la prière et dans le recueillement. À Marthe qui s’en était venue

se plaindre auprès de lui, Jésus fit savoir qu’indéniablement, Marie avait eu

« la bonne part ». On recense deux manières contradictoires d’interpréter ce

commentaire énigmatique. Une première tradition traverse l’orthodoxie

chrétienne depuis ses origines jusqu’à la Renaissance du XIIe siècle

154

théorisée par Jacques Le Goff (Les intellectuels au Moyen Âge, Paris, 1957).

Elle veut y voir une confirmation de la supériorité ontologique et spirituelle

de la contemplation au détriment de l’action et des affaires terrestres.

Tout change, selon Le Goff, avec l’essor de la société marchande et

technicienne qui cherche à s’imposer autant par le commerce nu que par la

séduction (La civilisation de l'Occident médiéval, 1977). Un lobbying actif

est exercé par de « nouvelles catégories professionnelles » en quête de

supplément d’âme, « désireuses de trouver sur le plan religieux la

justification de leur activité ». L’action est réinterprétée dans un sens positif

et la parole du Christ adaptée aux valeurs de l’époque : Marie « à la bonne

part », pour l’heure, mais « les premiers seront les derniers ». Ainsi

commence le procès en réhabilitation de Marthe.

Aussi aurions-nous tort de croire que le christianisme ait été farouchement

hostile à l’essor de la science et au progrès technique. Quoi qu’il soit vrai

que tout le christianisme n’est pas suivi le mouvement. L’historien

médiéviste américain Lynn Townsend White attire ainsi notre attention sur

tout ce qui sépare l’indifférence à dominante conservatrice de l’Église

orthodoxe (Medieval tecnology and social change, 1962) de l’enthousiasme

(modéré) de l'Église d'Occident. Là où l’Église d’Orient restait captive de ses

figures d’autorité, soucieuse de transmission et de pérennisation, le

christianisme occidental avait troqué ses idéaux contemplatifs pour ceux

d’une société matérialiste avant la lettre, orientée vers l’avenir et

l’amélioration de l’homme (humanisme) plutôt que vers ses origines. Le

recueillement et la résignation ne pouvaient plus être une réponse

satisfaisante aux malheurs de la condition humaine. Il avait découvert les

vertus spirituelles de l’action, de la transformation du monde par l’homme

qui permettait de hâter la venue du millénium ; laquelle transformation,

loin de s’y opposer, prenaient activement part au projet créateur de Dieu.

Luther traduit par le même mot – Beruf – la « vocation » et le « travail »

dans sa version de la Bible. De châtiment qu’il était jusqu’alors, le travail

(du latin tripalium, désignant un instrument de torture) devient un

instrument de salut.

155

« O pudenda origo ! »

« O honteuses origines ! ». C’est par cette expression que Nietzsche

démasque la peur du prochain dissimulée sous les atours de la morale

(Aurore, II, 102). Que n’en dirions-nous pas autant de la science et des

pratiques qui l’ont portée sur les fonts baptismaux (magie, astrologie,

alchimie, etc.) ? C’est là peut-être l’un des secrets les mieux gardés de l’«

histoire » des sciences : la religion et l’occultisme n’ont pas été tant

l’adversaire que la matrice des sciences. De l’exigence d’expérimentation au

principe du déterminisme en passant par le critère d’efficacité, les apports

théoriques, pratiques et normatifs de l’occultisme ont été décisifs. On ne

soulignera jamais assez la portée ironique de ce constat, dont il ressort que

les sciences modernes ont été dérivées de celles qu’elles considèrent comme

leurs ennemies héréditaire. La science ne pouvait rompre d’avec le

paradigme contemplatif et naître réellement comme discipline qu’en

s’appuyant sur les ressources de la magie et de la théologie. Hegel aurait

parlé d’une « ruse de la raison », celle-ci pour s’affirmer devant laisser agir

ce qui la nie – mais ne la nie qu’en apparence.

Ce fait embarrassant explique peut-être une partie de la virulence dont ont

fait montre les Lumières à l’encontre des « pratiques superstitieuses » et de

l’« obscurantisme médiéval ». Une égale animosité se reconnaît parfois dans

les discours de la science moderne dans ses attaques (protestations ?) contre

les pseudosciences et les non-sciences. La créature des apprentis sorciers (le

terme prend ici tout son sens) se révolte contre ses créateurs, et réécrit le

récit de sa genèse pour apparaître sa propre création. La science, fille

immaculée de la raison ? Nous ne saurions plus en être dupe.

Jürgen Habermas (1929-19XX)

Principales contributions :

- Théorie et pratique, titre original (1963)

- Connaissance et intérêt (1968)

- La technique et la science comme « idéologie » (1968)

- Vérité et Justification (1999)

156

Concepts et idées-forces :

- Projet d’une réappropriation du progrès techno-scientifique. Dans la

continuité de la réflexion sur la modernité inaugurée par Adorno et

Horkheimer, théoriciens de d'Ecole de Francfort, Habermas réactualise à

nouveaux frais la « Théorie Critique » dans une optique voulue plus

émancipatoire que ses prédécesseurs. Son analyse fait fond sur le constat de

l’imposition graduelle de la rationalité instrumentale dans toutes les sphères

de la société moderne l’industrie culturelle », au détriment de la rationalité

communicationnelle. Cette subsomption aurait, selon l’auteur, conduit à la

vision « technocratique » d’une société sommée de se plier à la nécessité

d’un progressisme aveugle – celui des sciences et des techniques. Les

questionnements d’ordre pratique, moraux ou politiques s’en seraient

trouvés disqualifiés pour céder place à des arias « techniques » qui

ressortissent à l’expertise, et non plus à l’« éthique » d’une discussion

démocratique. La technique et la science comme idéologie (1963) entend

faire la lumière sur l’emprise délétère d’une idéologie latente qui, en le

réifiant, aurait privé l’individu de sa liberté. L’auteur avance dans cet

ouvrage une solution possible à la question centrale posée par la modernité :

comment la dialectique articulant progrès technique et monde vécu social

peut-elle devenir objet de délibération publique. Cette solution comporte

deux aspects : d’une part, l’établissement d’une communication bilatérale

entre le savant et le politique ; de l’autre, la nécessaire réforme de la

conception objectiviste que les sciences se font d'elles-mêmes.

- Exégèse du concept de « théorie ». Fil conducteur de l’analyse, la

« théorie », selon Schelling, commande la tradition philosophique depuis ses

origines. Idée que seule une connaissance dégagée d’intérêt, tournée vers les

idées (« perspective théorique ») est à même d’orienter l’action.

Reconduisant cette thèse dans sa ligne historique, Habermas restitue les

développements de la notion de théorie. Origines religieuses d’abord, liées à

la contemplation : du gc. theorein, « contempler, observer, examiner ».

Association avec l’idée d’éternité, d’immuabilité et d’harmonie. Une

harmonie devenant praxis lors qu’elle se réalise dans une ethos, pratique de

vie conforme à l’ordre perçu dans le cosmos. Sur les traces d’Horkheimer,

l’auteur réexamine ensuite la rupture supposée entre philosophie

157

(ontologique) traditionnelle et sciences (positivistes) modernes. Husserl

préjuge de cette rupture ; qu’en est-il véritablement ?

- Habermas fait le départ entre trois types de sciences afin d’interroger si

elles préservent ou non le lien entre « savoir » et « attitudes ». Sont-elles

solubles dans la conception originaire de la théorie telle que la comprenait

la tradition philosophique ?

(1) Les sciences empirico-analytiques (sciences naturelles) préservent

intacte cette double perspective, en prétendant décrire le plus

objectivement possible les lois de l’univers, abstraction faite des « intérêts

naturels de l’existence ».

(2) Les sciences historico-herméneutiques (sciences humaines), bien

qu’elles aient davantage affaire à des objets fluctuants historiquement situés,

partagent avec les précédentes la même conscience méthodologique. Les

sciences sociales sont innervées par le positivisme. Ces exigences restent

conformes à celles de la philosophie grecque tant du point de vue

psychologique (nécessité de rester fidèle à l’ « attitude théorique » du point

de vue épistémologique (césure entre la connaissance et l’intérêt).

(3) Les sciences critiques (psychanalyse et théories critiques) sur

lesquelles Habermas revient plus en détail ultérieurement.

- Cela posé, il semblerait que la notion de « neutralité axiologique »

intronisée par Max Weber, comme la dissociation des faits et des valeurs, ne

permette plus d’identifier les exigences de la science positive avec celles qui

sont enveloppées – « intentionnées » – par la notion traditionnelle de

théorie : « On ne reconnaît plus à la théorie de fonction formatrice » ; celle

que la phénoménologie d’Husserl entendait restaurer en renouvelant la

théorie pure.

- C’est à reconstituer la critique husserlienne que va alors s’employer

Habermas. Husserl prend à partie l’objectivisme supposé des sciences. Ainsi

la science prétend décrire objectivement les faits et leurs interactions ; or, la

phénoménologie révèle l’intercession originaire de la subjectivité comme

fondatrice du sens que revêt préalablement le monde immédiatement vécu.

La subjectivité persiste dans les sciences sous leur vernis d’objectivisme ; la

phénoménologie elle seule est en mesure de dissocier valablement la

connaissance de l’intérêt. La description phénoménologique coïncide, pour

Husserl, avec la théorie pure (traditionnelle). La théorie n’est pas

158

immédiatement pratique, mais rejaillit sur la pratique en cela que l’attitude

théorique permet d’aiguillonner l’action.

- Une fois amenée cette reconstitution, l’auteur fait cas de ses réserves. La

phénoménologie décrit les lois de la raison pure, mais non les normes

universelles de la raison pratique. Husserl est avisé de dénoncer les illusions

objectivistes de la science, mais ne se soustrait pas lui-même à la

contradiction. Il prétend dissocier la connaissance de l’intérêt et, de cette

sécession, escompte des conséquences d’ordre pratique. Or, ce n’était

qu’autant qu’elle découvrait un prototype, un modèle idéal que la théorie

pouvait guider l’action. Ce dont la prive la démarche transcendantale au

profit d’une simple « attitude théorique ». Husserl se leurre enfin en

inférant de cette dissociation la vertu formatrice de la théorie ; cette

puissance édifiante ne procède pas de l’éviction des intérêts, mais de leur

dissimulation : « Que l’intérêt soit refoulé, cela fait encore partie de l’intérêt

lui-même ».

- Excipe deux des apports déterminants de la tradition hellénistique : (a)

« l’attitude théorique » et (b) « l’hypothèse ontologique fondamentale d’un

monde en soi déjà structuré ». Deux éléments présupposant déjà

l’interaction de la connaissance et de l’intérêt. Et c’est, au vrai, parce

qu’elles s’inscrivent toujours dans les essarts de la conception classique de la

théorie pure, que le soupçon d’objectivisme est porté sur les sciences ; ceci

bien que les sciences aient ponctionné la théorie de sa dimension

pédagogique.

- « Objectiviste » au sens d’Husserl et d’Habermas, une attitude faisant

coïncider les énoncés de la théorie avec les choses « en soi ». Soit une

approche plaçant la vérité sous le rapport de l’adequatio rei et intellectus. Ce n’est qu’une fois réintégrées au sein de la théorie ses propres conditions

(présupposés, cadres transcendantaux, systèmes de référence) que l’intérêt

recteur de la connaissance dissipe le mirage objectiviste. Cette prise en

compte autocritique différencie la théorie traditionnelle de la théorie

critique.

- Les intérêts de connaissance. Une épistémologie critique qui échapperait

aux écueils du positivisme doit être à même de spécifier les modes de

relations entre la démarche et les intérêts de connaissances

(erkenntnisleitenden Interesses) spécifiques aux différentes sciences. Elle

159

doit encore traquer le lieu de l’illusion objectiviste, comptable de leur

oblitération.

Sciences Empirico-

analytiques Historico-

herméneutiques Praxéologiques

Méthode Hypothético-

déductive Exégétique Critique

Accès aux faits

Expérience et

observation

Compréhension et

interprétation

Analyse et

autoréflexion

Intérêt de connaissance

Technique

(maintien et

extension de la

connaissance)

Pratique (maintien

et extension de

l’intersubjectivité)

Émancipatoire

(libération des

entités

hypostasiées et

des contraintes

primaires)

Ancrage de l’illusion

objectiviste

Niveau des

énoncés

d’observation

(lesquels sont

provoqués par

la démarche

même)

Niveau de la

compréhension du

sens (comptable

d’un horizon de

précompréhension)

Niveau

épistémologique :

n’intègre pas ses

propres intérêts

pris à

l’émancipation)

- Habermas se propose d’éclaircir la nature de cette relation entre

connaissance et intérêt. La science, œuvrant à l’objectivité, se dissimule les

intérêts fondamentaux auxquels elle doit ses impulsions et les conditions

mêmes de l’objectivité. Ce n’est qu’en thématisant ces cadres implicites que

la connaissance est susceptible d’amorcer un procès d’émancipation.

L’occasion pour l’auteur de décliner cinq thèses :

(1) « Ce que réalise le sujet transcendantal trouve son fondement dans

l’histoire naturelle de l’espèce humaine ». Des postulats de nature

méthodologique ne peuvent être arbitraires ou prescriptifs, en tant qu’ils

tiennent à la nécessité d’intérêts de connaissance qui ne sont pas à notre

discrétion.

(2) « La connaissance est un instrument d’autoconservation dans la

même mesure qu’elle transcende la pure et simple autoconservation ». Les

160

intérêts qui commandent à la connaissance se définissent à la croisée des

instincts naturels de l’homme et de son arrachement par la culture aux

intérêts primaires d’autoconservation. Il ne s’agit pas seulement de

reproduire la vie, mais encore d’exciper des buts.

(3) « Les intérêts qui commandent la connaissance se forment dans le

milieu du travail, dans celui du langage et dans celui de la domination ».

Aussi les retrouve-t-on au niveau des « fonctions du moi » : les processus

d’apprentissage permettent l’adaptation aux conditions de vie extérieure ;

les processus de formation au monde vécu social ; et l’individuation

l’intégration des astreintes de la normativité sociale.

(4) « Dans l’autoréflexion, la connaissance et l’intérêt sont confondus ».

Dissymétrie faisant de l’autoréflexion le seul parmi les processus de

connaissance dont l’intérêt soit visé pour soi-même ; donc se redouble de

manière fractale au niveau supérieur : la réflexion poursuit

l’accomplissement de la réflexion comme telle.

(5) « L’unité de la connaissance et de l’intérêt se confirme dans une

dialectique qui, à partir des traces historiques du dialogue réprimé,

reconstruit ce qui a été réprimé ». La communication est tributaire de

conditions que la théorie traditionnelle tient pour acquises, mais qui se

heurtent dans les faits à des obstacles. Il reviendrait à la philosophie de

dénoncer ces coactions pour augurer d’une émancipation par le dialogue.

- Les sciences ont conservé de la philosophie l’idéal d’une théorie pure.

Aussi ne pensent-t-elle pas leurs intérêts, non plus que leurs axiomes ou

leurs mobiles ; et moins encore leurs conséquences. L’illusion d’objectivité

leur offre d’avancer sans « faire de politique » (et de se faire servantes des

idéologies). Revers de la médaille, elles s’associent les écueils du scientisme

et de la déshumanisation. D’une part, la conception positiviste que les

sciences nomologiques se font d’elles-mêmes consacre la supplantation de

l’action libre et éclairée par l’expertise technique. L’objectivisme à l’aune

des sciences herméneutiques délégitime ensuite tout projet d’appropriation

critique des traditions vivantes au profit d’un savoir hors-sol et qui n’engage

à rien. Enfin, par cela seul que la philosophie critique dénie ses intérêts et

sacrifie au mythe de la théorie pure, elle conduit à plaider une vision

idéologique et sans alternative du progrès historique.

- Et l’auteur d’en conclure qu’aussi longtemps que la science naturelle et la

science de l’esprit seront envisagées comme des théories pures exemptes

161

d’intérêt, elles demeureront inaptes à empêcher l’élargissement de la

rationalité instrumentale et stratégique aux relations d’interaction

humaines. Habermas se départit toutefois d’Husserl en cela qu’il ne pense

pas utile d’admettre une théorie renouvelée pour rompre avec

l’objectivisme ; mais bien plutôt, fidèle à cette dernière – « donc en y

renonçant » – en excipant la solidarité que dissimule l’objectivisme entre la

connaissance et l’intérêt. Ainsi seulement seraient réalisées les conditions

d’une discussion publique exempte de domination.

Ian Hacking (1936-20XX)

Principales contributions :

- Entre science et réalité. La construction sociale de quoi ? (1983)

- Concevoir et expérimenter (1989)

- L'Émergence de la Probabilité (2001)

- Les Fous voyageurs (2002)

- L'Ouverture au probable (avec Michel Dufour) (2004)

- L’Âme réécrite. Étude sur la personnalité multiple et les sciences de la mémoire (2006)

Concepts et idées-forces :

- Rôle de l’expérimentation dans la révolution intellectuelle du XVIe siècle.

- « Archéologie » de la notion de probabilité.

- Typologie des styles de raisonnement scientifique (« styles of scientific

reasoning ») :

(1) Le style du laboratoire, apparu au XVIIe siècle, étudié par Hacking

dans Concevoir et expérimenter. Aboutit à redéfinir le rôle de la

philosophie des sciences, destinée à mettre en lumière les pratiques

scientifiques qui transforment le monde, parallèlement aux théories qui

cherchent à le représenter.

(2) Les statistiques et les probabilités, nées au XIXe siècle, analysées dans

L'Émergence de la probabilité. Occupent une place de plus en plus

importante dans les modèles scientifiques qui renoncent au déterminisme

strict après avoir pris acte des phénomènes de dépendance extrême

conditions initiale, des théories du chaos, de la physique quantique

162

probabiliste, des systèmes à l’équilibre, du paradigme de la complexité, des

facteurs subjectifs en sciences humaines, etc.

- Influence de la classification. Le descriptif, en sciences humaines

spécifiquement, ne peut être dissocié du normatif, non plus que du

prescriptif. Il y a un effet en retour de la classification des individus sur les

individus classés, en sorte ces derniers adoptent des comportements qui

peuvent ou bien entériner post hoc une classification non pertinente (effet

Pygmalion (/Rosenthal & Jacobson), effet Hawthorne ou « menace du

stéréotype ») ou bien défaire la pertinence de cette classification. Thèse

étayée par des études de cas exposés dans L’Ame réécrite et Les Fous voyageurs.

Ernst Haeckel (1834-1919)

Principales contributions :

- Natürlichen Schöpfungsgeschichte (1868)

- Anthropogénie (1874)

Concepts et idées-forces :

- Introducteur, en 1866, de la notion d’« écologie » (« œcologie », selon sa

graphie personnelle), terme dérivé du grec oikos signifiant la « maison » ;

par extension, l’habitat naturel. L’écologie a pour objet d’étude les relations

entretenues par les organismes et leur environnement.

- Avec Alexandre Kovaleski (1840-1901) qui met à jour à partir du

développement de deux organismes marins et de l’embryon humain un lien

entre les vertébrés et les invertébrés, participe à l’essor de l’embryologie.

- Loi de biogénétique fondamentale de la récapitulation : « L’ontogenèse est

une courte récapitulation de la phylogénèse » (1866). Le développement des

embryons voit se succéder les uns aux autres l’ensemble des stades

morphologiques qui ont été ceux de l’évolution passée de son espèce. Un

pont jeté entre la théorie évolutionniste et la biologie du développement.

- Usage pionnier de l’arbre phylogénétique (faisant valoir trois règnes)

comme modèle pour représenter les mécanismes d’évolution en biologie.

L’idée lui en est inspirée par son ami August Schleicher qui procédait de la

même manière en linguistique. Aujourd’hui remplacé par les modèles

cladistiques et les phylogrammes.

163

- Premier à proposer l’idée d’une origine commune de tous les organismes,

de la même manière que la linguistique avançait l’hypothèse d’une langue

mère.

- Collaboration art-science. Omniprésence de la symétrie dans la nature,

beauté de l’univers biologique. Haeckel fut notamment rendu célèbre par

ses esquisses. Émergence du genre hybride de l’Atlas.

- Des enjeux politiques. Un usage de la science à double tranchant. Mise au

service de l’idéologie, peut aussi bien servir à disqualifier l’idée d’une

supériorité ontologique d’une classe sociale telle que la noblesse, qu’à

promouvoir la supériorité de la race blanche aryenne. Voir aussi l’affaire

Lyssenko.

Werner Heisenberg (1901-1976)

Principales contributions :

- Les principes physiques de la théorie des quanta (1932)

- La nature dans la physique contemporaine (1962)

Concepts et idées-forces :

- Mécanique quantique.

- Relations d’indétermination. Maladroitement repris sous l’expression de «

principe d’incertitude ».

Carl G. Hempel (1905-1997)

Principales contributions :

- Aspects of Scientific Explanation and Other Essays in the Philiosophy of Science (1945)

- « The theorician dilemma », dans Minnesota Studies in the Philosophy of Science 2, p. 173-226 (1958)

- Philosophy of Natural Science (1966)

Concepts et idées-forces :

- Paradoxe de Hempel, aussi appelé le paradoxe du corbeau. La loi logique

de contraposition astreint à tenir pour équivalentes les propositions « Tous

les corbeaux sont noirs » et « Tout objet non noir est autre chose qu'un

corbeau » (ou « Tout non-noir et un non-corbeau »). Il en ressort que toute

164

observation d’objets non-noirs (un crayon à papier, un parapluie) contribue

à corroborer que les corbeaux sont noirs. L’ornithologue n’est pas même

contraint de quitter sa chambre pour faire l’épreuve de sa proposition ; d’où

l’autre appellation sous laquelle l’inférence s’est fait connaître : le paradoxe

de l’ornithologie en chambre.

- Satoshi Watanabe observe, dans Knowing and Guessing (1969), qu’on

pourrait aussi bien, en induisant de ce que « Tout objet non noir est autre

chose qu'un corbeau », étayer la plausibilité de l'expression « Tous les

corbeaux sont blancs ».

- Dilemme du théoricien. Ou bien les concepts scientifiques se réfèrent au

monde empirique, mais le cas échéant, aucune explication théorique ne s’y

ajoute et la science reste une collection-classement de faits d’observation ;

ou bien nos concepts théoriques s’autorisent de processus et d’entités

purement spéculatifs, et la question se pose alors de savoir comment les

hypothèses peuvent être prédictives et d’autre part, comment les vérifier. La

question se ramène à savoir comment articuler l’abstrait et le concret,

comment des êtres et des fonctions inobservables peuvent trouver un

ancrage concret. Introduit à la controverse entre instrumentalisme et

réalisme.

Gerald Holton (1922-20XX)

Principales contributions :

- L’imagination scientifique (1981)

- Thematic Origins of Scientific Thought : Kepler to Einstein (1988)

- Victory and Vexation in Science: Einstein, Bohr, Heisenberg, and Others

(2005)

Concepts et idées-forces :

- Théorise les themata, des caractéristiques d’ordre esthétique,

métaphysique ou idéologique attribuables à une théorie, à un modèle ou à

une hypothèse et qui peuvent expliquer la préférence que lui donneront les

scientifiques au détriment d’une autre.

- Les themata servent également de critère de choix rationnel en cas de

conflit entre plusieurs alternatives d’explication, dans le cadre d’une

conception conventionnaliste de la théorie (où le réel est susceptible d’une

165

multiplicité de représentations possibles). Relèvent alors des themata les

valeurs de simplicité, d’élégance, d’unité, de fécondité, d’envergure, etc. (cf.

Anastasios Brenner). Chaque homme de science peut cultiver sa propre

hiérarchie de themata et arrêter son choix à partir d’un thema dominant en

cas de conflit inter-themata.

- L’irrationalisme apparent du processus de découverte scientifique

n’hypothèque pas la valeur scientifique des connaissances, celles-ci étant

soumises à l’épreuve expérimentale, et sujettes à des procédures de

recoupements. La science n’est pas qu’un discours illusoire, une pure

spéculation relative à une communauté de chercheurs.

David Hume (1711-1776)

Principales contributions :

- Traité de la nature humaine (1740)

- Enquête sur l'entendement humain (1748)

Concepts et idées-forces :

- Mise en question de la prétention du savoir métaphysique, obscur, abstrait

et prétentieux (= les stoïciens, Platon, Descartes et ses disciples). Il n’est

qu’un raffinement de l’opinion commune, un auxiliaire de la religion.

Critique de la théorie de l’adequatio rei et intellectus. - Sortie de la spéculation nécessaire pour s’acheminer vers une véritable

philosophie scientifique. Remplacement d’une philosophie de la

transcendance et de l’immensité par une philosophie de l’immanence qui

renvoie l’homme à sa finitude et à l’incertitude de ses facultés. La

déceptivité des sens invoquée par Descartes est amplifiée par la

reconnaissance des limites propres à notre condition : corporelle ou

complexionelle (déterminisme biologique), caractérielle (psychologique) et

sociologique (historico-géographique).

- Reprise de la critique de Locke sur les idées innées. Hume lui adjoint une

enquête sur nos facultés. Le corps source de la connaissance. En bon disciple

de Newton, approche naturaliste, physicaliste de la psychologie. Fonde le

savoir sur l’expérience à l’encontre de la dogmatique philosophique et

religieuse. Percée de l’Aufklärung.

166

- Mais le corps également organe et limite de la connaissance. On ne sort

jamais de soi. Pas de transcendance au regard du corps qui serait une «

extase » épistémologique. Nous sommes « limités à une seule planète ». À

rebours de Descartes, la substance pensante n’est pas autonome par rapport

au corps, indépendante et libre ; elle est au prorata de nos impressions

particulières (et non pas générales), de nos expériences vécues qui sont

toujours des expériences du corps. De ce qu’on le monde est objectivement,

à l’exclusion des affections que nous en avons, nous ne savons rien et ne

pouvons rien dire. Signifie également qu’il n’y a pas de vérité absolue qui

pourrait s’imposer de manière universelle ; et quand bien même il y en

aurait, aucun critère ne permettrait de l’identifier. D’où l’exigence de

tolérance, pierre d’angle de la morale humienne.

- Les idées sont bien des « perceptions de sensations » (des « impressions »

sensibles) ou bien des copies atténuées de ces impressions, des « perceptions

de réflexion » (= toute pensée réflexive). Les idées générales ou les idées

abstraites sont des idées complexes qui résultent d’une association

d’impressions simples. Dieu = un idéal parfait composé de nos idées déjà

complexe de sagesse, de bonté, d’éternité, etc. Si bien que « le pouvoir

créateur de la pensée ne monte a rien de plus qu’à la faculté de composer,

de transposer, d’accroître, de diminuer les matériaux que nous apporte

l’essence et l’expérience ».

- Toutes les opérations de l’esprit se réduisent à faire des généralisations de

différents types en vertu de la loi de connexion. L’opération de «

composition » désigne un processus de généralisation via la combinaison des

idées simples dont résulte une idée complexe. L’opération de « diminution »

généralise en faisant abstraction des particularismes. L’opération de

transposition » absolutise des qualités et les impute à des objets, telle la

sagesse, la bonté, l’éternité pour Dieu.

- La loi de connexion. Instinctive, naturelle, elle préside au rassemblement

de la diversité de nos expériences, unit les impressions distinctes, ordonne

le disparate avec méthode pour construire nos représentations. Se subdivise

en principe de ressemblance (régnant sur l’imagination), de contiguïté

(régnant sur la perception) et de causalité (règne sur la raison). Nota : les

mêmes principes que ceux mis en œuvre par la magie traditionnelle.

- Caractère subjectif de la connexion qui se réduirait à une « vue de l’esprit

». Elle ne dit rien de certain sur les rapports réels qui unissent les objets,

167

non plus que sur leur essence. La connexion n’est pas observée dans la

nature, elle est induite ou projetée. « Tous les événements paraissent

entièrement détachés et séparés les uns des autres : un événement en suit

un autre mais nous ne pouvons jamais observer aucun lien entre eux. Ils

semblaient être en conjonction mais non en connexion […] nous supposons

une connexion entre eux et un pouvoir dans l’un qui lui fait produire l’autre

avec la plus puissante nécessité » (Enquête sur l'entendement humain,

section II).

- Influence de la physique newtonienne. Hume transpose à la raison et à

l’entendement la loi de l’attraction universelle. Cette loi conduit l’esprit à

rapprocher des sensations disparates et des objets distincts ainsi que des

événements qui, en réalité, ne se répètent jamais à l’identique. La science

peut induire des lois générales de l’observation de phénomènes semblables –

mais il n’y a pas de phénomènes absolument semblables.

- Tout jugement dérive de l’expérience. Ni cognitif, ni intuitif. C’est le

credo de l’empirisme ; contra l’idéalisme de Descartes pour qui nous

connaissons par les idées, à la lumière de l’entendement qui doit ensuite

coïncider avec la chose extérieure. Deux facultés de l’esprit : a)

l’imagination rassemble et b) la raison corrige. La raison rectifie à la lumière

de l’expérience l’errance ou l’inadéquation de nos sens (exemple du

phénomène de réfraction sur le bâton immergé dans l’eau). La raison ne

produit rien ; elle organise le donné sensitif. Elle n’est pas fondatrice ou

source de la connaissance, mais organisatrice et rectificatrice. Un autre

usage de la raison – celui qui convient aux philosophes – peut consister à

rapporter les idées aux expériences dont elles sont tributaires, à démêler le

spéculatif complexe en unités de sensations simples (méthode analytique) :

âme, Dieu, volonté libre, etc., tout cela peut être décomposé, analysé,

expliqué par la loi de connexion. Remise en cause de l’existence réelle des

entités abstraites. Lutte contre la tendance de la métaphysique

traditionnelle à la substantialisation (du sujet, du monde, etc.). Hume ouvre

en ce sens la voie à la critique de Nietzsche.

- La connexion inférée entre les idées est également présupposée constante

et invariable. Nous voulons croire que de la même cause suivra le même

effet, toujours et en tout lieu (= principe d’invariance par translation dans le

temps et l’espace). La première condition de la science est en effet que la

nature ne se contredise pas. Mais ce qui a valu dans le passé, rien ne nous

168

garantit en rien que cela vaille encore dans le futur. Rien ne garantit au

reste que ce qui vaut pour tel objet peut être extrapolé à tel autre objet,

nécessairement distinct. On ne peut induire du même à l’autre.

- Conséquence : la vérité n’est qu’une hypothèse massivement consentie,

rendue probable par la récurrence de certaines connexions. Raisonnement

subjectif sur la base d’apparences qui tire toute sa pseudo-légitimité de

présuppositions concernant la similitude et la connexion de certains faits.

Rien ne prouve, rigoureusement et logiquement parlant, que le soleil se

lèvera à nouveau demain.

- Dès lors, plus de distinction entre la « vérité » scientifique et la croyance

bien-fondée ; c’est-à-dire, tout au plus, corroborée jusqu’à présent. Le moi,

le monde et Dieu, les objets spécifiques de la métaphysique spéciale,

relèvent de la croyance, de même que la stabilité que nous leur attribuons.

- La causalité comme sensation (du domaine infra-rationnel) de régularité,

fondée sur l’habitude, l’accoutumance et la ressemblance elles-mêmes

doivent être interprétées en termes de répétition. Cf. J.S. Mill, Logique des science morales. Génère une croyance érigée par Hume en loi du monde

vivant, qui ne se limite pas au monde humain. Hume laisse la question de

son fondement ouverte là ou Kant voudra y concevoir une catégorie de

l’entendement.

- Le problème de l’induction : quel que soit le nombre d’observations

corroborant une hypothèse, celui-ci ne permettra jamais de confirmer une

proposition universelle, et donc de valider une loi physique. Une seule

observation négative autorise en revanche à prononcer la fausseté d’une

proposition. Or rien ne prouve qu’il n’existe pas pour toute hypothèse au

moins une occurrence réfutative, un « cygne noir ». Dissymétrie logique.

Popper contourne le problème en remarquant que la science réfute ou bien

qu’elle corrobore plutôt qu’elle ne confirme.

- Identifier des différences et des répétitions, associer des idées et dresser

des constats de régularité présuppose la mémoire qui enregistre l’expérience

passée : « La vérité est qu’un raisonneur inexpérimenté ne pourrait

absolument pas raisonner s’il était absolument inexpérimenté » (Enquête sur l'entendement humain). Pose une limite à l’empirisme qui ne peut se

satisfaire des données immédiates de la perception.

- Loi (ou guillotine) de Hume : on ne peut déduire le « devoir-être » (ought)

de l’« être » (is).

169

- Fourche (ou maxime) de Hume (= croisée des chemins) : l’ensemble des

vérités qui peuvent être formulées se distribue entre celles concernant les

relations d’idées (les énoncés logiques, mathématiques, universels et

nécessaires) et les relations de choses (relevant des faits, historiques,

empiriques, contingents et particuliers) (Traité de la nature Humaine, Livre

I).

- Réhabilitation de la méthode épicurienne qui induit une loi générale

d’une pluralité de faits singuliers, à l’encontre de la méthode mathématique

de l’Académie, rationaliste et déductive. Hume se distancie néanmoins du

réalisme d’Épicure, en prenant acte du fait que les impressions sont toujours

subjectives et ne nous permettent pas de percer le voile des apparences en

direction de la chose en soi = en dehors du soi. Renoncement à connaître

l’essence des choses. Influence Kant : c’est la lecture de Hume qui le réveille

de son « sommeil dogmatique » (leibnizien) et donne à penser une nouvelle

inflexion en direction du criticisme. Mais à la différence de Kant et

d’Épicure, orientation sceptique : « le doute s’accroît chaque fois que nous

portons plus avant notre réflexion ».

- Donc la philosophie (qui doute) s’élève contre l’instinct (qui détermine à

croire). Machine à déconstruire les préjugés. Il s’agit pour le philosophe de «

créer une nouvelle habitude pour détruire l’habitude ». Sachant que cette

attitude est bannie de la vie courante, où nous devons feindre de croire sans

croire aux « vérités » du monde.

Point sur le problème de l’induction

Induire, c’est dégager des lois universelles par voie d’inférence sur la base

d’observations toujours uniques et singulières. Observant, par exemple, que

tous les députés que nous connaissons sont corrompus ; on pourrait inférer

que tous les députés sont corrompus. Ainsi procède la science (avec un rien

plus de rigueur) pour établir ses lois, lesquelles ne diffèrent pas

radicalement des lieux communs. Beaucoup s’en faut toutefois que

l’extension ainsi réalisée de la proposition selon laquelle les députés sont

corrompus (de même que les corps seraient pesants) puisse être entérinée, et

prétendre à une certitude apodictique. Le prédicat « corrompu » ne se

trouve pas compris dans le sujet « député » ; si bien qu’il faut en passer par

170

une expérience pour formuler un jugement synthétique. Or l’expérience ne

livre qu’un échantillon d’observation. Nous n’avons d’expérience que d’un

nombre limité de cas ; et rien ne garantit qu’un député honnête existe en

retrait de la foule des députés véreux. C’est tout le paradoxe de l’induction :

elle peut conduire l’esprit aux vérités les plus utiles ; elle peut tout aussi

bien nous induire en erreur.

Définition et thématisation

Ce rapprochement est sans nul doute osé ; toutefois, une première intuition

de l’induction pourrait être conçue dans le fameux symbole de la caverne de

Platon (République, VII). Il propose une méthode (meta hodos : le

cheminement, la voie parallèle) pour encadrer la démarche ascendante du

philosophe s’élevant depuis les phénomènes instables et périssables aux

êtres intelligibles. Méthode que le Bacon du Novum Organum opposera,

quelque deux millénaires plus tard, au raisonnement syllogistique de

l’Organum aristotélicien, délivré jusqu’alors ex cathedra, dans tous les sens

du terme. Si, comme s’en ouvre le doyen de l’Académie, il faut partir de

l'épaisseur des choses pour y mettre de l’ordre, la montée hors de la caverne

n’anticipe pas sur autre chose que l'induction. Voudrions-nous déterminer

le ti esti la Beauté ? Savoir ce qu’est le Beau en soi et non ce qui est beau par

la Beauté ? Nous partirons de ce qui reproduit ou participe de la Beauté,

donc du spectacle des existants. Non pour s’y arrêter, tel le sophiste Hippias,

captif de ses illusions cosmiques, mais pour mieux remonter jusqu’à l’Idée

qui seule peut faire l’objet d’une connaissance. La science est science des

êtres et non science des apparaîtres. Il n’y a de ceux-ci qu’une opinion

possible, au mieux une opinion accompagnée de raison (orthè doxa). La

science est dialectique ; la dialectique est abstraction. Platon aussi, comme

les physiologoï, chemine à sa manière vers les principes.

Nous y gagnons la possibilité d’une science. Mais avec elle,

inséparablement, la possibilité de l’erreur. Tout avantage a ses

inconvénients. Nous l’avions suggérée tantôt : l’écueil de l’induction utilisée

en guise de méthode scientifique, c’est toujours la limite de nos

expérimentations. L’universel n’est pas dans l’expérience. L'expérience seule

ne livre rien d'universel. Non plus que la pluralité des expériences : celle-ci

171

ne saurait valoir pour la totalité qu’on en peut faire (ou pas). La multiplicité

n’épuise pas l’intégralité des cas passés, présents et à avenirs qu’il faudrait

observer.

S’ajoute à cela qu’en dépit des protestations de Bacon, il n’y a pas

d’expérience cruciale. Rien ne s’oppose, en théorie du moins, à ce que de

nouvelles observations consécutives à de nouvelles investigations viennent

mettre à bas les généralités que nous comptons au rang des connaissances.

Un nombre x d’observations passées conformes à une loi, si important soit-

il, constitue-t-il une preuve de ce que cette même loi s’applique dans tous

les cas possibles ? En admettant pour les besoins de la démonstration que

cette « régularité » fonctionne pour le passé, quelles raisons avons-nous de

croire qu'elle vaudra à l'avenir ? On répondra avec bon sens : parce que ce

qui était à venir est sans cesse devenu passé et que l'expérience que nous

avons acquise du « futur passé » (Russel) a toujours confirmé la pertinence

de cette régularité. Mais, de toute évidence, une telle réponse est circulaire.

Si nous avons l’expérience des futurs passés, nous n’avons pas celle des

futurs à venir. Ressembleront-ils au futur passé ? La question reste ouverte.

Elle ruine toute certitude.

Platon, si l’on en croit une anecdote rapportée par Diogène Laërce (Vies et doctrines des philosophes illustres), avait un jour défini l’homme comme un

bipède sans plume. Que vaut une telle proposition ? Il connaissait des

hommes, il ne les connaissait pas tous. Que valent dès lors ses inférences ?

Diogène Laërce raconte que Diogène de Sinope, ayant eu vent de cette

définition, se présenta à son Académie muni d’un poulet déplumé en lui

faisant valoir qu'il répondait à sa définition de l'homme. D’où

l’amendement que fit Platon à sa caractérisation : « … et qui a des ongles

plats ». Un pas de plus. Qu’arrivera-t-il le jour où l’homme, bipède sans

plume (aux ongles plats), donnera naissance au premier homme ailé ?

S’inscrire en faux contre cette hypothèse revient à refuser les théories de

l’évolution et donc à faire de l’homme une espèce immuable. Le brûlera-t-

on, cet homme-oiseau, tel l’orgueilleux Icare, pour avoir défié nos

concepts ? L’adorera-t-on, ange célicole, pour ne le pas compter parmi les

hommes ? Nous avons vu des cygnes ; ils étaient blancs ; nous en avons

conclu que tout cygne était blanc. Personne, pourtant, ne pouvait se vanter

172

d’avoir vu tous les cygnes. Quel ne fut pas notre étonnement lorsque nous

découvrîmes des cygnes noirs en Australie !

Dernier exemple, devenu cas d’école, celui de Socrate mort. Après avoir

souffert (de loin) l’exécution de son mentor, Platon croit pouvoir affirmer

que tout homme est mortel. Pour être à même de valider cet énoncé, il

faudrait expérimenter sa pertinence sur la totalité des hommes – ou bien

cela ne serait qu’une opinion mal fagotée. Par où l’on s’aperçoit que nos

savoirs induits ne sont fondés que sur un vice de raisonnement. L’erreur est

virtuellement présente dans toute proposition induite. On voudrait croire

qu’au moins l’opération inverse – la déduction – ne saurait être atteinte par

cette épée de Damoclès. Passer du général au singulier serait logiquement

moins périlleux que de passer du singulier au général, dès lors que le

général comprend le singulier. Une proposition déduite ne saurait en

conséquence prêter le flanc aux mêmes accusations qu’une proposition

induite. En est-on sûr ?

La déduction suppose en premier lieu que l’on connaisse à quelle loi

générale un phénomène particulier doit être rapporté. Déduire, c’est donc

déjà dans une certaine mesure homologuer une pétition de principe. Mais

nous ne sommes pas au bout de nos peines : si par définition le déductif juge

le particulier d’après le général, alors le déductif en-soi n’existe pas ; car il

faut bien que les lois générales d’après lesquelles nous jugeons du particulier

aient préalablement été induites de phénomènes particuliers. En déduisant,

nous générons par conséquent, potentiellement, des fictions au carré. Si

bien que l’impossibilité de garantir une induction frappe bien l’ensemble de

nos jugements d’une insécurité propice au scepticisme.

Résolution et dépassement

Faute d'être conséquente dans l’absolu, une opération telle que l’induction

peut-elle être fondé ? Et dans quels termes ? Et à quelles conditions ?

Répondre à cette question suppose d’avoir effectué préalablement les

clarifications nécessaires. Deux sortes d’induction peuvent être distinguées.

Hume le premier les a formalisées dans son Enquête sur l’entendement

173

humain en distinguant des « relations d’idées » les « choses de fait ». Les

« relations d’idée » sont du domaine du raisonnement mathématique. Elles

ne relèvent pour cette raison que des principes de la logique formelle. Ne

faisant pas appel à l’expérience sensible (Piaget et Poincaré ne laisseront pas

de contester cette assertion), elles ne sont pas ou peu sujettes à controverse.

Les « choses de fait », relevant cette fois de l’induction dite empirique,

apparaissent comme de juste infiniment plus contestables. C’est de celles-ci

que nous devons traiter.

Le soleil se lèvera-t-il demain ? s’interroge Hume, méditatif. La question

pourrait faire sourire ; on en mesure rarement toute la portée. Adam a

craint la première fois qu’il vit le soleil disparaître. La formule tombe six

fois dans la Genèse : « Il y eut un soir, il y eut un matin ». En ira-t-il de

même à l'aube du septième jour ? Rien, nonobstant l’habitude, ne nous

permet de l’affirmer. Sans l’habitude, pas d’anticipation, pas de calcul, pas

de science constituée. C’est l’habitude qui, selon Hume, constitue le ressort

de l’induction. Mais l’habitude elle-même n’est pas première : la

conditionne cette faculté de l'imagination à percevoir une régularité dans le

lacis des phénomènes. Sans cette disposition, aucune « répétition » ne

produirait en nous l’illusion réductrice de l’habitude, ni, par voie de

conséquence, de matière susceptible de faire l’objet d’une généralisation.

Aussi, la notion de causalité, liant deux phénomènes dans une relation de

cause à effet, vient a posteriori, à proportion que nous nous habituons à

constater qu’une situation x prélude à une situation y, comme le jour à la

nuit. Il n’y a pourtant aucune nécessité logique qui lierait telle situation x à

telle situation y. Le septième jour verra le soleil se lever, non parce que le

soleil se lève, mais parce qu’il s’est levé les six jours précédents. Sol invictus = sol invincibilis ? Qui peut savoir ?

La solution kantienne (ou son échappatoire) pour fonder l’induction fut

d’introduire des cadres de la perception innés. Il forgea dans cette intention

le concept-valise de jugement synthétique a priori. Jugement dit

synthétique en tant qu’il ajoute quelque chose à son objet (tous les corps

sont pesants), à l’opposé du raisonnement analytique, par référence auquel

le prédicat se trouve inclus dans le sujet (tous les corps sont étendus).

Jugement a priori, du reste, en tant qu’il précède l’expérience.

174

Les catégories pures qui rendent possible ces jugements sculptent les cadres

de la perception de sorte à adapter le donné intuitif de l’expérience sensible

à la structure universelle – mais l’est-elle véritablement ? – de

l’entendement humain. Nos connaissances proviennent de l'expérience,

mais ne nous sont données que formatées par une tectonique de

l’entendement. Le sens interne requiert un temps non relatif pour cohérer

la succession de nos pensées, le sens externe un espace euclidien pour se

représenter la position des choses ; à la jonction des deux naît la

« causalité ». Plus tard, la découverte des géométries non-euclidiennes, des

espaces riemanniens, de la courbure de l’espace-temps, de la mécanique

quantique et des étranges propriétés des particules subatomiques

souligneront l’inadéquation de ces cadres et catégories de la perception.

C’en serait plus qu’assez pour persuader certains du caractère construit ou

constitué de ces cadres de pensée. Affirmation portée à son point d’orgue

par les constructivistes radicaux, qui leur évite d’avoir à se prononcer sur la

question de la vérité et du réel. (Existe-t-il seulement ?)

Mais il y a loin que le problème de l’induction ait été résolu par Kant. Le

criticisme n’aura fait que le déplacer. Que la causalité n’appartienne pas à la

structure inconnaissable de la réalité mais soit introjectée ou projetée par le

sujet ne sécurise en rien ses résultats. Un changement de stratégie s’impose.

Et c’est aux empiristes logiques que nous devrons ce renouveau, au prix

d’un renoncement épistémologique de taille. De rigoureuse et prédictive, la

science devient probabiliste avec Carnap et Reichenbach. Le raisonnement

inductif se doit dès lors d’abandonner toute prétention à établir la vérité

d'une proposition pour se contenter de lui conférer « une certaine

probabilité », appelée « degré de confirmation » ou « probabilité logique ».

L'idée rectrice étant que la répétition d'un phénomène augmente la

certitude que nous avons de voir ce phénomène se reproduire. Par

conséquent, le fait d’une induction n’est pas certain ; tout juste et il...

probable. « Probable » n’est ni vrai ni faux, seulement plus vraisemblable,

plus prévisible.

On ne peut pourtant nier que la réponse des positivistes logiques paraît

175

moins constituer une solution qu’une pirouette rhétorique. Aussi, avec la

reformulation des hypothèses en termes de probabilité, c’est donc la

possibilité même d’un « savoir scientifique » qui vole en éclat. La science

n’est plus une discipline achevée ; elle devient dynamique, précaire. Un

philosophe comme Karl Popper peut alors affirmer que les théories ne

peuvent plus être validées dans l’absolu, même sur la base d'un très grand

nombre d'observations empiriques (La logique de la découverte scientifique). Dans le domaine de la science empirique, la vérification

devrait plutôt être assimilable à une manière de corroboration. La vérité le

cède à la versimilarité, précaire et dépendante de tests scientifiques, tests

eux-mêmes relatifs à d'autres tests précédents, toujours améliorables, jamais

définitifs.

L’induction apparaît en dernière analyse comme un outil très imparfait,

mais néanmoins indispensable à la constitution d’une science des

phénomènes : à supposer, bien sûr, que nous ayons l’humilité de

questionner consciencieusement les lois qu’une expérience ou qu’une

anomalie démentent, plutôt que de plier le monde à nos lois et catégories…

Jâbir ibn Hayyan (721-815)

Principales contributions :

- Kitab al-Kimya (Livre de la composition de l'alchimie), comprenant la «

Table d'émeraude » (Tabula Smaragdina) dans sa version arabe ; traduit par

Robert de Chester en 1144.

- Kitab al-Sab'een (Les 70 livres), traduit par Gérard de Crémone avant

1187.

- Livre du Royaume, Livre de l'Equilibre, Livre de Mercure Oriental (VIIIe

siècle)

Concepts et idées-forces :

- Alchimiste arabe d’origine perse connue en Occident sous le patronyme

latinisé de Geber. Auteur et compilateur prolifique, à l’origine d’une vaste

production bibliographique. Plus de cent traités recensés à ce jour sur des

sujets hétéroclites, dont vingt-deux consacrés à l’alchimie. C’est en

176

particulier son apport dans cette discipline qui influence les alchimistes

européens de l’ère médiévale

- Bien qu’alchimiste intimement convaincu de la possibilité de la

transmutation, prend ses distances à l’égard des traditions ésotériques

propres à cet art occulte. Contribue à l’acheminement de l’alchimie comme

pratique hasardeuse à la chimie moderne moyennant la théorisation des

réactions chimiques fondamentales que sont la cristallisation, la distillation,

la calcination, la sublimation et l'évaporation, ainsi que la classification des

métaux selon leur qualité (sec, humide, chaud, froid), complémentaire des

quatre éléments aristotéliciens. Analyse et synthèse des corps en fonction

de leurs éléments constitutifs.

- Transmutation envisageable en restructurant les propriétés des métaux.

Cette théorie donne à la quête de l’al-iksir, l'élixir supposé permettre ce

virement, ses lettres de noblesse. Équivalent de la synthèse de la pierre

philosophale, grand œuvre de l’alchimie européenne.

- Représente, avant Galilée, un exemple de conciliation de la théorisation et

de l’expérimentation.

François Jacob (1920-2013)

Principales contributions :

- La Logique du vivant, une histoire de l’hérédité (1970)

- « L'évolution sans projet » dans Le Darwinisme aujourd'hui (1979)

- Le Jeu des possibles. Essai sur la diversité du vivant (1981)

- La Statue intérieure (1987)

Concepts et idées-forces :

- Soutient une approche biologisante des organismes vs. l’approche vitaliste

(Canguilhem et les médecin de l’École de Montpellier).

- Mise au point, en collaboration avec Jacques Monod, du modèle de l’«

opéron », fondée sur la notion de « programme génétique ». Décrit

l’interaction des différents types de gènes et des protéines au moment de la

transcription de l’ARN.

Hans Jonas (1903-1993)

Principales contributions :

177

- Le Principe responsabilité (1979)

- Pour une éthique du futur (1990)

Concepts et idées-forces :

- Heuristique de la peur. Prescrit un pessimisme préventif systématique au

regard des technologies. La responsabilité jonassienne est celle qui interdit à

l’homme de s’engager en toute action qui pourrait compromettre ou

dégrader irréversiblement l’existence des générations futures.

- Se retrouve dans le droit positif français (directives communautaires,

Constitution de la Ve République) sous la formule de « principe de

précaution ».

- S’oppose au « principe d’innovation » que d’aucuns estiment indispensable

au développement de la connaissance, des sciences et technologies. Toute

évolution comporte en elle sa part de risque.

- Concept d’obsolescence de l’homme. S’inscrit dans la lignée de l’anti-

utopisme de Günther Anders, ancien élève de Martin Heidegger (pour qui «

la science ne pense pas » : elle ne pense pas ses conséquences).

- Arno Münster, dans son ouvrage Principe responsabilité ou principe espérance, oppose la pensée de Jonas à celle du philosophe marxiste Ernst

Bloch, auteur du Principe espérance. Au conservatisme de l’un, échaudé par

l’industrie des camps de concentration, s’oppose l’humanisme technophile

de l’autre favorable à l’automation, à la libération de l’homme par la

machine-outil.

- Nouvelle actualité du « bio-luddisme » de Jonas dans le contexte des

controverses autour de la bioéthique et du transhumanisme.

Emmanuel Kant (1724-1804)

Principales contributions :

- Critique de la raison pure (1781 ; 1787)

Concepts et idées-forces :

- Idéalisme transcendantal, criticisme. Motif de la première Critique :

restreindre les prétentions judicatives de la raison aux objets de l’expérience

possible. Mettre un terme aux querelles de clocher qui font de la

métaphysique un « champ de bataille ».

178

- Révolution (anti)copernicienne dans l’ordre de la connaissance. Ce n’est

pas l’objet mais le sujet qui impose ses règles au phénomène.

- Jugements analytiques vs. synthétiques (a priori/a posteriori). Comment

des jugements synthétiques a priori sont-ils possibles ?

- Esthétique transcendantale : l’espace et le temps comme formes de

l’intuition sensible, la seule qui nous soit accessible ; schématisme :

catégories (purs et empiriques) de l’entendement. Nécessité de combiner

expérience et entendement pour la synthèse des connaissances : « De ces

deux propriétés l’une n’est pas préférable à l’autre. Sans la sensibilité, nul

objet ne nous serait donné ; sans l’entendement, nul ne serait pensé. Des

pensées sans matière sont vides ; des intuitions sans concepts sont

aveugles ». Noter que Kant n’exclut pas l’éventualité de formes alternatives

de l’intuition sensible (par ex., chez d’autres espèces). Nous ne pouvons

cependant nous les représenter.

- Distinction phénomènes/noumènes (choses « considérées comme » en soi).

Le noumène comme concept « problématique » au sens kantien, limitatif,

apophatique. On ne peut rien en dire, pas même qu’il « existe » ; pas même

qu’il « cause » le phénomène. Aucunes catégories ne lui est applicable. Il est

un postulat de la raison critique. Préserve ce faisant contre l’accusation de

phénoménisme (cf. Berkeley), notamment imputable à la première version

de la Critique, justifiant le rectificatif de la seconde Préface.

- Ne disposant pas d’une intuition intellectuelle qui nous ferait appréhender

la chose en soi, on ne peut connaître le monde indépendamment de la

manière dont il nous apparaît, sous un rapport phénoménal.

Lord Kelvin (1824-1907)

Concepts et idées-forces :

- William Thomson, premier baron Kelvin of Largs, connu pour ses travaux

en électricité, en géothermie et en thermodynamique.

- Porte-parole d’une opinion présentée comme majoritaire chez les

physiciens de la fin du XIXe siècle : « La physique est définitivement

constituée dans ses concepts fondamentaux ; tout ce qu’elle peut désormais

apporter, c’est la détermination précise de quelques décimales

supplémentaires. Il y a bien deux petits problèmes : celui du résultat négatif

de l’expérience de Michelson et celui du corps noir, mais ils seront

179

rapidement résolus et n’altèrent en rien notre confiance… » (Discours

inaugural du XXe siècle à la Société anglaise de physique, en 1892). Cette

déclaration précède de peu les deux révolutions majeures que seront la

relativité et la physique quantique.

- R.P. Feynman va nuancer cet état des lieux, selon lui trop précipité et

caricatural : « On entend souvent dire que les physiciens dans la dernière

partie du XIXe siècle estimaient connaître toutes les lois de de physique et

que la seule chose importante qui leur restait à faire était de calculer

quelques décimales de plus. Quelqu’un a pu dire cela une fois, et d’autres

l’ont copié. Mais une lecture attentive de la littérature de cette époque

montre que quelque chose les préoccupait tous ».

- Formulation dite « historique » du deuxième principe de

thermodynamique ou principe de Carnot généralisé, qui établit

l'irréversibilité des phénomènes physiques, en particulier lors des échanges

thermiques. Rupture d’avec le cadre newtonien. Récuse également

l’hypothèse de moteur ou de mouvement perpétuel (surunité).

- Introduction du zéro absolu en thermodynamique (−273,15°C ; inaccessible

du fait de propriétés quantiques). Donne son nom à une nouvelle unité de

mesure : le degré Kelvin.

- Leibniz opposait à Descartes que seule, à l’occasion d’un choc entre deux

corps, se conservait la force motrice ou « force vive » (vis viva), et non la

quantité de mouvement. La force vive définit ici le double de ce que Lord

Kelvin va baptiser l'énergie cinétique.

Johannes Kepler (1571-1630)

Principales contributions :

- Le mystère cosmographique (Mysterium Cosmographicum) (1596)

- Astronomia pars Optica (1604)

- Astronomie Nouvelle (Astronomia Nova) (1609)

- Harmonices Mundi (1619)

- Le Songe ou astronomie lunaire (Somnium, seu opus posthumum de astronomia lunari) (1634)

180

Concepts et idées-forces :

- Contexte de superstition, en apparence peu favorable à l’émergence d’une

science matérialiste glorifiant la raison. Mère accusée de sorcellerie et tante

brûlée sur le bûcher. Kepler est pour sa part un fervent défenseur de

l’astrologie, convaincu de l’influence de la position des astres sur l’existence

humaine (sa mauvaise naissance explique son mariage désastreux et son état

de santé) ainsi que sur les phénomènes météorologiques. Promu à la

fonction d’astronome impérial après le décès de Tycho Brahé, reprend son

œuvre. Oppose à l’astrologie populaire ou traditionnelle une astrologie

savante, d’une valeur et d’une rigueur égale à celle de la physique des

mathématiques ; et c’est sur la physique (l’astrophysique) qu’il entreprend

de fonder cette nouvelle science avec le De fundamentis astrologiae de

1601. Contre les objections des astrologues qui s’imaginent ces disciplines

comme relevant de deux sphères hermétiques, il oppose le Tertius interveniens de 1610.

- De l’astronome son professeur Michael Maestlin, reçoit en marge de

l’enseignement du modèle géocentrique de Ptolémée, celui de

l’héliocentrisme de Copernic dont il devient le défenseur.

- Trois lois de Kepler décrivant le mouvement des planètes sur leur orbite.

(1) loi des orbites = trajectoire elliptique des planètes ; à rebours d’Aristote

qui la tenait pour circulaire. Abandon du système des épicycles de

Ptolémée. (2) loi des aires ; (3) loi des périodes.

- Prodromes de la loi de la gravitation universelle : « Deux corps voisins et

hors de la sphère d'attraction d'un troisième corps s'attireraient en raison

directe de leur masse » (Astronomie Nouvelle). Newton s’en souviendra.

- Expérience de pensée sous la forme du premier ouvrage de science-fiction

: le Songe, publié à titre posthume en 1634. Décrit la perception d’un

Sélénien, les variations de la pesanteur le long de l’axe Terre-Lune et

entrevoit, à mi-chemin de ces deux orbes, l’état d’apesanteur spatiale. Aussi

une arme de guerre en faveur de la doctrine copernicienne : « Le but de

mon Songe est de donner un argument en faveur du mouvement de la Terre

ou, plutôt, d'utiliser l'exemple de la Lune pour mettre fin aux objections

formulées par l'humanité dans son ensemble qui refuse de l'admettre » (Le Songe ou astronomie lunaire).

- Devient à Prague assistant de l’astronome danois Tycho Brahe et travaille

à partir de ses observations. Le Mysterium Cosmographicum de 1596

181

confirme sa profession de foi copernicienne et tente de répondre aux trois

questions du nombre des planètes, de leur distance par rapport au soleil et

de leur vitesse. Il en ressort un modèle d’univers basé sur l’emboîtement de

cinq polyèdres réguliers, ou solides de Platon, se comprenant les uns les

autres au sein d’une structure gigogne, occupant chacun un intervalle entre

les six planètes connues à son époque, de Mercure à Saturne (en incluant

mal à propos le soleil et la lune). Abandon des sphères armillaires

aristotéliciennes pour une architecture qui ne s’en présente pas moins

comme un message adressé aux hommes.

Modèle du système solaire selon Kepler

Lithographie extraites du Mysterium Cosmographicum (1596).

182

- Pionnier de l’astrophysique. Kepler entreprend une recherche des causes

aussi bien physiques que métaphysique des phénomènes célestes. Si bien

que de son argumentation concernant l’accélération des planètes à

proximité du soleil, l’historien des sciences Owen Gingerich pourra écrire

que « tout cela était de la physique et, en vertu de ce raisonnement, Kepler

est considéré comme le premier astrophysicien de l'histoire, appliquant des

principes physiques à l'explication des phénomènes astronomiques.

Maestlin ne partageait pas du tout la position de son disciple et [...] il lui

écrivit : « Je pense qu'il ne faut pas laisser les causes physiques entrer en

ligne de compte et en revanche on doit expliquer les phénomènes

astronomiques sur la seule base de méthodes astronomiques à l'aide de

causes et d'hypothèses non pas physiques mais astronomiques. En d'autres

termes, les calculs exigent que l'on s'appuie sur des bases astronomiques

dans le domaine de la géométrie et de l'arithmétique » (Owen Gingerich, Le livre que nul n'avait lu : à la poursuite du « De Revolutionibus » de Copernic, 2008).

- L’harmonie des sphères. Thème pythagoricien, reconduit par Platon,

assortissant l’astronomie à la musique. Chaque planète se trouve associée à

un thème musical dans le Harmonices Mundi de 1619 ; les notes données

par les variations de leur vitesse respective. Coïncide avec le triomphe

européen de la musique symphonique.

- Fondation de la dioptrique et mise en évidence de ses principes. Travaux

sur la nature de la lumière, sur le phénomène de réfraction et de diffraction,

sur l’usage des lentilles et des miroirs, sur la chambre obscure, tous

rassemblées dans le Astronomia pars Optica de 1604, suivi par le Dioptricae

de 1611. Kepler est convaincu que la rétine – et non le cristallin – reçoit

l’image, qu’il la reçoit de manière inversée que c’est au cerveau qu’il

appartient de la remettre à l’endroit. L’astronome lui-même (né, selon ses

dires, sous une mauvaise étoile) est devenu presque aveugle ensuite d’un

épisode de petite vérole contractée à l’âge de trois ans.

Al-Khwarizmi (c.780-c.850)

Principales contributions :

- Livre de l'addition et de la soustraction d'après le calcul indien (825)

- Abrégé du calcul par la restauration et la comparaison (830)

183

Concepts et idées-forces :

- Entre le XIIIe et le XVe siècle, l’arabe était la langue des sciences. Son

influence allait de l’Espagne jusqu’à la Chine. Son originalité lui fut déniée

par nombre d’historiens occidentaux comme Ernest Renan au XIXe siècle,

qui ne voulaient y voir qu’un moyen terme entre la Renaissance occidentale

et la science grecque. Le cas représentatif d’Al-Khwarizmi apporte à cette

vision européocentrée un démenti formel. Les penseurs arabes ont

pleinement contribué à la révolution scientifique du XVIIe siècle, qu’il

s’agisse de mathématiques, d’astronomie, de chimie ou de médecine.

- À une période consacrée à la traduction et aux commentaires des papyri

grecs succède une seconde phase d’innovation à laquelle appartient Al-

Khwarizmi, représentant de l’école de Bagdad, dont le nom allait donner le

vocable « algorithme ».

- Synthèse entre deux traditions mathématiques : celle des Grecs,

systématisée avec les Éléments d’Euclide et les travaux de Diophante

d'Alexandrie ; celle des Indiens, orientée vers les techniques de calcul.

- Donne lieu à la publication en 825 du Kitābu 'l-ĵāmi` wa 't-tafrīq bi-ḥisābi 'l-Hind, ou Livre de l'addition et de la soustraction d'après le calcul indien.

Comporte une description des chiffres « arabes » empruntés aux Indiens, et

destinés à remplacer les chiffres romains après leur diffusion au Moyen-

Orient, puis dans le Califat de Cordoue, d’où ils sont importés en Occident

par l’intermédiaire de Gerbert d'Aurillac (Sylvestre II). Cf. André Allard,

Muhammad Ibn Mūsā Al-Khwārizmī. Le calcul indien (algorismus), 1992.

- Suit en 830 la publication d’un traité de mathématiques portant sur la

résolution d’équation à plusieurs inconnues, le Kitābu 'l-mukhtaṣar fī ḥisābi 'l-jabr wa'l-muqābalah ou Abrégé du calcul par la restauration et la comparaison. Le mot « 'l-jabr »/« Al-jabr » (signifiant originellement «

restauration », « remise en place ») donnera « algèbre ». L’œuvre, en effet, ne

contient aucun chiffre, et toutes les équations sont exprimées en lettres.

- « L’événement fut crucial […] son importance n’a pas échappé à la

communauté mathématique de l’époque, ni à celle des suivantes, le livre

d’Al-Khwarizmi n’a cessé d’être source d’inspiration et objet de

commentaires des mathématiciens, non seulement en arabe et en persan,

mais aussi en latin et dans les langues de l’Europe de l’Ouest jusqu’au XVIIIe

siècle » (Roshdi Rashed, Histoires des sciences arabes, 1997).

184

- Une œuvre astrologique moins convaincante. Prédit au calife une

longévité d’encore cinquante années ; lequel calife passa l’arme à gauche dix

jours après la prédiction. Cf. Al-Tabari, cité dans Al-Khwarizmi, L'algèbre et le calcul indien, 2013.

Alexandre Koyré (1892-1964)

Principales contributions :

- Études galiléennes (1939)

- Du monde clos à l'Univers infini (1957)

- La Révolution astronomique : Copernic, Kepler, Borelli (1961)

- Études d’histoire de la pensée scientifique (1966)

Concepts et idées-forces :

- Formation en histoire des religions qui rejaillit sur sa manière

d’interpréter les grandes mutations de la science. Celles-ci traduisent des

changements radicaux de conception du monde et du rapport au monde qui

en découle, avec des ramifications philosophiques, pratiques, etc.

- La possibilité de penser certains phénomènes est tributaire des structures

mentales relatives à l’époque au sein de laquelle se meut la pensée

scientifique. Les théories ne prennent sens que replacées au sein du

paradigme (Kuhn) qui est le leur. On ne peut taxer d’absurdité à si peu de

frais le système d’Aristote, lequel avait sa cohérence et ses propres critères

de validité. Du point de vue d’Aristote, notre physique paraîtrait aberrante.

- Conception discontinuiste de l’histoire des sciences. Dans la lignée de

Bachelard et de Kuhn, Koyré pose que la science progresse à raison de

ruptures qui présupposent un remplacement des bases métaphysiques sur

lesquelles s’édifiait la science à son stade antérieur. D’où l’expression de «

révolution scientifique » pour qualifier l’essor de la physique moderne au

XVIIe siècle.

- De part et d’autre de la fracture, Koyré s’emploie à mettre à jour les

articulations majeures qui structurent les visions du monde impliquées qui,

par le cosmos pré-copernicien, qui par l’univers infini s’imposant à la suite

des travaux de Galilée : « J'ai essayé, dans mes Études Galiléennes, de définir

les schémas structurels de l'ancienne et de la nouvelle conception du monde

et de décrire les changements produits par la révolution du XVIIe siècle.

185

Ceux-ci me semblent pouvoir être ramenés à deux éléments principaux,

d'ailleurs étroitement liés entre eux, à savoir la destruction du Cosmos, et la

géométrisation de l'espace, c'est-à-dire : a) la destruction du monde conçu

comme un tout fini et bien ordonné, dans lequel la structure spatiale

incarnait une hiérarchie de valeur et de perfection, monde dans lequel « au-

dessus » de la Terre lourde et opaque, centre de la région sublunaire du

changement et de la corruption, s'« élevaient » les sphères célestes des astres

impondérables, incorruptibles et lumineux ... b) le remplacement de la

conception aristotélicienne de l'espace, ensemble différencié de lieux

intramondains, par celle de l'espace de la géométrie euclidienne – extension

homogène et nécessairement infinie – désormais considéré comme

identique, en sa structure, avec l'espace réel de l'univers. Ce qui à son tour

impliqua le rejet par la pensée scientifique de toutes considérations basées

sur les notions de valeur, de perfection, de sens ou de fin, et finalement, la

dévalorisation complète de l'Être, le divorce total entre le monde des

valeurs et le monde des faits ».

- Insistance sur le rôle de la mathématisation dans la révolution

intellectuelle du XVIIe siècle. Comme le soutenait Tannery (voir notice),

Galilée serait un théoricien autant – sinon peut-être plus – qu’un

expérimentateur. Beaucoup de ses manipulations, au reste, sont demeurées

(de manière avouée ou non) au statut d’expériences de pensée (la Tour de

Pise, etc.). La révolution scientifique du XVIIe siècle serait avant tout

consécutive à l’émergence d’une nouvelle manière de concevoir le monde,

de nouvelles valeurs et de nouvelles aspirations. L’expérimentation procède

de cette démarche plutôt qu’elle ne l’inspire, à rebours de l’interprétation

positiviste de la genèse des sciences modernes.

- Les théories sont pénétrées d’éléments extra-scientifiques, « impurs »,

irrationnels. Ces éléments peuvent être d’ordre esthétique (élégance d’une

théorie), religieux, philosophique, métaphysique, psychologique, etc. De

tels motifs sont susceptibles d’orienter la recherche bien davantage que le

credo expérimental. Koyré invoque l’exemple de la dilection galiléenne

pour la mystique solaire, de Newton alchimiste, etc.

- Que le processus de découverte ne s’explique pas intégralement par des

considérations de nature scientifique ne signifie pas que la science soit

irrationnelle, gratuite ou chimérique. Des procédures de vérifications

186

sauvent les hypothèses de l’arbitraire pur. La vérification tranche en

dernière instance.

Thomas S. Kuhn (1922-1996)

Principales contributions :

- La Structure des révolutions scientifiques (1962)

Concepts et idées-forces :

- Œuvre maîtresse de Kuhn, La structure des révolutions scientifiques peut

à bon droit être considérée comme l'une des œuvres fondatrices d'une

nouvelle approche philosophique des sciences qui s'émancipe tout à la fois

de la phénoménologie et de l'école analytique : l'épistémologie historique.

- Conception discontinuiste de l’histoire des sciences. Prenant le contre-

pied de la vision classique, cumulative, anhistorique des matières

scientifiques (celle qui voulait que la précision accrue et la collecte des faits

rapproche les théories de la vérité (cf. Popper et la notion de « versimilitude

»)), Kuhn démontre le caractère discontinuiste du progrès des sciences. La

science n'est pas un long fleuve tranquille ; elle est un torrent agité par des

transformations dont le caractère destructeur est évincé des médias de la

science. La science avance par « sauts quantiques », par ruptures successives.

Fait un sort à l’idée bachelardienne qu’une théorie remplacée englobe celle

qui la précède ; ainsi de la dynamique newtonienne présentée comme un

cas particulier, confiné à un espace-temps de courbure nulle, de la physique

relativiste d’Einstein.

- Approche externaliste du développement des sciences. La formation des

connaissances ne peut être étudiée de manière autiste, « cognitiviste »,

abstraction faite des déterminations sociales/religieuses/idéologiques et du

contexte de l’époque. Une conception externaliste de l’histoire des sciences

avait déjà été théorisée dans les années 1920 et 1930 par des penseurs et

historiens influencés par le marxisme, tel que Nikolai Bukharin (1922),

Boris Hessen (1931) et John D. Bernal (1939).

- Nécessité de contextualiser les textes scientifiques. La structure des révolutions scientifiques, ne paraît pour la première fois qu'au tournant de

l'année 1962 ; mais c'est en 1947, quinze ans auparavant, que le jeune

homme, étudiant ès physique, pose les premiers jalons d’une théorie qui

187

restera pour la postérité comme l'acte de naissance de l'épistémologie

historique. Quoiqu’engagé dans une étude disciplinaire des sciences, il

s’intéresse bien vite à leur histoire. Il interrompt de fait son programme de

recherche pour préparer un cycle de conférences interrogeant les origines

de la mécanique du XVIIe siècle. Son travail liminaire le conduit à

s'intéresser de près aux précurseurs de Galilée et de Newton – et donc, de

loin en loin, à la physique aristotélicienne. Comme la plupart des historiens

des sciences, il concevait alors le processus de translation d'une physique à

l'autre sous le régime de l'accumulation. Or, d’évidence, la physique

d'Aristote n'avait rien de commun avec celle de Newton. Cette tradition ne

pouvait vraisemblablement pas constituer une carrière exploitable pour les

travaux de Galilée et de ses successeurs : ils durent la rejeter, en bloc,

méthodes et contenus, et reprendre à la source l'étude des corps et du

mouvement. Comment, cela étant, les qualités d'observateurs du Stagirite

avaient-elles pu lui faire à ce point défaut ? Plus étonnant encore, comment

ces conceptions (nonobstant leur fusion, via Saint-Thomas, dans le giron de

la théologie, et donc leur tribune universitaire) ont-elles pu dominer sur la

scène scientifique pour une si longue période ? En tentant de répondre à ces

questions, l'auteur fait l'expérience d'une manière inédite de lire un corpus

scientifique. C'est en les replaçant dans leur contexte doctrinaire, plus

largement, au sein de ce que Foucault appellera leur épistémè, que ces

textes font sens. Les théories qui s'y rencontrent, les « erreurs d'Aristote »

acquièrent dès lors une véritable cohérence qui nécessite, pour être

découverte, d'épouser un autre point de vue. Le terme de « point de vue »

acquiert de fait un sens épistémologique. Fort de cette découverte, l'auteur

s’attèle à l'étude d'autres physiciens tels que Boyle et Newton, Lavoisier et

Dalton, Boltzmann et Planck ou enfin Copernic, auquel il consacre un essai.

La structure des révolutions scientifiques se présentera comme la synthèse

de ces années de réflexion.

- Notion de paradigme. Du grec ancien paradeïgma, « modèle », « exemple »,

issu du verbe paradeiknunaï, « montrer », « comparer ». Kuhn le recycle en

un sens différent de celui de Platon (cf. République, Timée) pour désigner

le cadre de pensée au sein duquel évolue une communauté scientifique. Le

paradigme se compose de l’ensemble des postulats, des croyances et des

points d’accord partagés par la science institutionnalisée. Son efficace

épistémologique est de nature prescriptive et normative autant que

188

descriptive. Le paradigme oriente l’attention des chercheurs en direction de

problèmes bien déterminés et définit les règles selon lesquelles ils doivent

être traités. C’est à son aune qu’est évaluée la pertinence des interrogations,

des méthodes et des solutions finalisées à la résolution de ces problèmes.

Cela en dépit du fait que le paradigme puisse fonctionner à l’exclusion de la

conscience qu’en ont les scientifiques.

- Science normale et science extraordinaire sont décrites comme les deux

régimes d’élaboration de la science :

(1) La première phase est la plus longue et voit les scientifiques tenter de

raffiner le paradigme dominant sans chercher à le remettre en cause. «

Normale » s’entend au sens de normatif et de majoritaire. En période de

science normale, un groupe de scientifiques établit une manière commune

de penser un ensemble de problèmes autour duquel se focalise leur

attention : un paradigme. Ce paradigme représente l'orientation commune

des pensées et de préoccupations du groupe ; un groupe qui se consacre

exclusivement à la résolution des énigmes posées par ce même paradigme.

La méthode du chercheur n’est donc plus inductive (ainsi chez les

positivistes), ni hypothético-déductive (comme le voulait Popper). Elle

consiste principalement à faire rentrer des phénomènes récalcitrants dans

des cadres établis. Posture conservatrice.

- Il arrive cependant que des énigmes particulièrement revêches résistent à

toutes les tentatives que déploient les chercheurs pour les dissoudre dans la

théorie. Elles prendront le statut d'anomalies. Partant, la découverte des

anomalies fait apparaître les défaillances du paradigme de la science

normale, en révèle les limites aussi bien théoriques que méthodique et

appelle son renversement. C'est là, dans cette situation critique, que Kuhn

fait résider l'origine des révolutions scientifiques. La mise à jour d’obstacle

externe conduit dès lors, avec le temps, à souligner l’insuffisance de ce

paradigme. S’installe une atmosphère de crise dénotative de l’imminence du

du basculement dans la science extraordinaire.

(2) La science extraordinaire est l’affaire d’un ou de plusieurs groupes

détachés de la communauté scientifique mainstream. Fractions en

dissidence qui tentent d’élaborer un paradigme plus satisfaisant en vue de

remplacer l’ancien ; un paradigme qui fera des anomalies jusqu’alors

rencontrées des cas particuliers d’une théorie embrassant davantage de

phénomènes. Aussi bien du point de vue scientifique que du point de vue

189

social, il s'agit d'une étape censément destructive et non cumulative.

L’histoire des sciences dépeintes par Kuhn se caractérise par cette

alternance de longues phases de science normale et de brèves phases de

science extraordinaire. Elle est scandée par des révolutions. La résorption

des crises s’opère à la faveur de l’adoption d’un nouveau paradigme et

signifie le retour à une phase scientifique normale.

- Crise scientifique. Issue du grec krisis, elle associe les notions de décision

et de jugement. Désigne en langage médical la phase paroxystique d’une

maladie, une mutation brutale ou une tension appelant une décision

urgente. Elle précède un changement d’état qui peut se traduire chez Kuhn

par une « révolution » – autre notion reprise du domaine de l’astronomie

pour être transposé à celui de la politique, puis de l’épistémologie. L’entrée

en crise du paradigme dominant peut être due à la révélation et à la

progressive accumulation des anomalies. Est qualifiée d’anomalie un

phénomène qui ne se laisse pas réduire cadre explicatif de la théorie

standard ; qui nécessite par conséquent d’autres outils pratiques et

théoriques. De tels outils sont fournis par un paradigme alternatif en germe,

issu des tentatives des scientifiques hétérodoxes (souvent de la jeune

génération) pour surmonter l’insolvabilité du paradigme faillitaire. Son

adoption signe la fin de la crise scientifique… et le début d’une autre.

- Cécité aux anomalies. L’auteur, en effet, a bien conscience, pour s'être

intéressé à la psychologie cognitive, et notamment à l’expérience de Bruner

et Postman, que l'on ne repère bien dans la réalité que ce que l'on s'attend à

y trouver. Un paradigme peut être un outil heuristique aussi bien qu'une

œillère. En s’appuyant sur des travaux de psychologie, Kuhn montre que les

hommes de science peuvent être victimes d’hallucinations négatives.

L’attente créée par l’adhésion au paradigme (la pro-tension) empêche de

voir les faits contradictoires. (Exemple des jeux de cartes.) Il y a, outre cette

résistance naturelle au changement, le fait qu’un paradigme et, à plus forte

raison, une théorie, ne saurait être abandonné ensuite de sa réfutation

(quoique le holisme épistémologique rende plus que problématique une

telle opération). Quand bien même elle serait en butte à des observations

contradictoires, elle sera conservée jusqu’à ce que lui soit désignée une

remplaçante, et que cette remplaçante ait récolté une majorité de suffrage

dans la communauté des sciences. Contra le réfutationnisme de Popper.

190

Exemple du modèle standard, de la physique quantique et de la physique

relativiste qui n’expliquent pas les singularités.

- Changement de paradigme. La subversion du paradigme dominant

s’analyse comme un processus social, en partie mimétique. L’explication de

ce processus requiert une sociologie d’un microcosme scientifique traversé

par des forces contraires, des doutes et des oppositions et des luttes de

pouvoir. D’une communauté en proie aux campagnes d’influence et de

dénigrement des uns, à l’exclusion des autres qui forment leurs propres

écoles au sein parfois d’une même discipline, chacune considérant le monde

au prisme de son paradigme de manière autistique ou conflictuelle. Les

incompréhensions mutuelles tiennent à l’incommensurabilité des

paradigmes qui structurent des langages et des mondes différents.

- Révolution scientifique. Elle s’opère lorsque la communauté scientifique

en butte à l’accumulation des anomalies, afin de surmonter la « crise », se

résout à abandonner le paradigme ancien pour adopter un paradigme

nouveau. Connotations astronomiques puis politiques. Le terme de «

révolution » est tout sauf anodin. Il laisse entendre, de par cette dernière

acception, qu'une crise déchire le milieu scientifique. Les spécialistes se

divisent entre deux groupes dont l'un tente coûte que coûte de préserver le

paradigme ancien ; et l'autre de le remplacer, insistant pour ce faire sur la

caducité de ce dernier.

- Résorption de la crise. La résorption de la crise advient lorsque l'un des

groupes en présence parvient à convertir les autres groupes à sa propre

vision. Cette conversion conduit la société des scientifiques à délaisser les

anciennes façons de poser les problèmes pour adopter une nouvelle

méthodologie et de nouveaux outils. Avec l'établissement d'un nouveau

paradigme sa voie d’institutionnalisation, s’engage alors la dernière phase de

la révolution scientifique. Le processus de science normale est relancé, avec

l'activité qui le caractérise : la résolution des énigmes que ne laisse pas de

faire apparaître le nouveau paradigme.

- Pertinence relative de l’interprétation kuhnienne concernant l’état de la

physique contemporaine. Il semble que la recherche fondamentale se soit

engagée depuis la seconde moitié du XXe siècle dans une période de crise

dont elle ne s’est toujours pas relevée. Régime que l'on peut à bon droit

qualifier être celui de la science extraordinaire. Or, la concurrence entre

deux théories, deux paradigmes – en l'occurrence la mécanique quantique

191

et la relativité générale – n'a pas abouti, comme tout lecteur de Kuhn s'y

serait attendu, à une révolution, à un changement de paradigme. Les deux

écoles coexistent l'une avec l'autre, deux lois statuant sur deux domaines ou

deux échelles distinctes comme la double physique d'Aristote opposait le

monde supra-lunaire et le monde sublunaire. En somme, cette situation

ressemble davantage à celle de la pré-science, où cohabitent une

multiplicité d'école parlant différent langages et vivant dans différents

mondes, qu'à celle de la science extraordinaire ou de la science normale.

Vint le modèle standard avec son lot d’énigmes, prétendant subsumer les

deux physiques. Entreprenant aussi de corriger les apories du modèle

standard, les théories les plus actuelles tentent une autre forme de

conciliation entre ces deux physiques – ainsi de la théorie quantique

relativiste des champs, de la théorie des cordes ou de la théorie quantique à

boucles. D'autres approches plus marginales foisonnent sans pouvoir être ni

infirmées, ni démontrées. Aucune ne se révèle capable de résoudre les

énigmes posées par les deux précédents paradigmes (physique quantique et

relativité générale). Si l'une ou l'autre venait à s'imposer, ce ne serait donc

pas sur des bases rigoureuses, rationnelles, théoriques, mais bien

effectivement en l'emportant l'adhésion des savants pour des raisons de

commodité.

- Changement de vision du monde, ou « Gestalt Switch », en référence aux

théories de la psychologie de la perception ou de la forme (Gestalt). Ce

basculement de perspective – analogue à celui décrit par Wittgenstein,

commentateur après Gombrich de l’image du « canard-lapin » de Joseph

Jastrow (voir vignette infra) ; analogue à celui que requiert, chez Herder, la

transition entre les langage-mondes – Kuhn en conçoit une première

formulation dans le courant Gestalt psychology, la théorie de la forme, sous

la plume de Franz Brentano. Il en décèle d'autres modalités dans le discours

structuraliste, dans la linguistique, dans la sociologie, dans la philosophie

(e.g. chez Nietzsche) ou dans l'épistémologie (e.g. chez Duhem et Koyré).

C'est donc principalement aux sciences humaines que Kuhn emprunte la

matière de sa thèse, celle-ci posant « l'incommensurabilité des paradigmes »

; thèse qu'il applique à la constitution des sciences de la nature.

- Analogie avec la figure du canard-lapin analysée par Wittgenstein

(Remarques sur la philosophie de la psychologie). Le sujet décrit soit un

canard, soit un lapin ; jamais les deux ensemble. Les représentations se

192

suivent ; elles apparaissent de manière alternative et non simultanée, bien

que l’ensemble des traits (assimilables aux data sensorielles) soient

demeurés les mêmes. De manière analogue, le paradigme est un point de

vue qui détermine un regard spécifique sur la nature. Aussi sa modification,

sans rien changer au monde, implique un changement de monde.

Illusion du canard-lapin (Kaninchen-Ente)

Publié dans le journal satirique Fliegende Blätter du 23/10/1892

- On constate en dernier ressort que les révolutions scientifiques et les

changements de paradigmes qui leur sont liés produisent à tout le moins

trois ordres de bouleversement. Transformation, en premier lieu, dans le

regard du scientifique. L'instauration d'un nouveau paradigme a également

des retombées sur la société des sciences, en cela qu'elle remet en question

l'expertise des tenants de l'ancien paradigme, les réseaux et méthodes

constitués par eux, et donc, si l'on suit jusqu'au bout le raisonnement de

Kuhn, leur légitimité. Aussi, les composantes sociologiques d'une révolution

scientifique ne sont pas moins cruciales que ses aspects strictement

scientifiques. C'est en effet seulement parce qu'un effectif suffisant de

spécialistes commence à croire à une hypothèse que celle-ci acquiert un

statut scientifique. La troisième conséquence de la thèse de Kuhn est

d'ordre épistémologique. La science ne se constitue pas par inductions, non

193

plus que par hypothèses et réfutations, mais principalement par

« convention ». Exeunt Hume, les Compte et le cercle de Vienne, Popper et

sa réfutabilité : loin d'être linéaire et rationnelle, la science acquiert

irrémédiablement et en dépit de Kuhn lui-même, un caractère relativiste.

- Cela suppose un acte de conversion de nature quasi-religieuse, ainsi

qu’une propagande intense et efficace de la part de la minorité tentant de

faire adopter son paradigme (sur la notion de « propagande », cf. notice

Feyerabend). Omniprésent chez Kuhn est le lexique de la religion,

transgression lourde de sens dans un domaine – l’épistémologie – qui trop

souvent se définit de manière négative et réactive comme l’antithèse (ou

l’antidote) à la croyance. Éloquente, à ce titre, cette remarque d’Étienne

Klein :

« La science est aujourd’hui installée. […] Nombreux sont ceux qui

pensent qu’elle ne tolère qu’un seul type de discours et ne propose

qu’une seule vision du monde. Ils n’imaginent pas qu’il puisse y avoir

en son sein des inflammations ou des divergences durables. […]

Devenue en même temps honorable et autoritaire, la science joue

aujourd’hui un rôle analogue à celui qu’ont tenu dans le passé la

théologie et la philosophie. […] Avancer qu’un fait a été

scientifiquement prouvé, n’est-ce pas en interdire la contestation ?

[…] Mais c’est loin d’être le cas. La science n’est pas donnée

d’emblée. […] Tout ne se laisse pas voir. […] Plutôt que de s’exhiber

dans la clarté de l’évidence, l’univers préfère dérober ses lois, ses

manières et ses rouages derrière de larges pans de ténèbres »

(Conversations avec le sphinx. Les paradoxes de la physique, 2014).

Pour peu que l’on s’attarde avec un tant soit peu de rigueur et d’honnêteté

sur l’histoire de la science, force est de constater qu’elle obéit à des schémas

sociologiques semblables, pour ne pas dire identiques à ceux de la religion.

Il n’est nullement besoin d’évoquer le scientisme du XIXe siècle ou un

certain transhumanisme actuel pour exciper l’analogie. Non plus que le

pouvoir spirituel que la science revendique ainsi que la cléricature de ses

prêtres, organisés en corps gardien de la doctrine. Contentons-nous de

remarquer comment du paradigme dominant va naître une hérésie, de la

même manière qu’un dogme dominant porte en lui-même sa déviation. À

cette différence près que les dogmes religieux ont une plus grande capacité

194

de coexistence et de résilience (ex : le catholicisme le protestantisme, le

sunnisme et le chiisme, le bouddhisme du grand et du petit véhicule, etc.).

- À l'appui de cette thèse, il est utile de remarquer que Kuhn envisage la

science non seulement comme un système de croyances parmi d'autres (les

paradigmes sont également un ensemble de valeurs et de croyances), mais

comme un système de croyances de nature religieuse, particulièrement

sectaire du reste, puisqu'il génère des « adeptes » inconditionnels, des «

résistances acharnées », des « conversions » spectaculaires. Le parallélisme se

transforme en identification. L'ensemble de ces attitudes ne sont pas

motivées par des convictions qui pourraient être, à la base, de nature

scientifique : Kuhn prétend au contraire que de telles adhésions peuvent

être complètement irrationnelles, fondées sur l'esthétisme ou l'élégance

d'une théorie. Il soutient, par exemple, que l'adoration du soleil aurait

contribué à faire de Kepler un adepte de Copernic. Bachelard ne dit pas

autre chose lorsqu'il constate la dilection des alchimistes et des Anciens

envers certains des éléments (le feu, l’eau, etc.). Aristarque de Samos, IIIe

siècle avant J.-C., défendait l’hypothèse héliocentrique ; mais « nul, sinon

l’écho, ne répondait à [s]a voix ».

- Souligne l’inscription sociale de l’activité, traversée de conflits et de

rivalités ; met en lumière l’hétérogénéité de ses motivations et sa part de

subjectivité. Ouvre une brèche dans laquelle s’engouffre Feyerabend. Et

l’auteur de conclure que la décision d'adhérer à un nouveau paradigme « ne

relève bien souvent que de la foi ». La science apparaît donc, dans le portrait

qu'en a brossé Kuhn, comme une forme de théologie particulièrement

rigide ; ce que l'auteur affirme explicitement à plusieurs reprises : « Cette

formation est étroite et rigide, plus sans doute que n'importe quelle autre, à

l'exception peut-être de la théologie orthodoxe » (La structure des révolutions scientifiques). - Outre la religion, Kuhn se saisit de l’image des idéologies en lutte pour

rendre compte de cette guerre de tranchées que se livrent les scientifiques.

En lieu et place des orthodoxes et des hérétiques, des fidèles et des

schismatiques, des croyants et des apostats peuvent être utilisés les

métaphores des conservateurs et des progressistes, des conformistes et des

dissidents, des traditionalistes et des modernistes.

- Le basculement d’un paradigme à l’autre ne procède pas de la réfutation de

celui-là, mais de l’avantage comparatif admis de celui-ci. Le progrès est

195

relatif. Aucune théorie n’est sans inconvénient, il n’y a pas de « bonne

solution » : que des mauvaises… mais certaines moins mauvaises que

d’autres. Exemple du passage, au début du XVIIe siècle, de la physique

aristotélicienne à la physique newtonienne, puis au XXe siècle, de la

physique newtonienne à la physique relativiste.

- Approche socialisante et psychologisante du changement ou de la

conservation des paradigmes. La science est le résultat de processus

complexes, entremêlant passion et rationalité. En période de science

extraordinaire, le choix entre les nouvelles théories concurrentes est

compliqué par des critères psychologiques. Les arguments rationnels seuls

ne suffisent plus à convaincre les groupes de scientifiques du bien-fondé

d'une théorie. D'une part, parce que l'attachement aux théories est tout

autant affectif que rationnel. Ensuite, parce qu'il existe une difficulté

inévitable à porter des jugements rationnels en dehors du cadre de la

science normale.

- Incommensurabilité des paradigmes. L'œuvre de Kuhn met en avant

l'impact des révolutions sur le groupe qui les subit, notamment en termes

de vision du monde et d'approche des problèmes. Il souligne alors

l'incompatibilité des paradigmes concurrents, leurs incommensurabilité, en

raison principalement des différences de langage et de schémas de pensée.

Un même concept peut renvoyer à de sens différents (exemple de l’atome),

et les propositions émises dans le cadre de chaque paradigme ont une

signification irréductible. Visions du monde hétérogènes, mondes

différents. Il n’y a pas, du reste, de position de surplomb qui permettrait de

mettre en balance l’hypothèse de l’un et de l’autre (on est toujours situé,

engagé par un paradigme ; même état de fait que dans la traduction : cf.

l’instabilité de la référence chez Quine). Aussi faut-il souvent compter avec

l’écueil de la rupture de communication entre les différents groupes de

scientifiques qui œuvrent avec leur propre paradigme en régime de science

extraordinaire, chacun usant de son proto-langage pour défendre sa théorie,

langage porteur d’une Weltanschauung différente et par définition,

incommensurable avec les autres.

- S’inspire des travaux de Norwood Hanson pour démontrer qu’un énoncé

d’observation n’est jamais d’observation pure, et n’a de sens qu’en rapport à

un cadre théorique particulier. Thème de l’équivalence des hypothèses et

du holisme de la signification.

196

- Kuhn relativiste ? L’exemple du canard-lapin, bistable et réversible,

prouve que l’on ne peut considérer ensemble et simultanément deux

conceptions du monde, deux visions d’un même fait. Il n’y a pas de position

de surplomb. Il n’y a pas de neutralité. Il n’y a pas d’objectivité. Pas de point

de vue de Sirius. Et c’est toujours d’après un paradigme que l’on juge d’un

autre paradigme – en le dénaturant. Car il n’est pas de commune mesure

entre les paradigmes qui présentent chacun leur réalité, leur monde à part

entière. Les paradigmes, tranche Kuhn, sont incommensurables (cf. Anouk

Barberousse, Max Kistler, Pascal Ludwig, La philosophie des sciences au XXe siècle, 2000). Cet état de fait pose une réelle question sur le rapport

entre nos représentations (qui ne sont plus représentables) et la vérité (si

cette notion possède encore un sens), sur le rapport entre nos modèles

théoriques et la réalité qu'elle prétend exprimer, sur la manière dont

s’impose une théorie, indépendamment des faits – qui sont souvent des faits

construits d'après la théorie. Le problème nous ramène directement à des

considérations de nature constructiviste et relativiste. Est-ce à dire que la

science ne progresse pas ? Que toutes les opinions se valent ? Que ces

systèmes de signifiants que sont les paradigmes disposent d’une égale

légitimité ? Que les états de la science ne sont que des chartes adoptées par

les scientifiques, conventionnelles et réversibles à souhait ? La conception

discontinuiste et révolutionnaire plutôt que réformiste du devenir de la

science est-elle hostile à toute idée de continuité et d’évolution ? La méta-

théorie épistémologique de Kuhn semble prêter à une semblable accusation.

Mais il y a loin de la coupe aux lèvres.

- Relativisme à relativiser. Kuhn se défend corps et âme contre l'imputation

de relativisme à laquelle son épistémologie historique semble conduire

inévitablement. Les paradigmes se succèdent, et ils sont incommensurables.

Comment comprendre, dans ces conditions, la notion de progrès ? Le risque

est de schématiser jusqu’à défigurer une théorie de beaucoup plus complexe

que la critique de ses détracteurs (principalement : les réalistes et les

positivistes). Si l’on admet que les paradigmes ne peuvent être comparés

immédiatement entre eux, reste la possibilité de déterminer leur plus ou

moins grand intérêt à l’aune des critères de choix rationnel. Un paradigme

embrassant davantage de phénomènes, plus simple et plus fécond, a de plus

fortes chances d’être préféré. Relativise le relativisme épistémologique dont

on a accusé l’auteur. Le paradigme du paradigme ne récuse pas

197

nécessairement l’idée de progrès scientifique. Aussi le « temps » scientifique

envisagé par Kuhn se pense-t-il plus pertinemment sur le modèle de la

spirale croissante que sur celui de la boucle (ou de la ligne droite).

- Deux sortes de progrès. Il faut, selon l'auteur, insister sur le fait qu'il s'agit

là d'une nouvelle conception du terme. Il ne s'agit pas tant d'un progrès vers

la vérité ou vers la consolidation du paradigme, comme en période de

science normale, que d'un progrès des sciences en tant qu'elles

s’acheminent progressivement vers un nouveau paradigme, plus consistant,

plus vaste. C'est le progrès propre aux révolutions. Un progrès relatif, et non

dans l'absolu ; ni cumulatif, ni objectif comme on se le représente depuis

l'Antiquité.

- Il peut être opportun d'ajouter une remarque, à tout ce qui vient d'être dit.

Kuhn intitule ce chapitre « La révolution, facteur de progrès ». Nous avons

établis que la connotation politique de ce terme de « révolution » n'était pas

anodin. Un simple regard jeté sur l’actualité internationale récente nous

convaincra que les révolutions ne sont pas nécessairement garantes de

progrès. Une attention portée à notre histoire nous rappellera que les

révolutions ne préparent pas toujours des lendemains qui chantent. La

controverse entre Camus et Sartre est emblématique à cet égard. Il y a aussi

des « révolutions, facteur de régression ». Au nom de quoi en irait-il

différemment dans le domaine des sciences ?

- Science et non-sciences. Cette conception nouvelle du progrès scientifique

pose d’une autre manière la question du relativisme. En décrivant l'histoire

des sciences comme une succession de paradigmes incommensurables, elle

rend impossible, d'un point de vue scientifique, la partition entre science et

pseudoscience. Thomas Kuhn liquide ainsi les critères antérieurs fondés sur

l’induction, le déterminisme ou la réfutabilité. Deux scientifiques

promouvant deux paradigmes différents vivent simplement dans deux

mondes différents. Ce qui revient, à peu de choses, près à nier que la science

fut autre chose qu'un artifice social, une croyance plus ou moins arbitraire,

au même titre que le mythe ou la religion. C'est cette thèse, transparaissant

en filigrane dans La structure des révolutions scientifiques, qui permettra à

Feyerabend de déclarer dans Contre la méthode que « la science est

beaucoup plus proche du mythe qu’une philosophie scientifique n’est prête

à l’admettre ».

198

- On pourrait résumer en trois axes majeurs les changements apportés par la

lecture de Kuhn à l’épistémologie classique :

(1) Son principal apport serait d'avoir réintroduit, à l'instar de Bachelard,

Canguilhem et Koyré, la notion d'historicité dans le domaine des sciences.

Cela, alors même que l'on croyait la science, depuis Platon, être la

connaissance des fixes et des êtres éternels. Le développement des sciences

ne relève pas d'un simple processus de sédimentation ou d'accrétion des

connaissances, mais d'une « révolution » ; soit une transformation de

l'imaginaire scientifique, transformation du monde dans lequel évoluait ce

travail scientifique.

(2) Kuhn confronte également les sciences à la question du relativisme à

laquelle elles avaient échappée jusqu'ici. La science, auparavant, était jugée

« par-delà bien et mal » ; on la croyait sans fin(s), ou pour reprendre la

formule Heidegger – « la science ne pense pas » – sans intentions,

n’interrogeant ni ses prémices, ni ses conséquences.

(3) Kuhn substitue enfin à la réfutabilité, au critère Poppérien sur lequel

repose la démarcation entre science et métaphysique, un problème de

nature sociologique : est reconnu comme science ce qui parvient à se faire

accepter – parfois indépendamment des considérations rationnelles – par

une communauté.

- Portée auto-prédicative. L’œuvre de Kuhn introduit une rupture radicale

dans la manière de penser la dynamique du progrès (?) scientifique. Peut

être considéré comme un changement de paradigme en épistémologie.

Imre Lakatos (1922-1974)

Principales contributions :

- Preuves et Réfutations : Essai sur la logique de la découverte mathématique (1976)

- Histoire et méthodologie des sciences (1978)

Concepts et idées-forces :

- Programme de recherche scientifique (PRS). Ensemble d’hypothèses

rectrices administrant la science à un moment donné. Opère une

conciliation-synthèse entre le réfutationnisme de Popper et la conception

199

paradigmatique de Kuhn. Est néanmoins soucieux, selon ses dires, de

contourner l’écueil relativiste.

- Tout PRS est composé d’un « noyau dur » et d’une « ceinture protectrice ».

Le noyau dur, cœur du programme, est constitué par des thèses inviolables.

La ceinture protectrice est en revanche agglomérée d’hypothèses auxiliaires

susceptibles d’être modifiées en cas de démenti expérimental, de sorte à

préserver intact le noyau dur.

- Est « progressif » un PRS donnant lieu à de nouvelles découvertes ; stérile,

il est dit régressif ou « dégénérescent ». Un programme dégénérescent, au

pied du mur ou acculé, se trahit par le recours aux hypothèses ad-hoc.

- Contre Popper (auquel il succédera en 1969 à la tête du département de

philosophie de la London School of Economics), Lakatos oppose qu’un PRS

peut être saturé d’anomalies sans être abandonné. Un PRS peut suivre son

chemin en rejetant par-devers lui les éléments contradictoires. La démarche

scientifique n’est pas d’abord réfutative. Le serait-elle, nous ne disposerions

plus d’aucune théorie.

- De fait, un programme régressif à une époque donnée peut devenir

progressif ultérieurement ensuite de son réaménagement ou de nouvelles

observations. On ne peut savoir a priori quel PRS s’avérera fécond avant de

l’avoir suffisamment sophistiqué (développement d’un formalisme ad hoc,

des instruments de mesure, des protocoles de recherche, etc.).

Jean-Baptiste Lamarck (1748-1836)

Principales contributions :

- Recherches sur l’organisation des corps vivants (1802)

- Philosophie zoologique (1809)

Concepts et idées-forces :

- Lamarck (Jean-Baptiste de Monet) prête à la « biologie » (terme introduit

par le géographe T.G.A Roose en 1797) son acception de « science des corps

vivants » : « Tout ce qui est généralement commun aux végétaux et aux

animaux, comme toutes les facultés qui sont propres à chacun de ces êtres

sans exception, doit constituer l'unique et vaste objet d'une science

particulière qui n'est pas encore fondée, qui n'a même pas de nom, et à

200

laquelle je donnerai le nom de biologie » (Recherches sur l’organisation des corps vivants). - Théorie du transformisme. En partie inspirée par les philosophies de

l’histoire. Les organes se développent ou s’atrophient en vertu du principe

d’usage/non-usage. Contra les théories fixistes, créationnistes

catastrophistes (Cuvier), en faveur à l’époque. Infléchissement qui suit le

passage entre les années 1790 et les années 1820 d’une conception dix-

huitièmiste statique des sciences du vivant, à une vision plus dynamique de

ces dernières, triomphante au XIXe siècle.

- Philosophie zoologique paraît l’année de la naissance de Darwin (1809).

Darwin prend connaissance de ces thèses à travers une présentation critique

de Charles Lyell : Les principes de géologie.

- Deux mécanismes complémentaires à l’origine de ces transformations. Le

premier donne lieu à la complexification graduelle des formes du vivant, se

pourvoyant d’organes et de fonctions nouvelles aux attendus d’une

dynamique interne due à leur organisation. Articulé au précédent, le second

mécanisme donne lieu à la diversification des formes du vivant sous

l’aiguillon de facteurs contextuels, circonstanciels qui tiennent à des

impératifs vitaux. Il donne à voir la dimension adaptative de l’être vivant,

organisé autour du principe d’usage/non-usage, en tant qu’il se trouve

confronté à des défis environnementaux. Soit sa capacité à « se créer » un

corps viable, au sens « physique » du terme ; à « modifier ses normes » pour

composer avec les contraintes liées à son milieu de vie (cf. l’exemple

paradigmatique est souvent caricaturé du cou de la girafe).

- Micro-évolutions ; vs. le saltationnisme ou la macro-évolution d’Hugo de

Vries et de Thomas H. Morgan. Vs aussi la théorie des équilibres ponctués

de Niles Eldredge et de Stephen Jay Gould.

- Lamarck postule ainsi l’indexation des modifications des organismes sur

des pressions cumulatives induites par les individus eux-mêmes en fonction

de leurs besoins, de leur activité. Détrompé par Darwin pour qui la

nécessité naturelle recrute aveuglément les variations imprévisibles

adaptées à l’environnement, du fait de l’avantage comparatif que ces

variations prêtent aux individus, devenant davantage susceptibles de se

reproduire. Le transformisme de Lamarck méconnaît en effet les

mécanismes de la sélection naturelle. Le darwinisme, contrairement au

lamarckisme, n’engage aucune manière de finalisme dans l’occurrence des

201

variations : celle-ci ont lieu, puis se révèlent ou non viables en fonction du

milieu au sein duquel les organismes ont vocation à composer. Les

mutations selon Darwin ne sont pas dirigées dans leur procès d’apparition ;

elles procèdent d’une « loterie » sanctionnée a posteriori. L’évolution selon

Darwin n’est pas, au reste, soumise à une nécessité pratique et théorique de

complexification.

- Acquisition de caractéristiques physionomiques par suite transmises à la

génération suivante, qui à son tour perfectionnera ou se déprendra

progressivement de ces caractères en fonction des pressions de survie. Thèse

de l’hérédité des caractères acquis. Quoique Lamarck lui-même n'ait jamais

employé cette expression. Si la notion est sous-jacente, s’inscrivant en aval

d’une réflexion dont les prémices remontent à Aristote, elle ne sera

thématisée qu'après sa mort pour lui être attribuée de manière apocryphe.

Thèse qui semblait disqualifiée depuis la publication des études du

biologiste allemand August Weismann en 1883 constatant la séparation des

cellules germinales et somatiques. Elle est toutefois en passe d’être en partie

réactivée en ce qui concerne les phénomènes liés à l’épigénétique. Quoiqu’il

en soit du génome en lui-même, les déterminants de son expression au sein

des cellules somatiques ne peuvent être dissociés du patrimoine transmis

par les gamètes.

- Soutient la génération spontanée des premiers organismes vivants

microscopiques. Thèse réfutée par Pasteur (bien qu’ayant falsifié ses

résultats). Réfutation qui laisse néanmoins entière la question de savoir

comment le vivant a pu émerger à partir de l’inerte, de la chimie du

carbone.

- Le temps nécessaire aux modifications et à la formation de nouvelles

structures organiques transmises s’étale sur des durées qui battent en brèche

la chronologie biblique fixée par l’archevêque irlandais Usher. La création

remonte pour ce dernier à 6000 ans ; Lamarck repousse son origine à 900

millions d’années.

- Le lamarckisme, dans la deuxième moitié du XIXe siècle, n’est qu’un

courant de l’évolutionnisme, à côté du mutationnisme, de l’orthogenèse, du

darwinisme et du néodarwinisme. Mais c’est le principal et c’est à lui, et

non au darwinisme qu’est alors associé spontanément le vocable de «

théorie de l’évolution ».

202

Point sur l’épigénétique

L’intérêt scientifique de la génétique n’est plus à démontrer. Mais le tout-

génétique prônée par une certaine vulgate ne rend que mal justice à la

complexité des phénomènes biologiques. Nous entendons ici traiter de

l’épigénétique comme étant l’un de ses incontournables compléments.

Les limites de la génétique

Laissons au philosophe, généticien et épistémologue Jean-Jacques Kupiec le

soin de préciser dans quel contexte et à quelle carence théorique répond

historiquement l’apparition de ce domaine de recherche :

« Depuis l'Antiquité, les théories biologiques cherchent à

appréhender l'espèce et l'individu. Mais on a généralement considéré

leurs genèses respectives comme des phénomènes distincts. De ce

fait, l'évolution des espèces et le développement des organismes sont

expliqués par deux théories différentes, la sélection naturelle et le

programme génétique. Cette séparation pose un problème récurrent.

Dans la réalité, les deux processus sont imbriqués l'un dans l'autre

[…] Au XXème siècle, cette union a été réalisée par ce qu'on a appelé

la synthèse évolutive. On considère que l'évolution des espèces

provient de la transformation par mutation des programmes

génétiques codés par l'ADN. Si cette théorie permet logiquement de

rattacher les deux processus l'un à l'autre, son coût est élevé. Elle

induit de nouveaux problèmes liés au déterminisme génétique très

fort auquel elle aboutit, et où l'ADN devient omnipotent : par ses

mutations il gouverne l'évolution et par l'information génétique qu'il

contient il dirige la genèse des organismes. Depuis le séquençage des

génomes, on a la confirmation qu'une telle conception est

difficilement tenable. D'une part, il y a beaucoup moins de

différences entre les génomes des organismes, y compris ceux qui

sont physiologiquement éloignés, que ce qui était prédit. Il est donc

difficile d'expliquer l'évolution par l'addition des mutations

ponctuelles de l'ADN. D'autre part, la lecture de ces génomes n'a pas

permis de déchiffrer les fameux programmes génétiques qui

203

contrôleraient le développement embryonnaire. Il y a beaucoup

moins de gènes que ce qui semble nécessaire pour expliquer

l'ensemble des fonctions réalisées par un organisme. A cause de ces

limites du déterminisme génétique, on assiste maintenant à un

véritable changement de paradigme, avec l'émergence de la biologie

des systèmes. Au lieu d'être centrée sur l'ADN, la compréhension des

organismes passe par leur appréhension en tant que systèmes. Dans

ce nouveau cadre, on cherche à équilibrer les influences provenant

des différents niveaux que sont l'ADN, les réseaux de protéines, les

tissus cellulaires, l'organisme et l'environnement. » (J.-J. Kupiec,

L'origine des Individus, 2008).

L’épigénétique constitue l’une des approches synthétiques possibles de la

biologie, équilibrant les influences d’autres facteurs que strictement

génétique. L’exploration de ce continent récemment émergé contribue à ce

titre, autant que la mise en valeur des propriétés émergentes, à remettre en

question un nouveau type de réductionnisme physicaliste caricatural qui

tendait à réduire le phénotype au génotype (J.-P. Changeux (dir.), Gènes et culture, 2003). Il montre que l’individu physiologique n’est pas que

l’expression d’un programme immuable, fixe et déterminé, la traduction

d’un ADN. Certains facteurs environnementaux ou comportementaux

(conditions de vie, régime alimentaire, psychologie, etc.) peuvent concourir

à la régulation de l’expression du génome, ceci en contrôlant l’activation ou

bien l’inhibition de certains gènes. Il s’agit proprement d’un autre code,

occulte, qui avait échappé à l’attention des biologistes depuis un demi-siècle

bien tassé ; depuis que James Watson, alors âgé de 25 ans et Francis Crick,

physiciens de formation, ont mis à jour la structure hélicoïdale de l’ADN.

Cette découverte d’un « second code » ou « méta-code » superposé au

premier fournit une réponse partielle à la question posée dès le début du

XXème siècle par l’embryologiste américain Thomas Hunt Morgan (1866-

1945) sur la raison des divergences qui se constatent entre les différentes

cellules chez un individu ; à savoir sur leur différenciation en cellules

spécialisées, à quoi s’ajoute la singularité de chaque cellule au regard de

chacune de ses consœurs : « Si les caractères de l'individu sont déterminés

par les gènes, pourquoi toutes les cellules d'un organisme ne sont-elles pas

204

identiques ? » (T.H. Morgan, The Theory of the Gene, 1926). La même

réponse – celle de l’épigénome – pourrait être donnée à la question de

savoir pourquoi deux spécimens partageant un même patrimoine génétique

(à l’exclusion de quelques rares mutations somatiques), expriment

différemment ce patrimoine : comment se fait-il que deux vrais jumeaux

(monozygotes) ne soient pas en tout point similaires ? Comment se fait-il

qu’il ne se rencontre pas au monde deux êtres qui partagent rigoureusement

les mêmes propriétés physiques, physiologiques et même psychologiques ?

Comment rendre raison de l’apparition de certains cancers lorsque les

variations de la séquence d’ADN elles seules n’y suffisent pas ?

La syntaxe épigénétique

Réponse qui fait appel à d’autres mécanismes relevant de l’épigénétique, et

donc à une lecture différentielle du code en fonction du milieu où ce code

est traduit. Réponse qui tient à la perturbation occasionnée par des facteurs

environnementaux, affectant non pas le génome lui-même, mais

l’expression de ce génome à la faveur d’épimutations, bien plus fréquentes,

au reste, que les mutations classiques de l’ADN. Il apparaît, pour le dire

brièvement, qu’une même cellule totipotente n’évolue pas de la même

manière selon qu’elle subit telle ou telle pression et communique de telle ou

telle manière à tel endroit de l’organisme : elle sélectionne certaines parties

de son programme à activer, et certaines autres à laisser en latence. Au

niveau supérieur, nos habitudes de vie (régime alimentaire, états de stress,

mémoire du corps) influent sur la manière dont est interprété le texte

génétique inscrit dans nos cellules.

La conclusion est formulée par Thomas Jenuwein, directeur de recherche

au Max Planck Institute of Immunobiology and Epigenetics (MPI-IE) de

Freiburg : « On peut sans doute comparer la distinction entre la génétique et

l’épigénétique à la différence entre l’écriture d’un livre et sa lecture. Une

fois que le livre est écrit, le texte (les gènes ou l’information stockée sous

forme d’ADN) sera le même dans tous les exemplaires distribués au public.

Cependant, chaque lecteur d’un livre donné aura une interprétation

légèrement différente de l’histoire, qui suscitera en lui des émotions et des

projections personnelles au fil des chapitres. D’une manière très

205

comparable, l’épigénétique permettrait plusieurs lectures d’une matrice fixe

(le livre ou le code génétique), donnant lieu à diverses interprétations, selon

les conditions dans lesquelles on interroge cette matrice. ». Pour conserver

le registre de la métaphore, si le génome était le texte, l’épigénome en

serait, en quelque sorte, la ponctuation. Celle-ci jalonne le texte de points et

de virgules qui, en dernier ressort, bouleversent l’interprétation du texte.

Le transformisme réhabilité ?

Des épimutations surviennent ainsi au gré de l’existence des individus qui

donc peuvent être définies comme des altérations du patron d'expression

des gènes qui laissent intacte la séquence nucléotidique. Et – chose

inattendue, iconoclaste depuis qu’August Weismann avait posé la séparation

des lignées germinales et somatiques – transmissibles non seulement à

d’autres cellules issues des premières au cours de la mitose, mais aussi à ses

descendantes (les cellules filles), c’est-à-dire héritables sur plusieurs

générations à la faveur de la méiose, quoique leur cause environnementale

puisse avoir disparu. La syntaxe épigénétique fonctionne effectivement à la

manière d’un second plan de directives qui, loin de n’affecter que les

individus, se transmet également à leur postérité – chose décrétée

irrecevable il y a encore quelques années. Ce que l’on nomme aujourd’hui

l’« héritabilité des caractères complexes » semble par là remettre au goût du

jour la métaphore tant brocardée de la girafe extensible. L’épigénome fait

fonctionner de pair sélection naturelle et pressions de sélection induites. La

biologie contemporaine semble en ce sens marquer un retour à Lamarck, au

transformisme tant combattu, en réhabilitant ce que la théorie de la

sélection naturelle avait rendu caduc : la transmission des caractères acquis.

Au patrimoine génétique dont héritent les individus doit donc être ajoutée

une programmation parallèle de sa mise en œuvre au gré de processus sous

l’influence d’une pluralité de facteurs environnementaux. Une influence

qui rend inopérante toute tentative méthodologique pour réduire un

organisme à l’expression de son génome. C’est en effet une tout autre strate

de déterminations que nous découvre ainsi l’épigénome, nous obligeant à

reconsidérer de fond en comble le caractère exclusivement « aléatoire » des

mutations. La stabilité dynamique de l’épigénome renvoie à celle des formes

206

adoptées par la vie pour remplir ses fonctions : chacune est singulière, et

doit être appréciée de manière individuelle. Les objections soulevées par

Canguilhem contre le réductionnisme de son époque conservent ainsi en ce

début de XXIème siècle leur entière pertinence. La vie est bien en tout ceci,

une fois encore, ce qui introduit de la différence dans son milieu. Ce qui

converse avec cet environnement pour adapter ses normes – ici

positivement ou non – et affirmer dans sa plasticité son caractère

irréductible à ses seules composantes internes.

Pierre-Simon Laplace (1749-1827)

Principales contributions :

- Théorie analytique des probabilités (1812)

- Traité de Mécanique céleste (1799-1825)

- Essai philosophique sur les probabilités (1840)

Concepts et idées-forces :

- Le principe du déterminisme causal, fondement du mécanisme : « Nous

devons donc envisager l’état présent de l’univers comme l’effet de son état

antérieur et comme la cause de celui qui va suivre » (Essai philosophique sur les probabilités, Introduction). De ce qui est, il est théoriquement possible

d’inférer ce qui sera et ce qui a été. Suppose que les lois scientifiques sont

invariantes et dans l’espace, et dans le temps (d’où la notion de « constante

»).

- Déterminisme causal = transposition possible en mécanique de la Destinée

tragique et de la Fatalité des stoïciens, ou Fatum stoïcum (cf. Pascal Nouvel,

Philosophie des sciences). Ce même déterminisme est érigé par Claude

Bernard en principe méthodologique, hypothèse de travail nécessaire à la

science expérimentale.

- Le « démon de Laplace ». De manière analogue au « démon de Maxwell ».

Un être qui aurait l’intelligence parfaite de la position et du mouvement de

chaque élément de l’univers à un instant donné (en dépit des relations

d’incertitude d’Heisenberg) serait en théorie capable de prédire par calcul

n’importe lequel de ses états futurs : « Une intelligence qui, à un instant

donné, connaîtrait toutes les forces dont la nature est animée, la position

207

respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour

soumettre ces données à l’analyse, embrasserait dans la même formule les

mouvements des plus grands corps de l’univers, et ceux du plus léger atome.

Rien ne serait incertain pour elle, et l’avenir comme le passé seraient

présents à ses yeux » (Essai philosophiques sur les probabilités).

- Fiabilité de la prévision dans des domaines complexes disqualifiée dans la

pratique (mais non pas dans la théorie) par le principe de sensibilité

extrême aux conditions initiales (Poincaré), popularisé sous le nom de scène

de « théorie du chaos » (cf. le papillon de Lorenz).

- Formalisation, dans son Essai philosophique sur les probabilités, de la

logique inductive probabiliste aujourd’hui désignée comme étant celle de

Thomas Bayes. De ce dernier, il redécouvre en 1774 le théorème publié de

manière posthume onze ans auparavant.

- Le principe de Laplace. Ainsi nommé, il se rapporte au principe selon

lequel « Le poids des preuves doit être proportionné à l’étrangeté des faits »,

formule énoncée par le médecin et psychologue Théodore Flournoy (Des Indes à la planète Mars, 1899) en référence à un passage de l’Essai philosophique sur les probabilités : « Nous sommes si éloignés de connaître

tous les agens [sic] de la nature, et leurs divers modes d’action ; qu’il ne

serait pas philosophique de nier les phénomènes, uniquement parce qu’ils

sont inexplicables dans l’état actuel de nos connaissances. Seulement, nous

devons les examiner avec une attention d’autant plus scrupuleuse, qu’il

paraît plus difficile de les admettre ; et c’est ici que le calcul des probabilités

devient indispensable, pour déterminer jusqu’à quel point il faut multiplier

les observations ou les expériences, afin d’obtenir en faveur des agens [sic]

qu’elles indiquent, une probabilité supérieure aux raisons que l’on peut

avoir d’ailleurs, de ne pas les admettre ».

- Les mathématiques comme organon, ou instrument de résolution de

problèmes pratiques (contra le réalisme mathématique ou le pythagorisme

latent chez nombre de mathématiciens). Opportunisme méthodologique.

Qu’importe l’élégance ; tous les moyens sont bons, pourvu qu’ils conduisent

à destination.

- Développement de la mécanique céleste et de l’astronomie mathématique.

Laplace anticipe théoriquement le concept de trou noir qui attendra le

télescope Hubble pour être détecté (ou tout au moins, ses effets

gravitationnels).

208

Bruno Latour (1947-20XX)

Principales contributions :

- La vie de laboratoire. La production des faits scientifiques (avec Steve

Woolgar) (1979)

- La Science en action (1987)

- La Science telle qu'elle se fait (avec Michel Callon) (1991)

- Nous n'avons jamais été modernes (1991)

- Politiques de la nature. Comment faire entrer les sciences en démocratie

(1999)

- Changer de société, refaire de la sociologie (2007)

Concepts et idées-forces :

- Anthropologie des sciences. Mouvement original se rattachant sans s’y

confondre à la sociologie des sciences, elle-même construite en réaction

contre la philosophie des sciences, idéaliste, inapte, aux dires de ses

contradicteurs, à rendre compte de la réalité de l’activité scientifique, et

enfin contre l’histoire des sciences, impuissante à identifier une logique au

développement scientifique et à penser au-delà de la collecte brute des faits.

- Approche commune aux travaux de Steeve Wolgar, Karin Knorr-Cineta et

Michael Lynch. Inspirée de l’ethnométhodologie. Ethnographie de la vie

quotidienne en immersion au sein de l’environnement naturel des

scientifiques : le laboratoire. Faits et gestes, discussions, prises de notes,

manipulations expérimentales sont analysées non en fonction de ce que les

scientifiques disent faire, mais à l’aune de ce qu’ils font. Constate l’écart

entre le discours et la pratique, les paroles et les actes. L’objectivité du

socio-ethnologue tient ici à sa docte ignorance, savamment entretenue, et à

son aptitude à ne pas s’en laisser conter. Importent moins les théories et les

faits scientifiques que les procédures ayant permis de les obtenir.

- La question essentielle est de savoir comment un énoncé produit dans un

contexte expérimental et théorique particulier s’élève au statut de vérité

scientifique universelle et détachée de tout contexte, unanimement saluée

par la communauté. Pour y répondre, un outil d’analyse taillée sur mesure :

la sociologie de l’acteur-réseau.

- La sociologie de l’acteur-réseau (SAR) ; en anglais Actor-Network Theory

(ANT), dite également « sociologie de la traduction ». Une approche

développée en France avec Michel Callon et Madeleine Akrich. Tient

209

compte de l’ensemble des « actants » humains et non humains, à la

différence des théories sociologiques classiques. Veut abolir l’illusoire

distinction entre les catégories de nature et de société, de science et de

politique, d’approche micro- (fondée sur les interactions au quotidien) et

macro- (s’intéressant aux institutions). Notion de « démocratie technique ».

- Rejet des positions exclusivement externalistes, rationalistes, naturalistes

ou sociologisantes. Ce n’est ni le social seul, ni la nature en soi qui

détermine la science. La nature même est un concept dérivé, tributaire d’un

regard historiquement situé. Implique déjà une détermination par le regard.

De même, prise de distance au regard du postmodernisme et de la

philosophie de la déconstruction qui pose le fait scientifique comme le

produit d’un jeu de langage ou d’un effet de sens.

- Principe de symétrie. Une égale importance accordée à l’analyse de

l’ensemble des actants et des facteurs (organisationnels, cognitifs, discursifs,

etc.) entrant dans la composition des collectifs. Étude des controverses

scientifiques indifférentes aux réussites et aux échecs des théories,

conformément au principe de symétrie (= d’impartialité) posée par Barry

Barnes et David Bloor (1976). Obligation pour l’épistémologue à ne pas

tenir pour obsolète ou pour absurde une hypothèse temporairement hors-

course.

- Approche relationnelle, réticulaire. Démarche fondatrice de la sociologie

des organisations. Le monde scientifique (en fait, le monde dans son

ensemble) se compose moins de collections de groupes épars que d’un

réseau, un collectif constitué par l’ensemble des relations et médiations qui

font tenir ensemble des associations. Un fait ne tient jamais tout seul.

- Concept de traduction. Transposition d’une notion introduite en

sémiotique par A.J. Greimas, revisitée par les travaux de Michel Serres.

Opération par laquelle des acteurs individuels ou collectifs s’érigent en

porte-parole de la cause de leur groupe (ils en « traduisent » les volontés) et

tentent de convertir d’autres acteurs. La mise en relation de ses acteurs est

tributaire d’une transformation des propositions et des positions

scientifiques qui a pour fonction d’en déployer les éléments et les enjeux

dans une sphère d’activité hétérogène. Le sens d’un énoncé scientifique est

également stabilisé ensuite d’une série de traductions (matériau de

laboratoire, subventions, dispositifs, articles dans des revues à comité de

210

lecture) qui le rend disponible et le fait circuler, via une adaptation de

connaissances toujours sujettes à controverse.

- Importance de la controverse. C’est à son feu que s’élaborent les faits. Son

analyse est celle du processus de construction et de stabilisation des énoncés

scientifiques. Ce n’est pas l’observation qui stabilise le fait, mais bien plutôt

le consensus qui s’ordonne autour de lui.

- Le réseau. Hétérogène par nature, commis insiste le sociologue John Law.

Association d’actants humains et non-humains liés les uns aux autres par

des médiations, formant ensemble une « méta-organisation » incluant

sphères d’activité, d’institution et d’organisation. Étudier un acte d’achat

implique de s’intéresser au producteur autant qu’au consommateur et au

vendeur, à l’espace de vente, à la caisse enregistreuse, à la monnaie, au

marketing, aux habitus, etc.

- Les acteurs-réseau. Les actants ou acteurs-réseau sont, pour la SAR, les

véritables éléments constitutifs de la science, qui permettent de penser

l’articulation entre la recherche scientifique, les applications techniques et

les besoins publics. Sont acteurs de la science : les scientifiques, les cobayes,

les atomes, les réactions chimiques, les microscopes, les accélérateurs de

particules, les équations mathématiques, les instituts, les journalistes. Tout

acteur est un réseau ; tout réseau est un acteur. Ils peuvent être locaux,

globaux, de faible ou de vaste envergure, croître et s’étendre ou perdre de

leur influence. C’est leur interaction qui tisse le phénomène social. Toute

action effectuée par un actant engendre des effets en retour sur le réseau

entier, jusqu’à provoquer son effondrement s’il en est un élément clé. Ainsi

de la disparition du téléphone, de l’institution présidentielle de la banque

centrale.

- Implique que la science se constitue autant à l’intérieur qu’à l’extérieur du

laboratoire : à l’occasion de séminaires, de colloques, de négociations avec

les financiers et les pouvoirs publics, avec les populations locales

éventuellement impactées, avec les fournisseurs, les sociétés chargées de la

maintenance, les sponsors éventuels, etc.

- La méthode en dix étapes pour étudier, traduire et tenter d’influer sur un

réseau décline 1) l’analyse du contexte, 2) la thématisation du traducteur, 3)

le point de passage obligé (PPO) et la convergence, 4) les porte-paroles, 5)

les investissements de forme, 6) les intermédiaires, 7) l’enrôlement et la

211

mobilisation, 8) les opérations de rallongement et d’irréversibilité, 9) la

vigilance, la transparence et 10) la ponctualisation.

- Processus de stabilisation des énoncés. Les scientifiques considérés comme

des « investisseur en crédibilité » en perpétuel recherche d’alliés au sein de

réseaux socio-techniques. La science conçue comme un rapport de force.

- Extension de la SAR au champ du Droit (La fabrique du droit. Une ethnographie du conseil d’État, 2004). Généralisation aux sciences, aux

religions et à l’ensemble des domaines de la production sociale des vérités («

Coming out as a philosopher », dans Social studies of science, 2010).

- Réflexivité. De même que l’épistémologie de Kuhn peut être vue comme

un paradigme révolutionnaire, la SAR peut être aussi considérée comme un

acteur-réseau qui ne cesse de prendre de l’ampleur. Contribue à

l’émergence des « science studies ».

Gottfried W. Leibniz (1646-1716)

Principales contributions :

- Discours de métaphysique (1685)

- Nouveaux Essais sur l'entendement humain (1705)

- Monadologie (1714)

Concepts et idées-forces :

- Une œuvre polymathe, totalisante. Relativise la pertinence de la

prétention à séparer les enjeux scientifiques des choix philosophiques,

théologiques, métaphysiques opérés par les hommes de science. On en

dirait autant de Galilée, de Descartes, de Pascal ou de Newton.

- L’une des dernières figures du savant universaliste. Elle s’estompe au XIXe

siècle pour céder place au scientifique universitaire et au chercheur

spécialisé, à l’enseignant-chercheur lié au statut de fonctionnaire. Au XXe

siècle émerge la figure du chercheur entrepreneur ou du chercheur

industriel. D’où l’exigence – déjà mise en lumière par Marx – de tenir

compte des conditions matérielles de production de la science.

- Relativement à l’interprétation de la relation âme-corps, oppose la

conception paralléliste ou concomitante de l’harmonie préétablie à

l’interactionnisme du grand Arnaud, impulsée par Descartes, ainsi qu’à

l’occasionnalisme de Malebranche.

212

- Principe de raison suffisante. « Nihil est sine ratione. » Dieu même n’agit

pas sans raison, quoiqu’en ait dit Descartes et quoi qu’en dise Arnaud.

Caprice, c’est fini.

- Principe d'identité des indiscernables.

- Physique du continu : « natura non fecit saltus », « la nature ne fait pas de

sauts ».

- Définition de la vérité comme compréhension du prédicat dans le sujet :

« Praedicatum inest subjecto ». Concerne également les notions complètes :

il est dans la substance d’Adam de goûter au fruit de l’arbre de la

connaissance. Néanmoins, compatibilisme. Les raisons inclinent sans

déterminer.

- Nécessité absolue vs. nécessité ex hypothesi. - Les deux labyrinthes : le problème du mal et le problème de la liberté.

- Caractéristique universelle. Entreprise de réduction de l’ensemble de la

pensée humaine à une algèbre générale : « Penser, c’est calculer », écrivait

Hobbes. Pose les fondements du calcul binaire. Projet repris avec le

formalisme du positivisme logique, puis par George Boole à l’origine du «

calcul symbolique ».

- Distinction entre force motrice ou « force vive » (vis viva) et quantité de

mouvement que ne faisait pas Descartes. La première seule est préservée à

l’occasion du choc entre deux corps, sans quoi le mouvement perpétuel

(surunitaire) serait possible, et il y aurait alors davantage de réalité dans

l’effet qu’il n’y en a dans la cause : « Il y a longtemps déjà que j’ai corrigé la

doctrine de la conservation de la quantité de mouvement, et que j’ai posé à

sa place quelque chose d’absolu, justement la chose qu’il faut, la force (vive)

absolue… On peut prouver, par raison et par expérience, que c’est la force

vive qui se conserve » (Specimen dynamicum).

- Géométrisation de la cinématique (de pair avec Pierre Varignon).

- Calcul différentiel (codécouvert avec Newton) ; d’où une querelle de

paternité doublée par la rivalité entre la France et l’Angleterre.

James Lovelock (1919-20XX)

Principales contributions :

- Les Âges de Gaïa (1990)

- La Terre est un être vivant. L’hypothèse Gaïa (1999)

213

- La Revanche de Gaïa (2006)

Concepts et idées-forces :

- L'hypothèse Gaïa. Nom de scène de l’hypothèse biogéochimique élaborée

avec Lynn Margulis. Anticipée par nombre de scientifiques et d’esprit

religieux avant sa thématisation en 1972 par James Lovelock, elle propose

de considérer la Terre comme « un système physiologique dynamique qui

inclut la biosphère et maintient notre planète depuis plus de trois milliards

d'années, en harmonie avec la vie » (La Revanche de Gaïa, 2006).

Autorégulation ou homéostasie d’un superorganisme jouant sur différentes

variables (telles la composition de l’atmosphère, elle-même régie par,

notamment, les bactéries) finalisée selon Lovelock au développement et au

maintien de la vie. Cette hypothèse accueillie avec méfiance et scepticisme

de la part des scientifiques qui lui reprochent (peut-être à juste titre) une

accointance avec le paganisme New-Age.

- Un anthropomorphisme controversé. De nombreuses résistances à son

hypothèse, notamment dues à sa teneur « spiritualiste » ou « animiste »,

propice aux dérives de tous ordres. « Gaïa » refait ainsi surface depuis les

essarts oubliés de l’Antiquité grecque, où l’avait reléguée l’attitude

cartésienne de démystification de la nature, renouant avec la désanimation

à l’œuvre dans la Genèse. Elle porte à une « foi » renouvelée et à un

renouveau du sentiment mystique et archaïque de la Terre-Mère, mettant

en porte-à-faux un autre dogme issu de la culture judéo-chrétienne, le

matérialisme, porté à incandescence par l’humanisme selon lequel « la Terre

est destinée à être exploitée pour le bien de l'humanité » (« A

geophysiologist thoughts on geoingineering », dans Philosophical Transactions of Royal Society, 2008).

- Lovelock se défend toutefois de prendre au pied de la lettre l’idée d’une

Terre animée ; « Gaïa » n’est pas un article de foi, mais une métaphore à

valeur heuristique : « Car les métaphores sont plus que jamais nécessaires

pour faire comprendre au plus grand nombre la véritable nature de la Terre

et les périls mortels qui se profilent à l'horizon » (ibidem). C’est en effet «

seulement en considérant notre planète comme une entité vivante que nous

pouvons comprendre (peut-être pour la première fois) pourquoi

l'agriculture a un effet abrasif sur le tissu vivant de son épiderme et

pourquoi la pollution l'empoisonne tout autant que nous » (La Revanche de

214

Gaïa, 1999). Une entité vivante = un système autorégulé ; Lovelock n’en dit

pas plus. Libre à chacun d’en tirer pour lui-même les conclusions qu’il juge

appropriées.

- Autre critique développée en particulier par James Kirchner, celle qui

dénonce la faiblesse épistémologique de l’hypothèse Gaïa. Les postulats de

ce modèle ne sont pas réfutables ; ils ne sont donc pas scientifiques au sens

défini par Popper. Mais il n’est pas certain que l’épistémologie de Popper

soit applicable au domaine de la biologie auquel Lovelock essaie de

raccrocher ses thèses.

- Un modèle descriptif mais aussi prescripteur. À la jonction entre

philosophie, religion, politique, économie, écologie (d’où la revendication

d’interdisciplinarité). Contre le mythe du développement durable, le

discours associé au modèle biogéochimique préconise la régulation (voire la

diminution, jusqu’à disparition) de la population en une manière de retour à

un malthusianisme déguisé, et – contre les écologistes traditionnels –

promeut la génération du nucléaire censément moins polluant que les

énergies carbones, et moins consommateur en matières premières (coût de

fabrication) que les énergies renouvelables. Le soupçon de misanthropie

porte également, s’inscrivant dans la tradition de l’écologie profonde (deep ecology) qui prend le contre-pied de l’humanisme. Il semblerait que

l’humanisation de la Terre ait pour contrepartie la réification ou la

dévalorisation de l’homme, conçu comme une variable d’ajustement.

L’homme est une maladie de la Terre ; il faut guérir la Terre.

Stéphane Lupasco (1900-1988)

Principales contributions :

- La physique macroscopique et sa portée philosophique (1935)

- L'expérience microphysique et la pensée humaine (1940)

- Logique et contradiction (1947)

- Le principe d'antagonisme et la logique de l'énergie (1951)

- Les trois matières (1960)

- Science et art abstrait (1963)

215

Concepts et idées-forces :

- Hégémonie de la logique, dont relèvent aussi bien les raisonnements de

l’esprit (propositions logiques) que les phénomènes de la nature dans son

ensemble (objets, éléments, événements), dans une optique proche de celle

de Hegel. Est du domaine de la logique tout ce qui relève du dynamisme : «

Nous appelons logique tout ce qui porte les caractères de l'affirmation et de

la négation, de l'identité et de la non-identité ou diversité, qui engendre,

par leur coexistence ou conjonction ou par leur indépendance ou

disjonction, une notion de contradiction ou une notion de non-

contradiction et qui, sans autre secours que le sien propre, déclenche des

enchaînements déductifs. Un fait donc, quel qu'il soit, expérimental ou

mental, sensible ou intellectuel, est considéré comme logique dans la

mesure où il est marqué par ces caractères, conditionné par ces notions et

engendré par ces implications, indépendamment de savoir si cette marque,

ce conditionnement et cette déduction relèvent de l'esprit connaissant ou

de quelque autre réalité – cela, c'est un autre problème » (Le principe d'antagonisme et la logique de l'énergie, 1951).

- Logique dynamique du contradictoire. Intègre la logique classique à titre

de cas particulier d’une logique de l’énergie dont les autres espèces ne font

pas droit au tiers exclu (de même que la géométrie euclidienne caractérisée

par l’inscription du cinquième postulat d’Euclide n’est qu’un des cas

particuliers de l’ensemble des géométries). Le corrélât en est le principe du

tiers inclus. Il est ce qui différencie la logique dynamique de la logique

classique et permet de rendre compte de la circulation de la matière-

énergie selon ses trois moments (les « trois matières ») : la matière-énergie

1) macrophysique, 2) vivante, 3) psychique.

- Le principe d'antagonisme. Cheville ouvrière de la logique dynamique du

contradictoire, il stipule qu’« à tout phénomène ou élément ou événement

logique quelconque, et donc au jugement qui le pense, à la proposition qui

l'exprime, au signe qui le symbolise : e, par exemple, doit toujours être

associé, structuralement et fonctionnellement, un anti-phénomène ou anti-

élément ou anti-événement logique, et donc un jugement, une proposition,

un signe contradictoire : non-e ; et de telle sorte que e ou non-e ne peut

jamais qu'être potentialisé par l'actualisation de non-e ou e, mais non pas

disparaître afin que soit non-e soit e puisse se suffire à lui-même dans une

indépendance et donc une non-contradiction rigoureuse (comme dans toute

216

logique, classique ou autre, qui se fonde sur l'absoluité du principe de non-

contradiction) » (ibidem). Le principe d’antagonisme associe donc à chaque

objet un pendant négatif qu’il porte en germe et sans lequel il ne pourrait y

avoir de dynamisme concevable. À rapprocher encore une fois de la science

de la logique selon Hegel.

Ernst Mach (1938-1916)

Principales contributions :

- La connaissance et l'erreur (1905)

Concepts et idées-forces :

- Principe d’économie de pensée.

- Nature économique de la recherche en physique.

- Précurseur du positivisme logique (Cercle de Vienne = Société Ernst

Mach).

Émile Meyerson (1859-1933)

Principales contributions :

- Identité et réalité (1908)

- De l’explication dans les sciences (1921)

- La déduction relativiste (1925)

Concepts et idées-forces :

- Épistémologie réaliste opposée au positivisme de Comte. La science doit

faire droit à l’explication, à la recherche des causes et ne pas s’en tenir à la

description.

- « L'homme fait de la métaphysique comme il respire ». Oppose une fin de

non-recevoir aux prétentions des positivistes logiques.

- Affirmation d'un continuisme entre la science et le sens commun (vs.

Duhem, Bachelard et Comte) ainsi que dans l’ordre du progrès scientifique

(influence de l'évolutionnisme).

- Le mouvement de la connaissance répond d’une dialectique entre l’esprit

humain qui voudrait imposer identité aux choses et la réalité qui lui résiste.

Les tentatives de résorption de cet écart sont le ressort du progrès

scientifique.

217

- Rejet de l’utilitarisme, du pragmatisme et de la réduction positiviste.

Appel à un élargissement du champ des sciences.

- Complexité des phénomènes, débiteurs d’une pluralité de facteurs. Les

modèles théoriques sont simplificateurs ; il y aura toujours un décalage

entre la prédiction et l’observation.

- Spécificité des disciplines. Développe une réflexion à partir de la chimie

dont il excipe les traits particuliers. On peut mettre une formule en

équation, la réaction chimique n'est pas certaine et ne peut être extrapolée

d’avance. Les mêmes formes d’inférence ne valent pas pour la physique,

pour les mathématiques, la chimie et les sciences humaines ; il faudra tenir

compte de la nature irréductible de chaque domaine.

Robert K. Merton (1910-2003)

Principales contributions :

- « The normative structure of science » dans The sociology of science

(1942)

- Social Theory and Social Structure (1949)

- Éléments de théorie et de méthode sociologique (1965)

- The Travels and Adventures of Serendipity (avec Elinor Barber) (2004)

Concepts et idées-forces :

- Pionnier de la sociologie des sciences en vertu de ses travaux entrepris

vers 1940. La discipline, riche en paradigmes concurrents, se focalise de

manière générale sur la question des modes de fonctionnement et

d’organisation de l’espace scientifique ainsi que sur l’influence du contexte

de production des connaissances.

- Deux types de normes interdépendantes régissent l’espace social de

production scientifique : les normes méthodologiques (relatives aux

techniques) d’une part ; de l’autre les normes éthiques. Ces dernières se

déclinent en quatre éléments : l'universalisme (la science doit être

universelle et objective autant que faire se peut), le communalisme (les

connaissances scientifiques ne sont la propriété de personne et ont vocation

à devenir accessibles à tous), le désintéressement (les intérêts privés ne

doivent pas interférer ; il s’agit de garantir l’autonomie économique et

218

politique de l’activité) ; enfin, le scepticisme organisé (les résultats doivent

être déférés à la critique et vérifiés par la communauté).

- Un tel système de normes et de principes recteurs constitue ce que Merton

appelle un ethos scientifique.

- Effet Matthieu (Matthew Effect). En référence à une sentence extraite de

l’Évangile selon Matthieu : « Car on donnera à celui qui a, et il sera dans

l'abondance, mais à celui qui n'a pas on ôtera même ce qu'il a ». Accuse le

mécanisme pervers en vertu duquel les chercheurs les plus en vue

confortent d’autant plus vite et facilement leur statut d’autorité qu’ils sont

déjà connus, accentuant toujours plus l’écart qui les sépare de la masse des

scientifiques. Une spirale d’entraînement. On ne prête (de crédibilité)

qu’aux riches.

- Distinction entre les « théories de moyenne portée » (middle range

theories), applicables à un phénomène particulier et les « théories générales

», prétendant embrasser l’ensemble d’un système social. Les sciences

humaines ne doivent pas se risquer aux théories du second type sans avoir

préalablement produit suffisamment de théories du premier type, destinées

à servir de « groupes de référence ».

- Décrit le mécanisme de prophétie auto-réalisatrice (self-fulfilling-

prophecy) : « La prophétie auto-réalisatrice est une définition d'abord fausse

d'une situation, mais cette définition erronée suscite un nouveau

comportement, qui la rend vraie ».

- Introduit en sociologie le concept de sérendipité (serindipity) pour définir

« la découverte par chance ou sagacité de résultats pertinents que l'on ne

cherchait pas. Elle se rapporte au fait assez courant d'observer une donnée

inattendue, aberrante et capitale (strategic) qui donne l'occasion de

développer une nouvelle théorie ou d'étendre une théorie existante »

(Éléments de théorie et de méthode sociologique) ; ou encore « le processus

par lequel une découverte inattendue et aberrante éveille la curiosité d'un

chercheur et le conduit à un raccourci imprévu qui mène à une nouvelle

hypothèse » (Social Theory and Social Structure).

- S’inspirant des célèbres travaux de Max Weber sur l’Éthique protestante et l’esprit du capitalisme (1904-5), montre que les valeurs puritaines ont

lourdement pesé dans le processus de développement des sciences. Ainsi, la

Royal Society réunissait à l’origine des savants religieux imprégnés de

valeurs puritaines exaltants la raison comme instrument de lutte contre les

219

passions, inspirant la rigueur dans la pratique : « La combinaison de la

rationalité et de l’empirisme, si évidente dans l’éthique puritaine, forment

l’essence de la science moderne ». La sotériologie protestante rejoint encore

la science dans son souci d’améliorer la situation matérielle de l’humanité.

Le lien est souligné dans les études de la Royal société entre la découverte

patiente de la création et la glorification de Dieu. Le développement des

sciences fut enfin à Cambridge coextensive de la prévalence de l’influence

puritaine.

Gaston Milhaud (1858-1918)

Principales contributions :

- Les philosophes géomètres de la Grèce. Platon et ses prédécesseurs (1900)

- Nouvelles études sur l'histoire de la pensée scientifique (1911)

Concepts et idées-forces :

- Occupe la première chaire de philosophie des sciences.

- Développe un rationalisme dynamique ou historique qui va ensuite

influencer Brunschvicg.

- Tente de reconstituer l'état des mathématiques à l'époque de Platon. La

géométrie d'Euclide est en effet une synthèse alexandrine tardive. Milhaud

s’inscrit dans un contexte où l'on s'éloigne d'Aristote pour s'intéresser au

rationalisme platonicien (rôle heuristique du nombre et des idées : des

abstractions qui permettent de se saisir au mieux de la réalité) alors que la

notion de nombre s'élargit considérablement (nombres irrationnels,

imaginaires, etc.) et que surgissent à nouveau frais les questions liées à

l’infini potentiel et actuel.

- Précurseur du conventionnalisme. Le recours aux propositions

conventionnelles est à la fois indispensable et libre.

John Stuart Mill (1806-1873)

Principales contributions :

- Système de logique déductive et inductive (1843)

220

Concepts et idées-forces :

- Éthologie. Science de la formation du caractère, déduite des lois

universelle de l’esprit rapportées aux circonstances particulières.

- Distinction entre déterminisme et fatalisme, deux acceptions de la

nécessité selon, respectivement, le principe de raison (tout phénomène ou

événement procède d’une cause) et le principe de prédestination. Assied la

possibilité d’une science humaine tout en conjurant le sophisme paresseux.

- Les quatre (ou cinq) méthodes fondamentales de la preuve inductive

(exposées au cours du livre III) : par concordance, par différence, par

concordance et différence combinée, par résidus, par variations

concomitantes.

- Principes de l’association des idées : par ressemblance, par contiguïté, et

par contiguïté répétitive.

- Rejet de la méthode hypothético-déductive (si/alors) car le vrai peut

logiquement être déduit du faux. Il convient de lui préférer une méthode

inductivo-déductive.

- Distinction entre observation et expérimentation.

- Critique de la syllogistique et de la métaphysique aristotéliciennes. Mill

définit de nouvelles catégories logiques : sentiments, esprits, corps, relations

fondamentales.

- Un principe théorique : l’induction, complété par un principe pratique :

l’utilité.

Jean-Louis Le Moigne (1931-20XX)

Principales contributions :

- Le constructivisme (1994)

- Les épistémologies constructivistes (2003)

Concepts et idées-forces :

- Épistémologie constructiviste.

- Méta-théorie des systèmes. L’existence positive et objective des systèmes

ne peut être démontrée. Systèmes interprétés comme des modélisations

commodes et pragmatiques, construits en vue de finalités humaines par le

théoricien plutôt que découverts dans la réalité.

221

Edgar Morin (1921-20XX)

Principales contributions :

- Le Paradigme perdu : la nature humaine (1973)

- La Méthode (6 vol.) (1981-2008)

- Science avec conscience (1982)

- L’Intelligence de la complexité (avec Jean-Louis Le Moigne) (1999)

- Relier les connaissances (1999)

- Introduction à la pensée complexe (2005)

Concepts et idées-forces :

- Pensée complexe. Sens étymologique de com-plexus : « tissé ensemble », «

enchevêtré », « entrelacé ». Un nouveau paradigme épistémologique proposé

dans Science avec conscience (1982). Promeut la transdisciplinarité contre

la spécialisation, tirant les conséquences de l’imbrication des différents

domaines de la connaissance.

- Épistémologie complexe. Approche globale, en rupture d’avec une

épistémologie classique analytique. S’inscrit dans la continuité des

épistémologies bachelardienne (concernant notamment la question des

problèmes cognitifs) et piagétienne (pour ce qui concerne la biologie de la

connaissance, le rapport de la logique à la psychologie et le sujet

épistémique). S’intéresse aussi bien aux instruments de connaissance

(intellectuels autant que pratiques) aux savoirs produits, qu’à leur contexte

de production tant cognitif que socioculturel.

- Modèle du réseau. Métaphore empruntée à Nicholas Rescher pour

illustrer l’horizontalité de l’épistémologie complexe qui n’est pas

hiérarchique comme pouvait l’être l’épistémologie classique. Il n’y a pas de

niveau plus ou moins radical. Tout système – et cela vaut également des

systèmes de pensées – fonctionne de manière circulaire et intégrée ; chaque

partie se comprend au regard de l’ensemble et de l’ensemble des autres

parties. Approche physiologique versus anatomique. Idée de dynamique de

récursivité rotative.

- Principes fondamentaux de l’épistémologie complexe :

(1) Le principe d'« auto-éco-organisation ». Néologisme qui articule

l’autonomie (auto-) d’un système à sa capacité à interagir avec

l’environnement (éco-). « L’être vivant […] est assez autonome pour puiser

222

de l'énergie dans son environnement, et même d'en extraire des

informations et d'en intégrer de l'organisation ».

(2) Le principe dialogique. Réinscription de deux notions en apparence

contradictoires dans un rapport de complémentarité, ce qui permet de

penser des processus complexes. Exemple du phénomène de la dualité

onde-corpuscule. Le nécessaire dépassement du principe du tiers-exclu

prend avec Stéphane Lupasco la forme du tiers-inclus.

(3) Le principe hologrammatique. « La partie est dans le tout, mais le tout

est dans la partie ». Modèle de la figure fractale. Analogies de la fougère ou

du noyau de la cellule qui abrite l’intégralité du patrimoine génétique du

corps dont elle est un fragment.

(4) Le principe des boucles de rétroactions (feed-back). Notion introduite

par Norbert Wiener dans le domaine de la cybernétique. Décrit à l’origine

un mécanisme qui rend possible l’homéostasie d’un système (son

autorégulation, son retour à l’équilibre, le rétablissement de sa norme) en

dépit des variations de son environnement. Signifie par extension (et par

dérivation) que toute action a des effets en retour sur l’agent, lequel est

constamment appelé à y répondre par de nouvelles actions ou contr-actions.

Ce qui est un instrument de régulation peut tendre à l’emballement avec

des effets amplificateur ; ainsi dans le cas emblématique de la surenchère

militaire (course aux armements). On parlerait plus couramment de cercle

vicieux – bien que l’orientation vertueuse soit également possible.

(5) Le principe de récursion organisationnelle. Système circulaire au sein

duquel les effets engendrés sont eux-mêmes producteurs des causes dont ils

procèdent. Le producteur est également produit, et le produit le producteur

; de même la cause est également l’effet. Le processus de reproduction des

êtres vivants offre une illustration de ce phénomène de récursion dans la

mesure où le géniteur fabrique l’engeance à l’origine du géniteur, sans que

l’on puisse (ou qu’il soit pertinent) de déterminer à quelle instance revient

la primauté. Le paradoxe de l’œuf et de la poule. Exemple de l’homme et du

langage : « Il est donc sensé de penser que c'est le langage qui a créé

l'homme, et non l'homme le langage, mais à condition d'ajouter que

l'hominien a créé le langage » (Le paradigme perdu) ; « Le langage est en

nous et nous sommes dans le langage. Nous faisons le langage qui nous fait.

Nous sommes, dans et par le langage, ouverts par les mots, enfermés dans

les mots, ouverts sur autrui (communication), fermés sur autrui (mensonge,

223

erreur), ouverts sur les idées, enfermés dans les idées, ouverts sur le monde,

fermés au monde » (La Méthode).

- Les propriétés émergentes. Postulat issu de la théorie des systèmes,

énonçant que le tout est plus que la somme des parties. Atteint un certain

niveau de complexité, il y a franchissement d’un seuil qualitatif, apparition

de phénomènes irréductibles aux lois qui s’appliquaient aux éléments.

Inéquation de la synergie : 1 + 1 = 3 (I + I = +). La plus-value ne s’explique

pas par l’addition des premiers membres de l’équation ; elle est le fruit de

l’organisation du tout. C’est une propriété ou qualité émergente qui peut en

revanche rétroagir sur les parties. Si néanmoins le tout peut être plus que

les parties, on peut aussi trouver que les parties sont supérieures au tout et

cela simultanément ou – ce qui revient au même – que « le tout est

également moins que la somme des parties car les parties peuvent avoir des

qualités qui sont inhibées par l'organisation de l'ensemble ». Appert ici tout

l’intérêt du principe dialogique.

- Connaissance intégrée et réflexive vs. technique, analytique, objectivante.

« Toute connaissance (et conscience) qui ne peut concevoir l'individualité,

la subjectivité, qui ne peut inclure l'observateur dans son observation, est

infirme pour penser tous problèmes, surtout les problèmes éthiques. Elle

peut être efficace pour la domination des objets matériels, le contrôle des

énergies et les manipulations sur le vivant. Mais elle est devenue myope

pour appréhender les réalités humaines et elle devient une menace pour

l'avenir humain » (La méthode).

- Principe d'incertitude logique. La logique bivalente classique fondée sur le

principe de non-contradiction devient un obstacle à la connaissance. Le

paradoxe du Crétois (ou paradoxe du menteur) formulé par Épiménide

illustre ses limites à son niveau le plus basique. Le théorème d’incomplétude

avancé par Gödel démontre en sus que la logique est impuissante à se fonder

elle-même. La mécanique quantique, mettant à jour la dualité onde-

corpuscule, suggère enfin que « certains aspects de la réalité micro-physique

n'obéissent pas à la logique déductive-identitaire » (La méthode).

- On ne peut fonder la raison sur la logique. Contra les ambitions

réductionnistes du Cercle de Vienne. Cela n’est pas nécessaire, dans la

mesure où « la vraie rationalité reconnait ses limites et est capable de les

traiter (méta-point de vue), donc de les dépasser d'une certaine manière

tout en reconnaissant un au-delà irrationalisable » (La Méthode). Cela n’est

224

pas souhaitable en ce qu’une pensée soumise à la rigueur de la logique

perdrait en créativité, en invention et en complexité. Il ne s’agit pas de

prendre de la logique, seulement d’en faire un usage mesuré : « L'usage de la

logique est nécessaire à l'intelligibilité, le dépassement de la logique est

nécessaire à l'intelligence. La référence à la logique est nécessaire à la

vérification. Le dépassement de la logique est nécessaire à la vérité » (ibid.).

Otto Neurath (1882-1945)

Principales contributions :

- « L'Encyclopédie comme modèle », dans Revue de Synthèse (1936)

- International Encyclopedia of Unified Science (1938)

- « Unified Science as Encyclopedic Integration », dans International Encyclopedia of Unified Science (1938)

Concepts et idées-forces :

- Positivisme logique. Rédacteur du manifeste fondateur du Cercle de

Vienne, paru en 1929 sous le titre « La conception scientifique du monde ».

Voir Rudolf Carnap.

- Défenseur de l’empirisme logique.

- Le réductionnisme logique et le formalisme mathématique en mesure de

résoudre les querelles politiques, de la même manière que Leibniz voulait

résoudre les querelles métaphysiques grâce à la réduction logique de la

Caractéristique universelle.

- Création de l'ISOTYPE (pour International System Of TYpographic

Picture Education), système de représentation symbolique de données et

d’informations faisant appel à des icônes élémentaires.

- Unité de la science au-delà de la diversité des sciences. Projet d'une «

Encyclopédie des Sciences Unifiées ». Œuvre à la réconciliation de la

démarche logico-déductive des sciences formelles et de la démarche

inductiviste des sciences de la matière, ayant constaté que la « recherche

empirique avait longtemps été en opposition radicale avec les constructions

logiques a priori dérivant de systèmes philosophico-religieux »

(Encyclopédie des Sciences Unifiées).

- En ressort l'empirisme scientifique comme tentative pour ramener à

l’unité la multiplicité des terminologies scientifiques.

225

- Choix de présenter cette unification sur un modèle encyclopédique, et

non pas hiérarchique, filial comme chez Carnap.

- Dix fascicules parus en 1938, comprenant les contributions de Charles

Morris, Rudolf Carnap, Leonard Bloomfield, Niels Bohr, John Dewey,

Bertrand Russell et alii, balayant les domaines de la théorie des probabilités,

de la cosmologie, de la biologie et de la psychologie.

Isaac Newton (1643-1727)

Principales contributions :

- Principes mathématiques de la philosophie naturelle (Principia Mathematica) (1686)

Concepts et idées-forces :

- Membre de la Royal Society, fondée en 1660 à Londres avec pour vocation

de développer les sciences et de favoriser l’échange entre savants. Animé,

selon Robert K. Merton, par l’esprit puritain de l’éthique protestante qui fut

l’un des déterminants de la rigueur, de l’enthousiasme (stricto sensu) et du

rationalisme de ses membres.

- Incarnation typique du savant universaliste du XVIIe siècle, physicien,

mathématicien et opticien. Fait la synthèse entre une philosophie mécaniste

de la nature et une exigence expérimentale étayée par la multiplication des

instruments de mesure. Figure à la fois distincte du clerc du Moyen Âge, de

l’humaniste de la Renaissance, du scientifique institutionnalisé du XIXe

siècle et du chercheur spécialisé ou du chercheur entrepreneur du XXe

siècle appelé à leur succéder.

- Loi de la gravitation universelle ou loi de l'attraction universelle : « Deux

corps massifs s'attirent en raison directe de leur masse et en raison inverse

du carré de leur distance ». Déduite du mouvement des planètes. Réconcilie

sous une même loi le monde supra- et sublunaire. Situation d’actualité du

fait que la physique contemporaine fait face à une incompatibilité entre la

théorie supposée rendre compte des phénomènes à l’échelle macroscopique

(la relativité d’Einstein) et la micro-physique (la mécanique quantique).

Tentatives de résolution de cette dualité à la faveur d’une théorie quantique

de la gravitation : théorie des cordes ou théorie quantique à boucles.

226

- Plutarque précède Newton qui devait achever de réconcilier les lois de « la

terre pesante et du ciel étoilé » sous les auspices de la physique moderne.

L’auteur des Œuvres morales constatant à l’œil nu les contours cabossés de

la lune, en concluait déjà sans autre forme de procès que « la Lune est une

terre céleste » (De la face qui paraît sur la Lune, XVIII) que le soleil

invisible baigne de sa lumière. Est ainsi récusée la distinction que posait le

Stagirite entre la physique sublunaire, lieu de l’errance et de

l’approximation, et la physique des corps célestes d’une régularité parfaite.

Il faut encore rendre justice à ce savant biographe et génie méconnu pour

avoir deviné, 1600 ans avant Newton, ce que Newton n’a fait que

thématiser, la loi de la gravitation : « La lune, écrit Plutarque dans son traité

sur l’astre, n’est pas entraînée vers la Terre par son poids car ce poids est

repoussé et détruit par la force de rotation » (ibid., VI). Plutarque allait plus

loin encore. Plus loin que Copernic ; plus loin que Galilée ; plus loin que

Kant lui-même et ses « univers-îles », là où aucun de ses contemporains

n’aurait accepté de le suivre. Il affirmait que chaque astre lumineux était le

pivot rotatif d’un ou de plusieurs mondes (nous dirions aujourd’hui qu’il est

autant d’étoiles que de systèmes solaires), et que le mouvement grave des

corps célestes tendait vers lui. Ainsi de la Terre quant au Soleil, ainsi de la

Lune quant à la Terre. Bien plus : Plutarque, avant Bruno, anticipait par

induction la découverte des exoplanètes : « Chacun des mondes a une terre

et une mer » (Sur les sanctuaires dont les oracles ont cessé, XVII). Si le «

chacun » est de trop, le reste ne l’est plus depuis la mise au jour d’océans

recouverts de glace ou de traces d’eau liquide sur les corps telluriques tels

que les lunes de Jupiter (e.g. les geysers d’eau d’Europe).

- Épisode apocryphe de la pomme de Newton, écho biblique de l’Arbre de

la Connaissance. Interroge sur les processus de découverte et sur la

reconstruction a posteriori des intuitions scientifiques.

- Trois lois du mouvement, aussi dites « lois de Newton », au fondement de

la mécanique classique :

(1) Principe d’inertie : « Tout objet en état de mouvement rectiligne

uniforme et soumis à aucune force extérieure, conserve son mouvement,

dans un repère galiléen ». Reformulation d’un principe déjà énoncé par

Galilée. Il est tout ce qui sépare la philosophie naturelle de la physique

moderne.

227

(2) Principe de la dynamique des corps : La force appliquée à un corps est

égale à sa masse multipliée par son accélération : F = m a. Permet de

calculer la quantité de mouvement des corps. Contra la physique d’Aristote,

laquelle proportionnait la force s’exerçant sur un corps à sa vitesse et non

pas à son accélération.

(3) Principe d'action-réaction : Tout corps soumis à une force exerce en

retour une force de même intensité et de direction opposée.

- Comme le relève Duhem, « force », « masse » et « accélération » sont des

concepts théoriques qui ne renvoient pas directement à l’expérience, non

plus que les formalismes mathématiques employés par Newton. Il y a donc

un décrochage entre, d’une part, l’induction pure à partir de phénomènes

empiriques et, d’autre part, leur représentation au moyen de la théorie. La

théorie va au-delà de l’expérience en ce sens qu’elle ne décrit pas des

observables et qu’elle prétend extrapoler des phénomènes futurs. La

prédiction théorique précède ainsi la découverte.

- La loi de l’attraction universelle et les trois lois de Newton permirent ainsi

la découverte de Neptune ensuite de à l’observation de la perturbation de

l’orbite d’Uranus.

- Parallèlement, sublimation mathématique des phénomènes, et mise à

distance de l’observation directe au profit de principes théoriques explicatifs

(gravitation, inertie, etc.). C’est en ce sens que Koyré a pu écrire que le nerf

de la révolution galiléenne consiste dans la « décision de traiter la

mécanique comme une branche des mathématiques, c'est-à-dire de

substituer au monde réel de l'expérience quotidienne un monde

géométrique hypostasié et d'expliquer le réel par l'impossible » (Études d'histoire de la pensée scientifique).

- Théorie corpusculaire de la lumière (constituée de « multitudes de

corpuscules d'une vitesse et d'une petitesse inimaginables ») vs. théorie

ondulatoire émise par Christiaan Huygens (1629-1695). L’expérience des

fentes de Young (1801), du nom du médecin physicien Thomas Young

(1773-1829) sur les interférences lumineuses tranche en faveur de la

seconde option, reprise par les travaux de François Arago (1786-1853) et

d’Augustin Fresnel (1788-1827). L’hypothèse des quanta de lumière (des

paquets d’énergies, la lumière étant alors émise de manière discrète)

examinée en 1905, développée par Einstein, retrouve toutefois d’une

228

certaine manière le modèle corpusculaire abandonné. Einstein est à

l’époque une exception parmi les scientifiques.

- Contribue au développement de la physique expérimentale moderne,

laquelle s’éloigne des présuppositions de la scolastique.

- Alexandre Koyré n’a eu de cesse que d’avoir exhibé les liens entre les

convictions philosophiques, métaphysiques et religieuses du physicien et ses

travaux en sciences. Ce n’est que longtemps après sa mort que l’on a

vraiment pris conscience de l’ampleur des travaux hermétiques de Newton.

Exécutrice testamentaire de son oncle décédé, Catherine Conduitt hérite

d’une malle qui trouvera acquéreur, en 1936, en la personne de

l’économiste John Maynard Keynes. Elle contenait des milliers de pages de

diagrammes cabalistiques, d’index chemicus répertoriant l’ensemble corps

connus des alchimistes, de manuscrits ésotériques traitant de transmutation

et de théologie, assortis de commentaires de citations extraites des Écritures

: une somme équivalente à celle des travaux scientifiques du physicien.

Newton, dans son laboratoire de Cambridge, ne s’adonnait pas comme on l’a

cru (comme il laissait croire) à la « chimie vulgaire » mais comme bon

nombre de ses contemporains, à la quête alchimique de la quinte essence,

de l’élixir de vie, de la pierre philosophale, de la chrysopée. Aux dires de

son unique assistant, seul autre que lui-même autorisé à pénétrer le secret

de son cabinet, Newton avait consacré la plus grande partie de sa recherche

à tenter d’isoler un élément de la matière vivante ou minérale, une

poussière « excessivement subtile et d'une petitesse inimaginable sans

laquelle la terre serait morte et inactive », qu’il avait baptisé du nom de « vegetable spirit ». Poursuivant l’œuvre de recouvrement de la « première

doctrine » qu’il estime corrompue par le passage des siècles et dispersée dans

les diverses spiritualités du monde, Newton inscrit ses recherches dans la

grande tradition de l’hermétisme syncrétiste, qui en recherche la vérité

originelle (cf. aussi Marcile Ficin, Pic de la Mirandole, l’École d’Alexandrie,

etc.). Il leur applique la même méthode, avec la même ardeur qu’à ses

travaux strictement scientifiques. Travaux qui, à leur tour, bénéficieront

largement de cette pensé hermétiste.

- L’alchimie accoucheuse de la science moderne. On ne s’avoue pas sans

réticence que la grande majorité des écrits de Newton se composait de

recherches alchimiques. Le fondateur de la mécanique classique et pionnier

de la science moderne ne méprisait pas cette « pseudoscience » autant que

229

nous l’aurions voulu. Et bien lui en a pris, s’il est vrai que ses intuitions les

plus fécondent sont tributaires de sa pratique de l’occultisme. De l’alchimie,

Newton a dérivé l’idée de « gravitation universelle », vertu ou qualité

occulte agissant à distance (Einstein y reviendrait). Elle est, dit-il, « une

sorte d'esprit très subtil caché dans la substance des corps », et une énigme

pour l’astrophysique contemporaine qui ne parvient toujours pas à concilier

la force de gravitation aux trois autres interactions fondamentales. Mais plus

encore – et cela fut singulièrement peut dit – il hérite de l’idée que les lois

de la physique céleste n’était pas différente des lois de la physique terrestre.

Il suffira, pour s’en convaincre, de s’en référer à la profession de foi des

alchimistes de la Renaissance, pièce majeure des Hermética. Les premières

lignes de la table d’émeraude (tabula smaragdina) ont le mérite d’être

explicites – une fois n’est pas coutume : « Il est vrai, sans mensonge, certain

et très véritable : Ce qui est en bas est comme ce qui est en haut, et ce qui

est en haut est comme ce qui est en bas ; par ces choses se font les miracles

d'une seule chose » (La Table d’émeraude d’Hermès Trismégiste, « père des

Philosophes », traduction de l’Hortulain, XIVe siècle).

230

Gravure de la table d’émeraude, extraite de l’Amphitheatrum Sapientiae Eternae de l’alchimiste allemand Heinrich Khunrath, 1610.

- Reste que Newton s’en tient à constater le phénomène sans préjuger de sa

cause ou de ses « intentions » : « Hypotheses non fingo », « je ne forge pas

d’hypothèses ». Il ne s’agit plus d’expliquer par les causes motrices ou par les

causes finales, mais par les causes prochaines. Donner une représentation à

défaut d’une explication. Anticipe sur le mode ordre du positivisme.

- Michael Brooks (Free Radicals. The secret anarchy ou Science, 2011)

n’hésite pas à convoquer Newton (qui avait falsifié ses résultats afin de faire

correspondre ses calculs aux données expérimentales), au renfort de la thèse

de Feyerabend selon laquelle les scientifiques sont de manière assumée ou

non des « anarchistes du savoir », ne reculant devant aucune malhonnêteté

pour triompher.

Point sur les théories de l’unification

L’une des questions les plus ardentes de la physique contemporaine est de

savoir comment mettre un terme à l’état de cohabitation des deux régimes

que sont la mécanique quantique d’une part, la relativité de l’autre (cf. Marc

Lachièze-Rey, Au-delà de l’espace et du temps. La nouvelle physique,

2003). Redisons-le : ces deux physiques ont leur champ propre ; elles

découpent la réalité en deux régions qui ne communiquent pas. Les

équations de l’une s’appliquent au monde infiniment étrange des particules

et stipulent sans ambiguïté que les quantités n’adoptent que des valeurs

discrètes (voir notice : point sur la mécanique quantique). Celles de la

relativité intègrent la gravitation comme une propriété géométrique de

l’espace-temps (voir notice : Einstein). C’était, bien sûr, avant la découverte

du Higgs. Sous réserve d’inventaire, la théorie quantique s’applique ainsi à

des atomes ou à des particules élémentaires, et sa consœur relativiste à des

objets situés ou constitués par l’espace-temps.

231

Limites de la physique actuelle

Tout le problème tient à ce fait (ou préjugé) que l’espace(-temps) n’est pas

fissible en deux épistémologies. Deux théories, deux paradigmes, c’est déjà

un de trop. Il ne peut en rester qu’un. Il n’y a qu’un « uni-vers », une seule

physique ; non pas deux univers pour deux physiques. Les deux physiques

avaient été l’erreur – rédhibitoire – du Stagirite. Elle avait entraîné la

stagnation de la scolastique, freiné l’essor des sciences modernes en

combattant toute tentative de mathématiser les phénomènes instables. Dix-

huit siècles de savants avaient mis face-à-face un ciel supralunaire parfait et

un lieu sublunaire labile, impermanent et fluide. La réunion de la physique

provinciale et de la non-physique locale avait été le tour de force de Galilée,

de Tycho Brahé et de Newton. Au vu du prix qu’il leur en a coûté, on ne

languit pas de retomber dans ce marasme.

De nouvelles stratégies émergent pour refermer cette cicatrice, redite de la

précédente. Certains se tournent vers l’unification mathématique des quatre

interactions fondamentales au sein d’un cadre unique, une « théorie du

tout » (cf. Pierre Fayet, La Théorie du tout). Chacune de ces interactions –

nucléaire faible, nucléaire forte, électromagnétique et gravitationnelle – se

verrait rapportée aux effets émergeant d’une certaine symétrie. Proportions,

cercles, sphères et nombre d’or. Et symétrie. Encore et de nouveau, la quête

de symétrie. Une symétrie que les physiciens théoriciens apprennent à

repérer dans les replis de l’infiniment grand et de l’infiniment petit. La

symétrie – nous le verrons bientôt – est une notion centrale de la physique

actuelle. Elle diligente une quête qui renouvelle les aspirations grecques à

un cosmos parfait, équilibré ; à cette attente tout à la fois éthique et

esthétique, cœur nucléaire du raisonnement de Schelling et de la

méthodologie de Dirac. De Brian Greene aussi : témoin le titre de son

œuvre phare, L’univers élégant.

Ce qui est tenté par la physique contemporaine semble en cela être un

retour au cosmos grec, à la racine du terme « cosmétique », cosmos

appréhendé dans le monde grec comme une épiphanie des harmonies

divines. Mais plus parfaits que ne l’est et le cosmos classique, puisque

débarrassé de ses dichotomies : sur la terre comme au ciel, dans l’infiniment

232

grand comme dans l’infiniment petit.

Mais les esprits de synthèse se font rares de par les temps qui courent. Et il

n’est pas certain que la grande théorie de l’unification soit à notre portée.

Einstein la recherchait… en vain. Mais que recherchait-il exactement ; et

que recherchons-nous ? Une théorie qui circonvient ou articule physique

de l’infiniment petit et des macros-objets. Une théorie quantique de la

gravitation. Qui doit être également une théorie quantique de l’espace-

temps. Or, comment quantifier l’espace (relativiste) qui sert de cadre de

référence aux phénomènes quantiques ? Les physiciens produisent à flux

tendu des hypothèses qui le disputent en sophistication dans l’espoir

d’arriver à triompher un jour de la quadrature du cercle (et, en passant, de

leurs collègues). On peut, à cet égard, opter pour bien d’autres approches.

Quelles sont les pistes de recherche aujourd’hui explorées ? Nous en

exposerons trois.

(1) Celle de la supersymétrie (dite également (SuSy), dont un des avantage

est de démêler l’énigme de la constante cosmologique ; (2) celle de la

théorie des supercordes, fruit de l’intégration aux théories des cordes de la

supersymétrie ; (3) enfin, celle de la gravitation quantique à boucles. Toutes

trois de fécondes candidates, aucune n’est (encore) éligible à l’épreuve

expérimentale. Ce qui en fait avant tout des voies spéculatives (c’est la

raison pourquoi l’on parle de « physique théorique ») ; pas forcément des

voies de garage.

(1) Supersymétrie (SuSy)

L’établissement du modèle standard de la physique s’est avéré fécond à bien

des titres. Non content d’établir une classification des particules

élémentaires, il décrit l’existence d’autres constituants fondamentaux de la

matière que le physicien a charge de vérifier. Au moins sait-il ce qu’il

cherche et dans quelle direction chercher. Le modèle standard a en ceci

beaucoup à voir avec le tableau de Mendeleïev. Il pourrait être néanmoins

beaucoup plus lacunaire qu’on l’a longtemps pensé. La théorie de la

supersymétrie entend combler ce manque en associant à chaque particule

aujourd’hui connue une « superpartenaire » sensibles dans l'ordre du TeV.

233

La « supersymétrie », pour la décrire d’un mot, envisage une équivalence

entre les particules à spins entiers et celles à spins demi-entiers, autrement

dit, entre bosons (vecteurs d’interaction) et fermions (matière proprement

dite). Il est alors question, non plus de gravité, mais de « supergravité ».

La « licence scientifique » est moins en cause que la nécessité de surmonter

un certain nombre de difficultés laissées en friche par le modèle standard.

Au premier rang desquelles, celle de l’unification de l’interaction nucléaire

forte, de l’interaction nucléaire faible et de l’électromagnétisme, trois des

quatre forces fondamentales connues avec la gravité. L’intensité de ces

forces trouve aussi son explication. La supersymétrie rend également raison

de la masse des particules, celle-ci résultant de leur interaction avec le

champ des Higgs. La masse serait par conséquent un épiphénomène

relationnel ou interactionel, et non pas une propriété essentielle des corps.

Tout corps n’est pas pesant en soi. Il le devient ensuite et en fonction de son

inertie acquise, cela dans une mesure spécifiée par la théorie de la

supersymétrie. Le postulat de ces particules encore inobservées que sont les

« superpartenaires » des particules standard dénoue du reste l’énigme de la

matière noire et de l’énergie sombre, représentant respectivement 26,8 % et

68,3 % de la masse estimée de l’univers.

234

Ces deux « substances » échappent à la compréhension des astrophysiciens,

mis dans l’obligation d’en induire l’existence d’après leurs effets

gravitationnels. La matière noire pourrait être expliquée par les neutralinos,

particules stables (sans résidu de désintégration), à charge neutre (ne

pouvant rayonner électromagnétiquement) ; des particules interagissant peu

avec nos instruments de mesure. Quant à l’énergie noire, elle serait à

corréler (identifier ?) à la constante cosmologique. La supersymétrie rend

alors compte de sa valeur. Elle offre dans tous les cas une issue cohérente à

des questions qui n’ont cessé d’embarrasser les scientifiques, à même de

surmonter les apories de la physique et de la cosmologie conventionnelle.

Cette efficience mathématique et théorique lui vaut d’être adoptée au sein

de modèles explicatifs plus vastes tels que celui de la Supergravité (standard

ou maximale), de la théorie de jauge supersymétrique, de la théorie de

Seiberg-Witten et, bien évidemment, de la théorie des supercordes.

235

(2) Théorie des supercordes

Dans le prolongement de cette recherche de symétrie qui meut les

physiciens s’inscrit le développement des théories des cordes. Les avancées

les plus récentes de la physique fondamentale nous ont offert l’image d’un

espace dynamique, jamais tout à fait vide, vrillé en permanence de

fluctuations le soumettant perpétuellement à d’autres habillages, rendant sa

forme instable, discontinue, éminemment complexe (voir notice : point sur

le modèle standard). Et combien plus complexe nous apparaîtra-t-il, s’il

s’avérait tramé de dimensions supplémentaires. Car c’est bien là ce que

postule la théorie des supercordes : un espace-temps se déployant sur dix ou

onze ou vingt-six dimensions. Ce cadre a l’avantage de réduire la diversité

des particules et forces d’interaction à un unique objet, unidimensionnel –

une « corde ». Le monde dans sa totalité se laisserait décrire par une unique

« substance ». La dissemblance des particules qui se constate empiriquement

ne serait plus alors la résultante de leur complexion (de leurs propriétés) ;

elle s’expliquerait par la fréquence de vibrations des cordes. Chaque

particule, chaque entité particulière s’explique par un état particulier de

vibration des cordes. Les cordes émettent des sons qui sont des particules

comme un violon vibre ses notes sur différents octaves (mais qui serait le

grand soliste ?). Comme, d’autre part, ces théories incluent la

supersymétrie, et qu’elles englobent par la théorie M les différentes options

de développement des cordes, on parlera plus volontiers de « supercordes ».

Apparaîtra dans cette optique une théorie des branes conçus comme lieux

d’attache des cordes « ouvertes » (équivalent géométrique du segment de

droite), lesquelles, à l’opposé des cordes « fermées » (équivalent géométrique

du cercle) peuvent avoir évolué sur plusieurs dimensions.

Il est frappant de retrouver encore et à jamais, après la symétrie cosmique,

cette invincible métaphore de la mélodie des sphères. Un thème qui nous

ramène en Grèce, à la gamme pythagoricienne, aux sirènes de Platon en

ronde autour du fuseau de la nécessité. Le monde, selon cette tradition, est

un concert et nous sommes sourds à la musique du monde. Et la physique

contemporaine de reconduire à son insu ce que les Grecs, au moins, ne

dissimulaient pas : leurs biais philosophique. Tout en se préservant contre la

seule question qui importait aux médiévaux : mais qui pour diriger

236

l’orchestre ?

(3) Gravitation quantique à boucles

La théorie de la gravitation quantique à boucles opère une quantification de

l’espace-temps qui devient granulaire, « pixellisé », discret et non plus

continu, tel qu’il apparaissait au prisme de la physique relativiste. L’espace-

temps se morcelle en entités élémentaires à quatre dimensions, manière

d’atomes au sens originaire du terme (a-tomos : « indivisible ») qui sont

autant de quanta du champ gravitationnel liés entre eux par des réseaux

(networks) de spins. La valeur minimale de l’arrête minimum du plus petit

volume de ce damier d’espace-temps n’est autre que la valeur de la longueur

de Planck : la constante h. Constante qui représente la moindre quantité

d’action qu’il est possible de mettre en jeu au cours d’un phénomène

physique (cf. L. Landau, E. Lifchitz, Physique Théorique Mécanique, 1998).

S’il semble que la théorie de la gravitation quantique à boucles soit devenue

la concurrente la plus sérieuse de la théorie des supercordes (incorporant la

supersymétrie), beaucoup s’en faut que ces deux programmes de recherche

occupent l’ensemble de la scène de la physique fondamentale.

Il suffira, pour s’en convaincre, de considérer les variantes inédites de

géométrie non-commutative développées par certains théoriciens en marge

des tentatives de quantification de la gravité et d’unification mathématique

des quatre interactions. Il s’agirait de produire de nouveaux cadres

théoriques et conceptuels visant à retrouver dans le domaine de la

géométrie les mêmes propriétés que celles se rattachant aux principaux

opérateurs en mécanique quantique. La première conséquence en serait la

réfutation de la notion de particules ponctuelles localisables dans l’espace,

et ce faisant l’explication de l’impossibilité quantique de spécifier

concurremment leur position et leur vitesse (relations d’Heisenberg).

Limites de l’unification

Les quelques théories hautement spéculatives que nous venons d’exposer

doivent encore faire leurs preuves. Leur fondement théoriques sont en

pleine gestation, et constituent l’un des enjeux majeurs de la physique

237

contemporaine. Cette vue d’ensemble est plus qu’assez pour nous

convaincre que beaucoup reste à faire. Mais la question la plus

fondamentale pourrait ne pas être, en dernier ressort, de savoir comment

accomplir l’unification, que de savoir si l’unification est seulement

susceptible d’être accomplie. Est-elle seulement pensable, cette « théorie

quantique de la gravitation » que les théoriciens pourchassent comme le

Saint Graal ?

Revenons un bref instant sur la névrose « obsessionnelle » de la physique

contemporaine. Celle-ci se heurte à la coexistence de deux modèles

explicatifs et descriptifs pour l’heure incompatibles : la relativité et la

physique quantique. Les deux espaces considérés ne sont plus frontaliers

(supralunaire et sublunaire) mais substantiellement uns – et pourtant

divergents, structurellement antinomiques. Il s’agit bien d’un même espace

faisant valoir des principes dissonants, des lois désassorties selon l’échelle

considérée (microscopique, macroscopique). Il semblerait logique et

légitime de vouloir mettre un terme à cette fracture. De promouvoir le

syncrétisme. De plaider l’unification. D’appeler à un nouveau Newton. Mais

d’où nous vient cette conviction que la nature n’est structurée que par une

seule et même physique, quelle qu’en puisse être l’échelle ou la région ?

Il se pourrait que nous ayons omis, dans notre précipitation, de nous poser

la seule question qui vaille : au nom de quoi, pourquoi, serait-il nécessaire

que la physique soit une ? Il y a tout lieu de craindre que la réponse

ressortisse moins à des motivations de nature scientifique qu’à des tropismes

occidentaux, somme toute plus aériens, héritage d’une culture foncièrement

chrétienne. Une dilection métaphysique et religieuse pour l’unité, qu’il

s’agisse de monisme (Platon) ou de monothéisme (Bible). Une dilection qui

nous conduit à réduire particules, forces, lois, constantes à une seule entité,

mantra de la recherche contemporaine. Il suffira pour s’en convaincre de

déchiffrer les titres d’ouvrages récents tels que La quête de l’unité (É. Klein,

M. Lachièze-Rey, 2000), La grande unification : vers une théorie des forces fondamentales (A. Salam, 1991) ou Aux racines de l’univers : vers l’unification de la connaissance scientifique (L. Laszlo, 1992).

Il se pourrait que notre erreur consiste finalement, à croire que nous

238

sommes dans l’erreur. Rigoureusement parlant, rien ne justifie que la réalité

soit une ou que les lois doivent l’être. Il n’y a peut-être rien derrière le mur

de Planck. L’idéal d’unification, la « GUT », et au-delà, la Théorie du Tout,

ne sont pas nécessairement inscrites au marbre du réel.

Guillaume d’Ockham (1285-1347)

Principales contributions :

- Commentaire des sentences (1317-1319)

- Petite somme de philosophie naturelle (1321)

- Somme de logique (1323)

- Exposition sur la physique d'Aristote (1324)

- Questions sur la physique (1324)

Concepts et idées-forces :

- Moine franciscain anglais spécialiste de logique, s’étant acquis les surnoms

de « Vénérable initiateur » (Venerabilis inceptor) et de « Docteur invincible

». Connu pour avoir ouvert la voie à l’empirisme anglais par sa critique de

l’abstraction métaphysique, ainsi qu’à la philosophie analytique

contemporaine, soucieuse de la validité des raisonnements.

- Terminisme. Chef de file de ce qui allait devenir le nominalisme (vocable

qui ne s’impose en réalité que dans le second tiers du XVe siècle), en porte-

à-faux avec les écoles scolastiques rivales, thomiste et scotiste. Le

terminisme procède à l’analyse logique du sens des termes ; il ne veut rien

voir dans les Universaux de la métaphysique que des conventions, des

représentations pratiques dénuées de toute réalité sensible ou substantielle.

Les catégories aristotéliciennes (substance, quantité, relatif, qualité,

action/passion) non plus que les entités non nécessaires (espace, temps) ne

sont des réalités en soi, à l’exclusion des corps. Si bien que leur recours,

pour être nécessaire en sémiologie, n’a aucune pertinence ontologique : on

ne peut légitimement déduire du concept à l’être. Cf. aussi Berkeley pour

qui nos idées sont des idées de choses sensibles particulières dont nous

usons de manière générale : l’usage est général ; l’idée est singulière.

- Divorce entre foi et raison, révélation et raison naturelle. Là où Thomas

d’Aquin subordonnait celle-ci bon soins de celle-là (image de la philosophie

239

servante de la théologie), prétend qu’elles n’ont aucun rapport – et donc

rien à se dire. La foi s’éprouve ; elle ne se prouve pas. Il n’y a donc pas de

démonstration possible de l’existence de Dieu. L’autorité de l’Église est en

retour sans efficace concernant l’investigation de la nature. Anticipe le

principe d’autonomie de la science ; et même la science proprement dite en

tant qu’elle ne s’affirme comme telle qu’ensuite de son affranchissement de

la tutelle religieuse.

- Rasoir d’Ockham. Dit également principe de simplicité, d’économie ou de

parcimonie ; un principe heuristique et méthodologique au cœur de la

science moderne et plus décisivement, de l’empirisme anglais dont il est une

pierre angulaire. Énonce qu’« il ne faut pas multiplier les entités sans

nécessité » (« entia non sunt multiplicanda praeter necessitatem »)

(Quaestiones et decisiones in quatuor libros Sententiarum cum centilogio theologico, livre II, 1319). À pertinence et vraisemblance (ou poids

d'évidence) égale, les hypothèses suffisantes les plus simples (ou

parcimonieuses) doivent être privilégiées. Exclut ainsi la multiplication des

objets théoriques, forces, causes et démonstrations dans un système logique

explicatif.

- Historique de la formule. Elle n’est pas l’œuvre de Guillaume d’Ockham,

mais une revisitation d’un adage scolastique stipulant que « C'est en vain

que l'on fait avec plusieurs ce que l'on peut faire avec un petit nombre » («

Frustra fit per plura quod potest fieri per pauciora ») (cité dans Summa totius logicae, 1323, I, 12). Cet adage est déduit de la remarque du Stagirite

sera laquelle Il vaut mieux prendre des principes moins nombreux et de

nombre limité, comme fait Empédocle » (Physique, I, 4, 188a17).

- Postérité de la formule. C’est à Étienne Bonnot de Condillac (1715 -1780)

que l’on doit d’avoir intronisé dans une note de son Essai sur l'origine des connaissances humaines de 1746 (première partie, sect. V, § 5, note a) la

métaphore de « rasoir des nominaux ». Ernst Mach la réitère pour résumer

sa conception de la théorie optimale comme devant renfermer le plus grand

nombre de conséquences dans le plus petit espace possible (résonance

leibnizienne) : « Les savants doivent utiliser les concepts les plus simples

pour parvenir à leurs résultats et exclure tout ce qui ne peut être perçu par

les sens ». S’en inspire également le principe ou canon de Conwy Lloyd

Morgan (1852-1936) en éthologie (ou « science du caractère », ne

s’appliquant plus guère qu’à l’observation des conduites animales) : « Nous

240

ne devons en aucun cas interpréter une action comme relevant de l'exercice

de facultés de haut niveau, si celle-ci peut être interprétée comme relevant

de l'exercice de facultés de niveau inférieur » (An Introduction to Comparative Psychology, 1903). Ce qui prend à contre-pied le principe de

charité de Davidson et Quine (« Parler d’objet », dans From a Logical Point of View, 1980). Bertrand Russell la hisse pour sa gouverne au rang de

« maxime méthodologique suprême » de la philosophie (On the Nature of Acquaintance, 1914). Le théorème de Bayes en constitue une formalisation

mathématique, qui attribue a priori la plus grande probabilité à l’hypothèse

la plus parcimonieuse.

- Les limites dudit principe se distribuent en trois catégories :

(1) Son caractère déclamatoire, abstrait. Le principe prescrit de faire le

départ entre les hypothèses simples et complexes sans ne livrer pour ce faire

aucun critère de démarcation. Laisse à l’appréciation du scientifique le soin

de décider ce que signifie la simplicité. Comment savoir, pour recourir à un

exemple de controverse encore d’actualité, si l’hypothèse de Dieu n’est pas

plus pertinente pour expliquer l’évolution (Dessein Intelligent) que les

mécanismes de la sélection sur fond de mutations aléatoires ?

(2) Sa nullité explicative. La théorie retenue ensuite de l’application du

principe de parcimonie permet de faire des prédictions, mais ne garantit en

rien l’adéquation de l’explication qui lui est liée à la réalité. Elle court

nécessairement le risque de prendre une corrélation pour un rapport de

causalité.

(3) Ses a priori « cosmologiques ». Au nom de quoi se ferait-il que

l’hypothèse la plus simple soit aussi la plus juste ? Pourquoi le chemin le

plus court serait-il nécessairement celui que la nature emprunte pour

accomplir ses œuvres ? N’est-on pas dupe d’un préjugé métaphysique ? Il y a

ici un parti pris tacite qui interdit de concevoir le rasoir d’Ockham comme

un simple outil méthodologique. Cet engagement « philosophique » peut

introduire un biais nuisible pour le développement des sciences. Le

transformisme de Lamarck était ainsi le modèle le plus économe pour

rendre compte de la transformation des espèces. Celui de Darwin était le

plus complexe, qui intégrait la lutte pour l’existence et réfutait la

transmission des caractères acquis au profit d’une variabilité individuelle

aléatoire. Or c’est à celui-ci, et non à celui-là que la communauté des

sciences a finalement donné quitus. On ne sera guère surpris quand de telles

241

conditions, un adversaire résolu de Guillaume d’Ockham tel que Walter de

Chatton ait édicté une norme heuristique aux antipodes de celle de son

contemporain : « Si trois choses ne sont pas suffisantes pour vérifier une

proposition affirmative sur des choses, une quatrième doit être ajoutée, et

ainsi de suite » (Lectura I d. 3, q. 1, a. 1).

- Introduit, en physique, la distinction entre le mouvement dynamique

procédant d’un agent et le mouvement cynétique résultant des interactions

entre des corps passifs.

Max Planck (1858-1947)

Principales contributions :

- Initiation à la physique

- Le Concept de causalité en physique

- Science et religion - Autobiographie scientifique et derniers écrits (1948)

Concepts et idées-forces :

- Auteur d’une autobiographie. La science comme aventure, racontée du

point de vue du scientifique.

- Prix Nobel de physique en 1918, il n’en défend pas moins vision sans

illusion du progrès scientifique : « Une vérité nouvelle, en sciences, n’arrive

jamais à triompher en convainquant l’adversaire et en l’amenant à voir la

lumière, mais plutôt parce que finalement ses adversaires meurent et qu’une

nouvelle génération grandit, à qui cette vérité est familière »

(Autobiographie scientifique et derniers écrits). Rejette la conception

rationaliste et méthodique de scientifiques désintéressés confrontant

systématiquement leurs hypothèses aux faits, en quête de vérité. Voir, pour

exemples, J. Losee, Theories of scientific progress. An introduction, 2004).

- Introduit la notion de quantum d'énergie.

- Constante de Planck, postulat de Planck, loi de Planck, etc.

- Contribue par son œuvre à la révolution de la micro-physique en mettant

en lumière les lois de la physique (ou mécanique quantique). Voir ci-

dessous :

242

Point sur la mécanique quantique

Née des travaux de physiciens théoriciens tels que Max Planck, Feynman,

Einstein et Schrödinger durant le second tiers du XXe siècle, la mécanique

quantique remet en cause l’idée qu’un tel modèle puisse même être

représenté. L’architecture ultime de la matière, les particules subatomiques

– fermions (leptons, quarks), bosons de champ + antiparticules –, voient

leurs comportements décrits à la faveur d’un formalisme mathématique

rompant d’avec les équations de la physique relativiste, et plus encore

d’avec la physique newtonienne. Richard Feynman explique la modestie

requise de la part de ses théoriciens : « Je crois pouvoir affirmer que

personne ne comprend vraiment la physique quantique » (The Character of Physical Law).

Propriétés fondamentales de la matière

Cette « incompréhension » (laquelle n’est pas rédhibitoire quant à la

« description » chère aux tenants de l’école instrumentaliste de la science)

met en relief le gouffre qui sépare le monde perçu, qui nous est familier, du

monde quantique sur lequel il repose. Leurs points de divergence

concernent notamment :

(1) la quantification d’un certain nombre d’observables qui ne peuvent

prendre leur valeur, en mécanique quantique, que dans un ensemble discret

de résultats, là où la mécanique classique permet un continu ;

(2) la dualité onde-particule fait que les notions d’onde et de particules

cessent d’être séparées pour constituer les deux aspects d’un phénomène

unique, exprimé mathématiquement par une fonction d’onde. Ainsi de la

lumière, analysable en onde ou en photons selon le contexte expérimental ;

(3) le principe (les relations) d'indétermination de Heisenberg rend

impossible de donner la mesure précise de la vitesse d’une particule en

même temps que celle de sa position. La perturbation irrémédiablement

induite par l’instrument de mesure fait que le degré de précision de l’une est

en fonction inverse de celui que l’on peut obtenir de l’autre (et vice versa) ;

243

(4) un même état quantique peut cumuler plusieurs valeurs pour une

même observable (spin, position, quantité de mouvement, etc.), et cela

simultanément en vertu du principe de superposition. Cette divergence du

phénomène quantique d’avec le phénomène commun est illustrée de façon

évocatrice par l’expérience de pensée du chat de Schrödinger ;

(5) la superposition d’état ne se conserve pas à notre échelle qui est celle

de l’observation nue, administrée par le principe du tiers exclu. Une «

réduction du paquet d’ondes » s’opère dès lors que le système quantique

interagit avec un instrument de mesure ou un observateur. L’observation

influe sur le système observé en déterminant les particules à prendre des

valeurs fixes, discrètes et non probabilistes. Un électron ne devient ainsi un

électron ayant une position déterminée que par le fait de l’observation. Que

l’existence d’une propriété ne constitue plus ainsi une propriété ontologique

de l’objet mesuré ou non, mais soit comptable de l’interaction de l’objet et

de l’appareil de mesure est de nature à remettre sérieusement en cause la

conception classique d’une réalité indépendante de l’observateur ;

(6) l’intrication quantique atteste que deux particules ayant interagi par

le passé continuent d’être en relation, quel que puissent être l’espace et le

temps qui les séparent. À telle enseigne que la détection d’une particule

serait responsable de la localisation complémentaire de sa partenaire. Ce

phénomène peut être interprété en direction de la non-localité de la réalité

quantique (abolition de l’espace-temps), de l’identité des particules ( : une

particule visible en deux endroits/moments, comme un objet dans un trou

de ver ; lien EPR = pont ER) ou de l’émission par l’une d’une onde qui

remonterait le temps afin d’informer l’autre à l’instant de la mesure (ce qui

entre en contradiction avec la relativité restreinte qui fixe une vitesse

limite, la constante c, à la propagation de l’information) ;

(7) citons enfin le caractère de contrafactualité quantique qui œuvre en

sorte que des événements possibles qui ne se sont pas produits rejaillissent

sur les résultats de l’expérience.

Y a-t-il une solution de continuité ?

Il en ressort que le monde de l’infiniment petit répond d’un cadre théorique

nettement distinct de celui applicable à notre environnement

macroscopique. Il y a bien loin, en apparence, de la métaphysique

244

quantique à la métaphysique classique. Les physiciens ont mis au jour un

univers subatomique qui ne prend sa forme déterminée spatiale et

temporelle que par l’observation (à rapprocher du criticisme kantien). Étant

acquis que celui-ci n’est que le prolongement de celui-là, force est

d’admettre que le phénomène comme apparaître procède effectivement de

cet univers étrange. La question est : comment passe-t-on d’une région à

l’autre ? d’une physique probabiliste à une physique déterministe ? Du

niveau le plus fondamental de la matière au niveau supérieur du

phénomène ? Comment, pour permuter les termes de l’interrogation de

Bachelard, « la structure peut-elle rejoindre la construction ? » (Étude de l'évolution d'un problème de physique, 1927). Comment résoudre le

problème de la détermination par la mesure ? Comment, en somme, «

sauver les phénomènes » en rendant compte de leur émergence ?

Diverses interprétations ont proposées :

(1) La théorie d’Everett (ou théorie des états relatifs) est la plus riche de

conséquences, qui postule que l’ensemble des possibilités que tolère la

théorie quantique se réalise, actualisant autant de mondes et donc autant

d’observateurs n’ayant accès qu’au leur.

(2) Une interprétation « transactionnelle » (aussi dite théorie de «

l’absorbeur généralisé ») est avancée par John Cramer. Elle fait droit à la

possibilité pour une onde de confirmation de remonter le temps, afin

d’atteindre et d’informer sa source au moment de l’émission de l’onde

offerte. C’est alors la causalité qui est battue en brèche.

(3) Mais l’interprétation la plus souvent retenue est celle de Copenhague.

Elle établit que l’effondrement de la fonction d’onde serait un effet de

l’interaction du système quantique avec l’environnement (inclus

l’observateur, l’appareil de mesure, etc.). Une telle interaction provoque un

phénomène de décohérence qui réduit à néant la probabilité d’états

superposés. La raison pour laquelle la fonction d’onde évoluera vers l’état

déterminé plutôt qu’un autre n’est pourtant pas explicité. Nonobstant leurs

lacunes (la perfection n’est pas de ce monde), l’intérêt essentiel de ces

théories et de rendre possible de retrouver les phénomènes de la physique

classique sans rien admettre d’autres que les lois quantiques. De la

mécanique quantique à la physique macroscopique, une continuité peut

ainsi être rétablie.

245

La quête de l’unification

Les postulats de la mécanique quantique restent en revanche résolument

incompatibles avec ceux de la physique relativiste, propre à décrire les

phénomènes plus lourdement soumis à l’influence de la gravitation. Les

singularités physiques tiennent de l’une et de l’autre et motivent la

recherche active d’une théorie du tout qui unifie les quatre interactions

fondamentales, une théorie quantique de la gravitation (théorie des cordes,

théorie de la gravitation quantique à boucles, etc.) réconciliant ces deux

physiques, de la même manière que Newton appareillait sous de mêmes lois

les physiques des espaces célestes et du monde sublunaire. Le mot d’ordre «

sauver les phénomènes » reste on ne peut plus actuel.

À supposer que la théorie quantique (ou la structure seulement de cette

théorie, à part ses entités) décrive effectivement la trame de la réalité pour

nous phénoménale, alors une telle réalité ne peut être décrite à l’exclusion

de l’observateur. Dans le sillage de Michel Bitbol (L’Aveuglante proximité du réel), les interprètes récents de la mécanique quantique insistent sur le

fait que le physicien n’est pas dans un rapport de face-à-face à la réalité

physique ; il est partie prenante de la réalité physique, juge et partie de la

réalité physique. Le biais d’immersion que l’on voulait réserver aux sciences

humaines doit s’élargir aux sciences de la nature. Le spectateur est

également acteur de la pièce qu’il « interprète », dans les deux sens du terme

(« analyser », « pro-duire ») : il est un « spectacteur ». Le mantra de

l’objectivité – ce Graal mythique de l’épistémologie naïve –, le cède à

l’objectivation. L’on ne peut plus considérer que l’homme est poussière, et

même poussière d’étoiles (l’ensemble des atomes qui nous composent sont

nés dans les étoiles), sans prendre en compte le fait que ces poussières

proviennent aussi de nous.

La science s’orientalise

Cette inflexion que la physique quantique imprime à notre représentation

du monde prête à des considérations originales en termes d’histoire des

sciences.

246

Les civilisations babylonienne, égyptienne, grecque, chinoise, hindoue,

arabe, ont tour à tour été les principaux foyers du développement des

sciences. La Renaissance a vu l’Europe revenir au premier plan de la scène

scientifique, au point que les fondements culturels des sciences proprement

dites en sont venus à se confondre avec ceux de l’Occident. Science dont le

présupposé était pourtant l’universalité, de même que les droits qui naîtront

à sa suite sous les auspices d’une autre forme de révolution. Tout change

avec l’entrée dans l’ère industrielle. Le séisme provoqué dans la première

moitié du XXe siècle par la physique relativiste et par la mécanique

quantique ébranle les convictions bien arrêtées scientifiques pour tout ce

qui a trait aux « lois de la nature ».

L’épistémologie se fonde comme discipline. Relativisme, constructivisme,

sociologie des sciences douchent l’ambition d’atteindre une vérité certaine.

La certitude, au XXIe siècle, le cède aux relations d’indétermination ; les

probabilités ont barre sur le déterminisme dans le domaine des sciences

physiques comme dans les sciences humaines ; la question du possible efface

celle du réel ; la notion d’équilibre (métastable) relaye la dynamique

(invention leibnizienne) ; la relation et le contexte hissent la complexité en

paradigme là où était l’objet déterminé des sciences ; l’observateur et

l’observé ne sont plus à distance ; la question de la finalité est évacuée au

profit de celle de processus, de mécanisme ; l’idée de contrôle s’érode au

profit de celle de participation. La science contemporaine se déleste des

logiques dualistes et des dichotomies traditionnelles. Elle se défait d’une

forme de rationalité.

Il ne faut pas être grand clerc pour apprécier les conséquences

philosophiques de ce glissement. Une telle épistémologie rompt peu à peu

d’avec ses racines cartésiennes pour retentir de consonances orientalistes.

Bouddhisme, hindouisme et taoïsme fournissent les nouveaux éléments de

langage de la science contemporaine.

À ses risques et périls

L’un des pères fondateurs de la mécanique quantique, Werner K.

247

Heisenberg, relevait déjà la connivence qu’entretenait avec l’imaginaire de

cette nouvelle théorie physique les sagesses extrême-orientales. Bien

d’autres lui emboîtèrent le pas, usant et abusant de l’analogie. Sans doute

est-elle passablement utile pour surmonter d’anciens schémas de pensée

rigides et mécanistes, inadaptés aux nouveaux paysages que nous

découvrent les mathématiques. Mais cet orientalisme, au-delà de son

renfort heuristique, est loin de faire l’unanimité. Et le conservatisme

majoritaire de la communauté des sciences n’est pas lui-même sans

justification. Il en va bien souvent de la capacité critique des hommes de

science à dissuader une tentative de récupération des théories par un clergé

dissimulé sous le cache-sexe du physicien. La frontière entre science et

religion menace de s’effondrer dans ce mouvement de reconduction de la

physique à la métaphysique. C’est donc la spécificité de la science au regard

des autres productions de l’esprit, peut-être même sa supériorité – réelle ou

usurpée –, qui se trouvent mises en cause.

Platon (427-348 av. J.-C.)

Principales contributions :

[Chronologie reprise et adaptée de Luc Brisson]

- Période de jeunesse (-399/-390) : Hippias mineur (sur le faux), Hippias majeur (Grand Hippias) (sur le beau), Alcibiade majeur (Premier Alcibiade)

(sur l'Homme), Ion (sur la poésie), Lachès (sur le courage), Charmide (sur la

sagesse morale), Protagoras (sur les sophistes), Euthyphron (sur la piété).

Proximité supposée avec la pensée de Socrate.

- Période de transition (-390/-385 ?) : Gorgias (sur la rhétorique), Ménon

(sur la vertu), Apologie de Socrate, Criton (sur le devoir), Euthydème (sur

l'éristique), Lysis (sur l'amitié), Ménexène (sur l'oraison funèbre), Cratyle

(sur le langage) ; République I (Thrasymaque ?) (sur la justice).

- Période de maturité (-385/-370). Phédon (sur l'âme), Le Banquet (sur

l'amour), La République (sur le Juste), Phèdre (sur le Beau). Émergence des

notions platoniciennes d’Idées, de réminiscence et de philosophe-roi.

- Période d'auto-critique (-370/-358) : Théétète (sur la science), Parménide

(sur les Idées), Le Sophiste (sur l'Être), Le Politique (sur la royauté). Refonte

248

avec le Parménide de l’ontologie platonicienne. Le Sophiste conçoit tout ce

qui est comme résultant d’une communication des genres.

- Période de vieillesse (-358/-346) : Timée (sur la Nature), Critias (sur

l'Atlantide), Philèbe (sur le plaisir), Les Lois (sur la législation), Épinomis (sur la théologie astrale). « Trois considérations ont amené Platon à modifier

ses vues. D'une part, une nouvelle théorie de l'âme, selon laquelle celle-ci

n'est plus regardée comme l'ennemie du corps, mais comme son principe

moteur. D'autre part, la reconnaissance de la régularité et de l'ordre que

manifestent les mouvements des planètes. Enfin le sentiment que l'homme

a sa place marquée dans le monde conçu maintenant comme un ordre, et

qu'il doit tendre, dès lors, non plus à se séparer du monde, mais à imiter le

bel ordre cosmique » (André-Jean Festugière, Études de philosophie grecque, 1971).

- Les Lettres, dont les VIIe (-354) et VIIIe (-353) sont regardées comme

authentiques.

- L'enseignement oral ou les doctrines « non écrites » (agrapha dogmata) (-

350 ?), dont fait partie la leçon dite « Sur le Bien ». Cf. les travaux de l’école

de Tübingen.

Concepts et idées-forces :

- Période de révolution médiatique qui voit la transition de l’oralité

(Socrate) à l’écriture (Platon). Pour la position de ce dernier, cf. Phèdre et la

Lettre VII. Selon Jack Goody, entrée dans un nouveau mode de pensée : la «

raison graphique ». Plus de rigueur dans la codification (d’où également

l’essor de la logique et des mathématiques, centrale aux yeux d’un

philosophe influencé par Pythagore), extension ou externalisation de la

mémoire et possibilité de circulation des idées dans l’espace et dans le

temps. L’écrit pourrait avoir été déterminant dans l’essor de la science de la

philosophie grecque. À relativiser toutefois, contra Éric Havelock. Les

Égyptiens et les Babyloniens aussi disposaient de l’écriture.

- Invente le terme « philosophe » (vs. le « philodoxe »), bien qu’on attribue

parfois le mérite à Pythagore. Nouvelle manière de questionner le monde,

de rechercher la vérité en élaborant des méthodes d’argumentation

(parricide des « maîtres de vérité ») étayées par des preuves. Influence des

pratiques juridiques. Elengkos, que l’on traduit par « réfutation » et

procédure juridique. Le mot grec aitia signifie à la fois « cause » et «

249

coupable ». Sciences et philosophie ne sont pas séparées, non plus que les

questions épistémologiques et les questions morales.

- Le devenir sensible. Le phénomène antique se définit selon Jean-Paul

Dumont comme « un produit mixte né de la rencontre de l'effluence du

sens avec celle du sensible » (Le Scepticisme et le phénomène). Il est

marqué du sceau du double mobilisme : celui de la chose et de la sensibilité.

Ainsi Socrate, dans le dialogue du Théétète, rend à Protagoras ce qui lui

appartient, la théorie de l’anthropomètron que semblait indiquer une

première définition par le jeune mathématicien de la science comme

« sensation ». Platon ne nie en rien que le phénomène soit en effet en proie

à la labilité des sens et du devenir ; il exclut en revanche que le phénomène

puisse être objet de science, et constitue le tout de la réalité. Le mobilisme

reste valable en ce qui concerne le lieu sensible, il ne l’est pas dans l’absolu.

Or l’absolu est du domaine de la dialectique, la seule science authentique.

- L’hypothèse des idées. Le continuum de sensations dont est peint

l’apparaître, son instabilité et sa précarité rendraient la science inopérante,

s’il n’existait un ordre fixe au-delà des choses sensibles, une méta-physique

qui fixe des repères. En butte à la menace relativiste et nihiliste dans le

domaine épistémologique aussi bien que moral et politique ; face aux

sceptiques et aux sophistes, Platon fait l’hypothèse de formes intelligibles

accessibles à l’esprit. L’être lui-même, au-delà du phénomène, n’est pas

voué à demeurer caché (adelon, pour reconduire le mot qu’aimait à citer

Héraclite, dit également l’ « obscur » : « Physis kryptesthai philei », « La

nature aime à se cacher »). C’est en partant de l’étonnement produit par la

diversité et les incohérences de la multiplicité sensible que le philosophe,

en s’abstrayant de ce sensible, pourra tourner son arme en direction des

formes capables de l’expliquer et d’orienter l’action. Il faut fermer les yeux

sur le sensible pour enfin voir avec les yeux de l’esprit. Tel Tirésias rendu

aveugle par Athéna déesse de la sagesse, il s’agit de s’affranchir de la lumière

du jour pour devenir clairvoyant. Encore que les yeux nous soient donnés

pour observer les astres, et préparer à cette contemplation.

- La réminiscence. La versatilité du phénomène met la science en échec en

cela qu’elle n’offre à l’expérience que des objets relatifs et périssables.

L’opinion seule peut s’appliquer aux phénomènes, à ce qui s’offre par le

truchement des sens. Or l’opinion, tenant le milieu entre l’erreur et la

vérité (cf. les degrés de la connaissance, l’analogie de la ligne), se laisse

250

contaminer par l’inconstance de son objet. Le risque épistémologique est

reporté dans le champ des valeurs qui deviennent relatives sous l’empire des

sophistes (cf. Gorgias). Platon veut croire que la science ni la morale ne sont

démocratiques ; elles ne sont pas affaires de goût et de couleur. Un

philosophe idéaliste ne peut s’en tenir au seul spectacle de l’apparaître sans

le réduire à un paraître interrogé en direction de son principe. C’est

paradoxalement le sensible lui-même qui pointe ce dont il est l’image ou ce

à quoi il participe (Phédon), prête à la dialectique ou sert d’amorce à la

réminiscence, de même que l’ombre de la caverne fait signe en direction de

l’objet dont elle est l’ombre, projetée par la lumière ; cette chose elle-même

n’étant que la copie sensible d’une réalité suprasensible sous l’éclairage du

bien (République, VII).

- Rapports entre le sensible et intelligible. S’il est un fait que l’« on ne se

baigne jamais deux fois dans le même fleuve », comme le formule la thèse

du mobilisme universel, il reste néanmoins possible d’envisager qu’un

principe en retrait de l’immanence sensible offre à l’esprit des objets

immuables, intelligibles et stables qui accomplissent l’unité de la diversité et

rendent raison des apparences contradictoires. La position d’un lieu

intelligible, foyer des formes inaltérables rend conciliables le devenir

perpétuel ou mobilisme universel hérité de Cratyle et l’être stable de

Parménide (« une seule et même chose sont être et penser »). Conciliation

ou réconciliation de l’eau et du feu à la faveur de ce que Platon présente

plus sous un mode conjectural que doctrinal : l’hypothèse des idées, jointe à

une conception de leur rapport avec les phénomènes (le modèle

paradigmatique ou participatif) et entre elles-mêmes (la communication des

genres dans le Sophiste).

- Le terme chorismos (« séparation ») est d’Aristote ; mais il semble

applicable à la doctrine platonicienne (cf. Timée ; aspect mis en relief par

Nietzsche), quoiqu’en pense Gaël Fine qui fait état de « différence » dans le

but d’affaiblir cette dichotomie. On ne peut parler non plus de self-

prédication (Vlastos) au sens des philosophes analytiques : ce que l’idée est,

le phénomène l’a de manière imparfaite et transitoire. Tout phénomène

devient à cette enseigne une manifestation partielle, partiale et mélangée

des formes offertes à la contemplation (cf. Phèdre).

- La dialectique : « Il n'y a pas d'autre recherche que la dialectique qui

n'entreprenne de saisir méthodiquement, à propos de tout, l'essence de

251

chaque chose » (République, VII). Évolution de la méthode au fil des

dialogues. Différentes figures recensées par Monique Dixsaut

(Métamorphoses de la dialectique dans les dialogues de Platon, 2002) :

méthode des conséquences ; méthode de division (dihairesis) appliquée dans

le Sophiste et le Politique, etc. Genre du sophiste : l’être, le même, l’autre, le

mouvement et le repos. Peiras et apeiron : le limitant et l’illimité.

- Maïeutique négative (purgation de la Doxa) et positive (illumination,

enfantement de l’aletheia). Les dialogues structurés comme des épreuves

initiatiques. Modèle des mystères d’Eleusis. Influence de l’orphisme et du

pythagorisme. Socrate et le culte du Silène dans le Banquet. - La science ne s’oppose pas nécessairement à la mythologie. La démarche

dialectique fondée sur l’articulation des Formes ne peut atteindre la

question des origines. Il faut donc recourir à une forme de discours qui

« ressemble » à cette origine, à la fois au-delà et fondateur de la rationalité,

transcendant l’espace et le temps : le mythe qui, apparenté au lieu sensible,

ne peut être que « vraisemblable », et se doit d’être interprété. Exemple

avec la cosmogonie du Timée.

- L’ordre cosmique et l’intelligibilité du monde sont admis à la suite de

Pythagore. Il se laisse déchiffrer par les mathématiques, qui permettent de

retrouver les structures rationnelles ayant administré l’ordonnancement du

corps du monde. Définit le programme de recherche de toute la science

occidentale. Le Démiurge du Timée ordonne effectivement en imposant à la

chôra les proportions géométriques, les yeux rivés sur son modèle

intelligible parfait. Les éléments ultimes sont les formes parfaites composées

de triangles qui se combinent pour façonner les polyèdres réguliers (feu =

tétraèdre ; air = octaèdre, etc.). Le cercle est la figure permettant

d’embrasser l’ensemble des polyèdres (influencera Kepler) : le corps du

monde est donc sphérique, et l’âme du monde se meut en mouvement

circulaire parfait. L’activité de l’intellect imite ce mouvement circulaire

parfait, de même que les astres qui reproduisent dans le champ du sensible

les mouvements des idées tandis qu’ils les contemplent (cf. Phèdre). Même

les planètes – les « astres errants » – dessinent en vérité des trajectoires

analysables en termes de mouvement circulaires et uniformes. Inspire le

système armillaire de Ptolémée ainsi que ses épicycles. Dans l’âme humaine

comme dans le cosmos tout entier, il arrive néanmoins que le Cercle de

252

l’Autre adopte un sens de rotation inverse à celui du Cercle du Même (cf.

Politique) : là est la cause de l’erreur et de la dégénérescence.

- L’ordre cosmique n’exclut pas le hasard. Car la Nécessité ne se laisse pas

persuader entièrement. Si la chôra, le réceptacle ou la nourrice reçoit les

formes intelligibles, elle porte en elle un principe de mouvement (la

nourrice berce son enfant), elle est le siège d’une « agitation permanente »,

d’un dynamisme turbulent, d’une myriade de micro-convulsions, et s’avère

impuissante à comprendre la totalité de l’Intelligence ; de là la « cause

errante » du Timée 48a. La matière résultante de cette embrassade du

limitant et de l’illimité en ressort « emplie par des forces qui n'étaient ni

uniformes ni équilibrées, ne se trouve en équilibre sous aucun rapport, mais

secouée irrégulièrement dans tous les sens ; elle est ébranlée par ces forces

et, en même temps, le mouvement quelle en reçoit, elle le leur restitue à

son tour sous la forme de secousses nouvelles » (Timée, 52e). Platon, selon

Duhem, soutenait la thèse selon laquelle « Tout mouvement produit au sein

de l'Univers […] est un mouvement tourbillonnaire » (Le système du monde). Le lieu sensible et donc toujours en proie à une part de hasard

(thème du tirage au sort dans la démocratie athénienne et dans

l’eschatologie de la République) ; hasard que le philosophe peut relativiser.

Il est soumis au temps et au devenir. Tout ce qui naît est sujet à la

corruption, à la dégradation (thème de l’anacyclose, de la Grande année

cosmique, du chiffre nuptial, etc.) l’avancée décisive est néanmoins que le

monde est animé dès l’origine par une intelligence dont le Chaos primordial

des précédentes cosmogonies était encore privé.

Henri Poincaré (1854-1912)

Principales contributions :

- La Science et l'Hypothèse (1902)

- La Valeur de la Science (1905)

Concepts et idées-forces :

- Intuitionnisme mathématique contra Hume, Mill (conception empiriste,

synthétique a posteriori), Kant (synthétique a priori). Il y aurait une

intuition mathématique sui generis, concernant par exemple les notions de

groupe, d'espace, etc.

253

- L’approche exclusivement logique de la philosophie des sciences défendue

notamment par le Cercle de Vienne ne permet pas de rendre compte de son

aspect créatif.

- Nature conventionnelle des hypothèses géométriques. S'il y a plusieurs

géométries (Riemann, Lobatchevski), c'est que leurs postulats sont des

conventions. Acte de naissance du conventionnalisme : les hypothèses ne

dérivent pas de l'expérience (cf. Mill) et ne sont pas analytiques a priori (logique, cf. Leibnitz) ni synthétiques a priori (Kant). Le cadre géométrique

des théories physiques procède ainsi d’une convention adoptée pour des

raisons de « commodité ».

- Si les grands principes sont des conventions, en revanche les lois

théoriques sont de l'ordre de l'empirique ; ce que contredira Duhem en

démontrant que toutes les propositions forment système.

- Souligne les limites de l’empirisme. Une collection de faits ne suffit pas à

faire une théorie. La sélection de ces faits suppose déjà une hypothèse de

travail tout comme l’explication et la prédiction des phénomènes.

- Les géométries non-euclidiennes permettent de résoudre des problèmes ;

elles sont utiles. Réhabilitation de la spéculation contra Auguste Comte.

- Principe de relativité. Néanmoins, préservation de l’éther contra Einstein.

- Dépendance extrême conditions initiales (ultérieurement connu sous le

nom de « théorie du chaos » ; cf. Laurentz), dans le cadre du problème des

trois corps. Cf. à ce sujet, l’opposition entre Wiener et Von Neumann.

Karl Popper (1902-1994)

Principales contributions :

- Logique de la découverte scientifique (1934 ; angl. 1959 ; fr. 1973)

- Conjectures et Réfutations (1963)

- La connaissance objective (1972)

- Le Réalisme et la science (1982)

Concepts et idées-forces :

- Critère de réfutabilité (maladroitement traduit « falsifiabilité »). Propriété

des énoncés permettant de faire le départ entre la science et la non-science

(ou pseudoscience) ; entre, d’une part, la théorie de la relativité et d’autre

part, le marxisme ou la psychanalyse (ce qui n’est pas dire que, pour autant

254

qu’elles soient irréfutables, non scientifiques, ces théories soient fausses). La

précision et la clarté des propositions qui les rendent éligibles à la réfutation

est également ce qui distingue une proposition scientifique de l’observation

du sens commun.

- Est scientifique un énoncé tel qu’il existe au moins un test susceptible de

l’invalider, aussi longtemps qu’il n’a pas essuyé de réfutation. Contra le

positivisme logique, le propre de la science n’est pas d’être certaine ou

confirmée, mais d’être réfutable. La connaissance scientifique, en fait de

consister en une série de fait acquis, se présente comme un système de

réponses provisoires à des problèmes posés.

- Réhabilitation de la métaphysique discréditée par les positivistes. La

construction des hypothèses ne procède pas de l’induction pure ; et la

métaphysique est un domaine parmi tant d’autres en état d’inspirer des

conjectures fécondes (pourvu qu’on les soumette ensuite à l’épreuve

expérimentale). À cheval donné, on ne regarde pas les dents. «

L’imagination, disait Einstein, est plus importante que le savoir ». Voir

également notice Bachelard.

- Si la fabrication des hypothèses peut être libre et s’affranchir de

l’induction, la méthode scientifique conserve toutefois pour Popper une

rationalité propre, une rigueur et une solidité qui réprouve l’anarchisme

épistémologique d’un Feyerabend.

- C’est pour tenter de sauver la méthode inductive que le positivisme

logique, par le biais de Carnap, intronise la notion de probabilité dans

l’analyse des sciences. Un échec relatif dans la mesure où certains énoncés

dorénavant admis ont, du point de vue logique, une probabilité nulle d’être

avérés.

- Remise en cause de l’idée de preuve en matière scientifique. Contra

Carnap et les néopositiviste, l’idée de vérification et de preuve empirique

sont des chimères dangereuses.

- La science est investie d’une capacité à réfuter des hypothèses ; elle

n’apporte aucune preuve définitive de la validité d’une théorie. La science

ne nous dit pas si oui ou non, une théorie est vraie, seulement si elle est

fausse. La science progresse en réfutant ; pour paraphraser Marx, la science

progresse par le mauvais côté (cf. Bachelard encore pour qui elle est

l’histoire de la ratification des erreurs passées).

255

- Reprise de l’argumentation de Hume. Aussi élevé soit-il, le nombre des

observations conformes aux prédictions de la théorie est logiquement

insuffisant pour confirmer une proposition à prétention universelle telle

qu’une loi ou un principe. Chacune de ses instanciations a valeur de

corroboration de la théorie. Celle-ci est en sursis, inexorablement

conjecturale, incertaine, provisoire, appelée à être dépassée. Il suffit en

revanche d’une seule observation contradictoire pour rejeter définitivement

une proposition. Dissymétrie logique.

- L’hypothèse la plus originale, la plus risquée, la moins triviale est

également la plus scientifiquement intéressante.

- Kuhn contredit Popper sur l’idée que les scientifiques s’adonnent à la

réfutation quand l’essentiel de leur pratique consiste à essayer de confirmer

leur théorie. Le moteur de la science ? La volonté d’avoir raison (Pascal

Nouvel, L’art d’aimer la science).

- Lakatos et Feyerabend réinvestissent cette objection : il n’est pas de

paradigme ou de modèle scientifique pur de contradictions. On ne les

abandonne pas à si peu de frais.

- Épistémologie évolutionniste. La science procède par essais et erreurs. Les

hypothèses sont proposées de manière libre et ne survivent que celles qui

paraissent les plus adaptées à décrire la réalité. Transposition

épistémologique de la théorie darwinienne de la sélection naturelle.

- C’est alors paradoxalement de Popper que se réclament les contradicteurs

américains de la théorie de l’évolution, créationnistes ou partisans de

l’intelligent design (ID ; ex. M. Behe, W. Dembski). Cf. les « procès du singe

». La théorie de la sélection ne laisse effectivement pas pris à la réfutation. À

quoi l’on pourrait objecter que ce n’est pas davantage le cas de ces

prétendues alternatives. Le canular du « pastafarianisme » de Bobby

Henderson prend à partie cette revendication d’équivalence.

- Versimilitude (ou vérisimilitude). Option réaliste (vs. instrumentaliste).

Les théories visent la réalité sans pour autant l’atteindre. Elles tendent vers

elle de manière approximative et sans cesse plus précise.

- Hypothèses fondamentales vs. hypothèses auxiliaires. Typologie reprise

par Duhem (dans le domaine de la physique) et Quine (au regard de

l’ensemble de nos connaissances), au fondement du holisme

épistémologique. Deviennent respectivement, dans l’épistémologie que

256

développe Lakatos, le « noyau dur » et la « ceinture de protection » des

programmes de recherche scientifique (PRS).

- L’essor du réfutationnisme de Popper comme de l’épistémologie historique

de Bachelard se comprend historiquement à la lumière de deux grandes

découvertes du début du XXe siècle : l’invention des quanta en 1900, la

vérification en 1919 de la théorie de la relativité générale. Bouleversement

radical de la macro et de la micro-physique. Le progrès scientifique ne peut

plus être regardé comme procédant d’une accumulation de savoirs.

Introduit de la disruptivité dans le devenir des sciences. Les théories

doivent désormais être comprises en tant que descriptions approximative et

provisoires d’une réalité incessamment fuyante. Ce qui n’est pas dire que

pour Popper ou pour Bachelard, la science ne poursuive pas l’objectif de

rendre compte de la réalité, contra les épistémologies constructivistes, le

relativisme scientifique et l’instrumentalisme de Duhem.

Claude Ptolémée (90-c.168)

Principales contributions :

- Almageste (c.140)

- Géographie (c.150)

- La Tétrabible (IIe siècle)

Concepts et idées-forces :

- Astronome et astrologue grec alexandrin. Fut avec Aristote, via la

traduction, le commentaire, la transmission de ses ouvrages par les Arabes

et par les Byzantins, l’un des principaux artisans de la conception qu’avait

du monde le Moyen Âge chrétien jusqu’à la fin de la Renaissance.

- Almageste. Al Majesti, reprise phonétique arabe du mot grec mégistos, «

très grand ». Livre un épitomé des savoirs les plus avancés de l’Antiquité en

matière d’astronomie, de géométrie et de mathématiques. Développe une

théorie des épicycles et des tables astronomiques inspirées des travaux

d’Hipparque en soutien à une représentation géocentrique du monde,

laquelle fera autorité jusqu’à ce que sonne le glas de la révolution

copernico-galiléenne. Ce n’est qu’aux alentours de 1750 que le pape Benoît

XIV proclame son abandon.

257

- Notons que Ptolémée ne faisait pas sienne la théorie de l’inscription des

mal-nommés « corps errant » (planètes) dans des sphères de cristal. Le

milieu supralunaire est homogène, sorte de vide avant la lettre : « Les astres

nagent dans un fluide parfait qui n’oppose aucune résistance à leurs

mouvements » (Almageste, XIII, 12).

- Géographie. Synthèse des connaissances géographiques du monde gréco-

romain. Huit tomes, le premier se consacrant considérations d’ordre

méthodologique ; le dernier exposant les projections géographiques

élaborées à partir des informations classées dans les six précédents. Le livre

fait époque et devient rapidement le vade-mecum de tous les

expéditionnaires persuadés de ne faire à chaque découverte que confirmer

les travaux de Ptolémée.

- Tétrabible. Les « quatre livres », littéralement. Est à l’astrologie ce que

l’Almageste est à l’astronomie, deux arts ou discipline que Ptolémée sépare

rigoureusement. L’Almageste se désintéresse absolument de l’influence des

astres dans la sphère sublunaire. Le ciel astronomique diffère par ailleurs du

ciel astrologique. Ptolémée pratique préférentiellement une astrologie

sidérale et planétaires plutôt que zodiacale. On ne connaissait alors que sept

orbes célestes, en incluant la lune et le soleil ; Uranus, Neptune et Pluton ne

pouvaient être détecté sans l’aide d’un instrument optique approprié. De

moindre retentissement que ce dernier ouvrage, la Tétrabible n’en est pas

moins une référence majeure de l’astrologie antique et médiévale.

Hilary Putnam (1926-20XX)

Principales contributions :

- Raison, Vérité et Histoire (1981)

- Représentation et Réalité (1988)

- Fait/Valeur : la fin d'un dogme (2002)

Concepts et idées-forces :

- Critique de la dichotomie faits/valeurs.

- Critique de la dichotomie énoncés protocolaires/analytiques.

- Concepts éthiques épais (thick ethical concepts), qui mêlent fonctions

descriptive et prescriptive.

- Cerveau dans une cuve (Brain in a vat).

258

Point sur l’expérience de pensée

La science procède de l’expérience ; beaucoup s’en faut qu’elle s’y arrête.

Pas de science sans possibilité d’induire des lois abstraites de la répétition

des phénomènes. Pas de répétition des phénomènes sans hypothèse de

sélection, établissant des rapports de similitude entre une pluralité

d’observations toujours distinctes et singulières. Pas de science sans

concepts ; et nul n’a jamais vu de concepts à l’état sauvage. Donc pas de

science sans abstraction. Si l’énoncé des théories implique ce moment de

rationalisation, il est en marge de celle-ci une autre forme de recours à la

spéculation beaucoup plus litigieuse : l’expérience de pensée. L’expérience

de pensée (en anglais « thought experiment », en allemand «

Gedankenexperiment »), peut être celle d’une « situation spéciale » qui ne se

rencontre pas dans la « réalité ». L’idée rectrice consiste à estimer en

l’absence de base empirique les conséquences de possibilité contrefactuelles.

À l’instar de la science qui, dans un schéma popperien, s’appuie sur une

méthode hypothético-déductive (et non plus inductive, comme chez les

empiristes purs) pour mettre en branle une démarche de construction des

connaissances, l’expérience de pensée a pour finalité de répondre à un

questionnement de type conditionnel : « si… alors ». Mais à la différence de

ce que le protocole serait en droit d’attendre de l’expérimentateur – soit la

confrontation de l’hypothèse aux données objectives de la réalité (si

l’expression a quelque pertinence) –, l’expérience de pensée n’a affaire qu’à

la seule puissance de l’imagination humaine.

Trois moments discursifs peuvent être distingués qui forment la matrice de

toute simulation : (1) l’énonciation de l’hypothèse à explorer ; (2) la

description de son contexte de validation (constantes, variables) ; (3) le récit

du test proprement dit. La notion de « test » est à considérer selon son

acception épistémologique (et juridique) d’ « épreuve », de « mise en

examen ». Au terme de celle-ci tombe un « verdict » portant sur la validité

de cette hypothèse, sur son « affranchissement ». L’expérience de pensée

doit également rendre des comptes. Ce n’est donc pas le fait qu’elle se

dispense de tout passage par l’étape de la vérification qui la rend singulière

(et censément problématique) : elle ne s’en dispense pas, mais – comme son

259

nom l’indique – que cette vérification a lieu dans la pensée.

Une abstraction mettant en scène des abstractions, une abstraction de

second degré ; sans doute faut-il en passer par cet expédient pour pallier les

contraintes de la science expérimentale concrète. – Ou l’impuissance qui est

la nôtre établir les prérequis (éthiques, techniques, etc.) d’un test en

conditions de laboratoire. Le caractère spéculatif de ces outils de pensée qui

menace de contaminer leurs conclusions est en ce sens « racheté » par leur

capacité à transcender les obstacles à l’expérimentation conventionnelle. Le

philosophe des sciences James Robert Brown n’en dit pas moins lorsqu’il les

définit au titre de

« procédés de l'imagination qui servent à examiner la nature des

choses. On peut les visualiser, elles impliquent des manipulations

mentales, elles ne découlent pas de calculs fondés sur la théorie, elles

sont souvent – mais pas toujours – impossibles à mettre en œuvre

sous forme de véritables expériences, soit que la technologie

nécessaire n'existe pas, soit qu'elles soient simplement par principe

impossibles » (Thought Experiments in Philosophy, Science, and the Arts, 2012).

L’histoire des sciences et de la philosophie regorge de ces « fictions utiles »

s’appliquant non seulement à des situations envisageables dans le monde qui

est le nôtre, qu’à d’autres plus conjecturales, voire fondamentalement

incompatibles avec ce que nous savons des lois de la nature. Qu’elles soient

possibles logiquement suffit à les rendre pensables et exploitables

scientifiquement.

Exemples d’expériences de pensée

Quelques exemples bien choisis valent mieux qu’un long discours. C’est

autant à la science qu’à la philosophie que nous empruntons les nôtres, pour

cette raison d’abord que le divorce de la philosophie d’avec la science reste

relativement récent (datons-la du ministère de Victor Cousin et du régime

de la bifurcation) ; ensuite parce que la science n’a jamais arrêté de

philosopher, quoiqu’elle en ait, quoi qu’Heidegger en pense, sans pour

260

autant en assumer les conséquences. (Ce qui se conçoit jusqu’à un certain

point : qu’adviendrait-il sinon de son autonomie ? De son rapport privilégié

à la réalité ? De sa prétention à la « neutralité axiologique » ?) Nous

négligeons ici les expériences à portée politique, morale ou esthétique pour

concentrer notre propos sur celles concernant plus directement

l’épistémologie et la philosophie de la connaissance. Évoquons donc, par

ordre chronologique :

− Les paradoxes de Zénon (Zénon d'Élée, Ve siècle avant J.-C.)

− Le bateau de Galilée (Galileo Galilei, 1632 ; voir notice)

− Le malin génie et le Dieu trompeur (Descartes, 1641 ; voir notice)

− Le problème de Molyneux (William Molyneux, 1688)

− Le bateau de Thésée (Gottfried Wilhelm Leibniz, 1705)

− Le seau de Newton (Isaac Newton, 1687 ; voir notice)

− Le canon de Newton (Isaac Newton, 1728 ; voir notice)

− Le démon ou génie de Laplace (Pierre-Simon de Laplace, 1814 ;

voir notice)

− Le démon de Maxwell (James Clerk Maxwell, 1871)

− L'ascenseur d'Einstein (Albert Einstein, 1908 ; voir notice)

− Le paradoxe des jumeaux (Paul Langevin, 1911)

− Le chat de Schrödinger (Erwin Schrödinger, 1935)

− Le paradoxe EPR (Albert Einstein, Boris Podolsky et Nathan

Rosen, 1935)

− Le paradoxe de Newcomb (Simon Newcomb, 1974)

− Être une chauve-souris ? (Thomas Nagel, 1974)

− La chambre chinoise (John Searle, 1980)

− Le suicide quantique (Hans Moravec, Bruno Marshall, 1980)

− Le cerveau dans une cuve (Hilary Putnam, 1981)

− Le spectre inversé (Sydney Shoemaker, 1982)

Fictions et modélisations

L’expérience de pensée peut ne pas être formulée explicitement, produite

de manière intentionnelle ou signifiée comme telle. Il n’est pas nécessaire,

pour en user de manière appropriée, d’avoir thématisé cet outil heuristique.

Nombres d’auteurs y font appel sans même s’en rendre compte.

261

Principalement, sous ces deux formes omniprésentes que sont

respectivement (1) la fiction littéraire et (2) la modélisation mathématique.

(1) Le genre de la science-fiction (terme importé du faux-ami anglais «

science-fiction », qu’il eût été plus avisé de rendre par « fiction scientifique

») est représentatif de la première catégorie. Et plus spécifiquement, l’un de

ses sous-genre appelé « hard science-fiction », abrégé « hard science ».

On ne saurait minimiser l’impact culturel qu’eurent des classiques comme

20 000 lieues sous les mers, de Jules Verne, ou le (plus) célèbre album des

aventures de Tintin, le reporter explorateur, On a marché sur la lune

d’Hergé qui a marqué une génération de chercheurs. Ces deux ouvrages

peuvent rétrospectivement s’analyser comme des illustrations d’expériences

de pensée devenues réalités : le sous-marin et la fusée ont permis d’explorer

des espaces vierges qui ne furent longtemps à la portée que de l’imagination

humaine. Autre morceau de bravoure : Flatland (1884), d’Edwin A. Abbott,

qui peut se lire comme une phénoménologie de la perception d’esprits

n’ayant accès qu’à des espaces unidimensionnels, narrant leur découverte

des espaces bidimensionnels, puis tridimensionnels, et même

quadridimensionnels (« hyperespaces »).

C’est néanmoins à l’astronome Johannes Kepler (voir notice) que l’on

attribue communément le premier ouvrage de fiction scientifique : Le Songe ou Astronomie lunaire (Somnium, seu opus posthumum de astronomia). Paru en 1634, Le Songe témoigne au plus haut point de

l’intrication à l’aube du « siècle de la raison » de la littérature et de la

science. D’autres exemples pourraient être invoqués, parmi lesquels le

célèbre roman de Cyrano de Bergerac, Histoire comique des États et Empires du Soleil, publié dès 1662, lequel s’inscrit dans la continuité d’un

précédent volet dédié à l’astre sélénien ; ou bien encore les Entretiens sur la pluralité des mondes de Fontenelle (1686) publiés à trente-trois reprises du

vivant de l’auteur, procédant à une véritable reconstruction poétique du

monde (cf. F. Hallyn, La Structure poétique du monde : Copernic, Kepler,

1987).

Kepler, dans Le Songe ou Astronomie lunaire, imagine un démon voyageur.

262

Il imagine que son démon se sert du cône d’ombre projeté par la Terre sur

son satellite comme d’un couloir céleste pour soutenir son ascension et

transporter les voyageurs terriens jusqu’à la Lune. L’auteur fait par-là même

un usage fantaisiste d’une théorie moderne servant à rendre compte du

mécanisme des éclipses. Sont également incorporés d’autres savoirs, tels

certains relatifs aux réactions des corps au froid, aux effets de l’accélération,

et le reste à l’avenant. Après la traversée des nouveaux mondes, la Lune

devient l’équivalent céleste d’une île. Une fois le voyageur parvenu à bon

port, l’auteur rapporte minutieusement ce que son personnage observe. Il y

décrit une luxuriance de vie à l’ombre des cratères. L’environnement

lunaire, loin d’être lisse et sans défaut, se révèle vallonné, onduleux et

regorge de vie. C’est un monde caractérisé par l’instabilité, la fluctuation

des phénomènes. C’est là l’image d’une instabilité extrême. En décrivant ce

Nouveau Monde moiré et hyperboliquement changeant, Kepler prend

ouvertement le contre-pied de tout un pan de la physique aristotélicienne.

La thèse selon laquelle existaient deux physiques irréconciliables,

s’effondre. La Lune est bien aussi mouvante et corruptible que la Terre.

Aussi le récit képlérien n’est-il pas dépourvu de charge polémique. Une

rhétorique d’autant plus efficace qu’elle ne cite pas ses adversaires, et dilue

sa causticité dans le fil du récit. La fiction apparaît comme un moyen

privilégié de définir une autre image, frappante, de ce nouveau cosmos

copernicien.

D’où il ressort que l’apparition de forme littéraire alliant simulation

d’expériences infaisables et vulgarisation des connaissances acquises fut

étroitement liée aux exigences qui étaient celles de la nouvelle science en

gestation au sortir de la Renaissance. Avec la révolution scientifique du

XVIIe siècle se mettent effectivement en place de nouvelles formes de

communication des connaissances. Le langage scientifique, à ses débuts,

s’inspire encore très largement des courants humanistes de la Renaissance.

Le coup de force de Kepler est avoir transformé le « récit de voyage » –

genre littéraire très apprécié depuis les grandes expéditions

intercontinentales des XVe et XVIe siècles – en un outil de recherche, de

figuration et de diffusion de la physique moderne.

Il n’en fallait guère plus pour que la science-fiction se fasse la caisse de

263

résonance de toutes les grandes révolutions de la science, aussi bien dans le

domaine de la physique que de la biologie et de l’informatique. On ne

compte plus les parutions de plus ou moins grande qualité qui saturent

aujourd’hui les rayons de nos librairies. Leur intérêt, pour la plupart, n’est

pas seulement de mettre en image des connaissances acquises ; il va au-delà

en explorant les suites d’une modification événementielle ou essentielle de

la réalité.

(2) Si la nature, par le mécanisme de la sélection, a doté l’homme du plus

puissant dispositif de prédiction et de simulation – son imagination –, la clé

de sa survie, l’homme s’est offert, grâce à son imagination, le luxe d’un autre

outil plus performant encore : l’informatique. L’informatique est également

ce grâce à quoi a l’expression traditionnelle ou littéraire de l’expérience de

pensée est venue se greffer un autre type d’outil intellectuel : l’ « expérience

numérique ». On parle plus communément de « modélisation » ou de

« simulation ». Elle s’emploie prioritairement pour traiter des (éco)système

complexe ou des systèmes à l’équilibre instable, brassant un grand nombre

de données et de variables en relation impossibles à considérer de façon

traditionnelle, de manière non-automatisée. De l’environnement terrestre,

d’une galaxie ou du système nerveux central, elle entend par exemple

proposer une reproduction simplifiée et dynamique au sein duquel

l’expérimentateur peut à loisir intervenir en modifiant une ou plusieurs

variables. Ce qui lui permet de constater les conséquences de tel ou tel

facteur sur l’ensemble du système.

Le protocole est loin d’être infaillible – pour cela de très évident qu’on ne

peut pas avoir en considération l’ensemble des conditions initiales –, mais

néanmoins plus fiable que l’expérience purement spéculative. Cela d’abord

parce qu’il permet de brasser davantage d’informations, de s’approcher par

exhaustion plus près du résultat exact ; ensuite parce que l’ordinateur en

charge de la simulation ne souffre pas de biais cognitifs et ne dissimule pas

de prémisses implicites. Hormis, peut-être, celles afférentes à la structure de

son programme, reflétant celles du programmeur (il n’y a qu’une seule

logique, binaire, etc.). Quoiqu’il en soit des interrogations que peut susciter

l’abandon ou l’externalisation d’une partie de la recherche à des

technologies informatiques, l’on peut déjà noter que le rôle assigné à cette

264

forme-limite d’expérience de pensée n’a cessé de s’affirmer avec la

technicisation des sciences. Au point que l’on ne peut pas ne pas envisager

qu’il vienne progressivement à remplacer cette faculté qu’Einstein disait

chez le chercheur plus importante que le savoir : son imagination.

Limites et controverses

En première approximation, l’« expérience de pensée » aurait tout pour

sembler suspecte au regard d’une science qui n’a de cesse que d’avoir

débusqué les « vues de l’esprit ». L’« expérience de pensée » n’est-elle pas

une contradiction en soi ? Comment une « expérience » pourrait-elle être «

de pensée » ? Et comment la « pensée » pourrait-elle constituer une «

expérience » ? Cet oxymore étrange a le mérite de mettre les deux pieds

dans le plat : quelle pertinence épistémologique peut-on prêter à un

« fantasme », au sens premier du terme ? D’autant qu’il semble que cette

forme d’expérience (si tant est que le terme soit approprié) ne dispense en

tout et pour tout que l’illustration intellectuelle d’un raisonnement plus ou

moins implicite : elle n’explique rien, ne découvre rien, elle ne démontre

pas. Ce n’est pas ici le lieu de nous demander si l’expérience sensible

paramétrée par nos attentes et nos schèmes d’objectivation n’est pas, elle

également, une pétition de principe. Notons seulement que, le cas échéant,

les objections élevées contre l’expérience de pensée ne seraient pas à

distinguer de celles portant sur l’expérience proprement dite.

Conservons cette démarcation. L’esprit demeuré en lui-même, tout à ses

raisonnements, peut-il légitimement déduire une existence de son concept

– de sa conceptualisation ? Descartes parce qu’il doutait, ne pouvait en

douter. Nous ne connaissons que par les idées qui sont dans l’entendement,

et ces idées sont bien les corrélât fidèle des choses extérieures à l’esprit :

Dieu y pourvoit. Kant ne l’entendait pas de cette oreille, pour qui la «

preuve ontologique » n’est pas plus légitime à inférer le Créateur qu’à

attester la création. L’idéalisme cartésien passé au crible du criticisme

kantien est contraint d’abjurer ses prétentions à l’objectivité. La « chose »

n’est pas connue ; seul l’est le phénomène. Le dialogue de sourds entre

rationalistes et empiristes se résorbe dans le schématisme. Ou pas. L’enjeu

(peut-être a-t-il toujours été le cœur de la philosophie) reste toujours de

265

déterminer si l’esprit (sans la foi) peut accéder à un savoir sur l’être – ou s’il

n’est qu’un savoir sur soi.

Savoir sur soi : mise en image d’un préjugé. C’est ainsi que certains

subjectivismes, relativismes et autres épistémologies constructivistes

conçoivent l’expérience de pensée. Celle-ci n’est rien de plus qu’une

inspection mentale à la faveur de laquelle l’esprit se représente les

conséquences d’une hypothèse, étant acquis que rien dans l’esprit ne saurait

lui opposer d’observations contraires. Les conclusions précèdent leur

inférence. Et nous ne faisons que révéler ou justifier une croyance implicite.

Dès lors qu’il se soustrait au tribunal de l’empirie, l’esprit ne peut dégager

que des simulacres de vérité. Précisons-nous : le raisonnement spéculatif

fait bel et bien usage d’éléments empiriques de par leur origine (ainsi des

souvenirs articulés par l’imagination) ; il n’en demeure pas moins que

l’expérience de pensée repose essentiellement sur l’expérience que la pensée

fait d’elle-même. Le moment de la confrontation à l’expérience se fait non

dans le monde hors de l’esprit, mais dans l’esprit, qui est au monde « comme

un empire dans un empire ». Les lois de l’esprit n’étant pas celles du monde,

sa valeur scientifique n’est guère plus concluante que celle d’un songe.

Surtout, l’expérience de pensée n’est ni faite ni réalisable, ce dernier point

méritant toute notre attention. On verrait mal comment ce qui ne peut

être… peut être.

Aux antipodes de cette position sceptique se positionne Ernst Mach.

Inspirateur d’Einstein et du Cercle de Vienne (la société « Ernst Mach »), ce

philosophe et physicien allemand est le premier à entreprendre, dans sa

Mécanique (1883), de retracer la généalogie de l’expérience de pensée.

Après avoir fait l’inventaire et la critique de ses usages en sciences, il en

arrive à la doter d’une justification épistémologique. Thomas S. Kuhn fait

sienne cette réhabilitation. L’expérience de pensée est à ses yeux un outil

heuristique indispensable au progrès de la connaissance. Et de préciser son

statut historique en même temps que son efficace psychologique de premier

plan : « Le résultat des expériences de pensée peut être le même que celui

des révolutions scientifiques » (La structure des révolutions scientifiques,

1962). Son résultat, insiste Kuhn, eu égard à l’impact qu’il peut avoir sur la

266

foi mise par la science instituée en un certain système de vérité, à son effet

de « conscientisation ». Rien de plus efficace pour ébrécher un paradigme

que de confronter ses partisans à la contradiction logique qu’elle ne manque

pas de leur opposer. Mais ce rôle négatif reste loin d’épuiser tout l’intérêt de

cet outil analytique incontournable. La science elle-même, qui articule dans

ses modèles axiomes, principes et lois abstraites, n’est peut-être rien d’autre.

Willard V. O. Quine (1908-2000)

Principales contributions :

- « Les deux dogmes de l'empirisme » (1951)

- Le Mot et la Chose (1960),

- Relativité de l'ontologie et autres essais (1977)

- Du point de vue logique (1980)

Concepts et idées-forces :

- Récusation de la distinction faite par Carnap entre les connaissances

analytiques (fondées sur la logique) et synthétiques (ou empiriques ; fondées

sur l’expérience). Celles-là contiennent toujours un élément de

conceptualisation, donc d’analyse.

- Thèse de Duhem-Quine. Il n’y a pas d’expérience cruciale au sens où

aucune expérience ne peut être suffisamment probante pour infirmer ou

confirmer une théorie. Le démenti expérimental peut tout au plus

contraindre le scientifique à modifier l’une de ses hypothèses périphériques,

sans toutefois préciser laquelle. C’est-à-dire réviser une hypothèse auxiliaire

de ce que Lakatos nommera la « ceinture protectrice » d’une théorie, sans

menacer son « noyau dur ».

- Holisme épistémologique (= holisme de la signification). Chaque énoncé

ou hypothèse prend sens de manière différentielle, au regard de l’ensemble

des autres énoncés et hypothèses qui tissent une représentation du monde.

- Principe d’indétermination de la traduction dans le domaine de la

philosophie du langage. Relativité de l’ontologie et inscrutabilité de la

référence (exemple du lapin, « gavagaï », dont l’ethnologue ne peut

déterminer si l’indigène qui le désigne le considère comme une substance

ou comme un événement). Les patrons d’objectivation sont provinciaux ;

267

traduire contraint à rapporter un énoncé à nos catégories d’objets qui ne

sont peut-être pas celles du locuteur. Le principe de charité (inspiré de

Davidson) consiste à supposer que l’indigène use de la même logique que

nous et que ses propos sont donc intelligibles.

- Distinction entre énoncés d’observation et propositions analytiques.

Hans Reichenbach (1891-1953)

Principales contributions :

- Théorie de la relativité et connaissance a priori (1920)

Concepts et idées-forces :

- Positivisme logique.

- Conception scientifique du monde.

- Induction probabiliste.

Édouard L.E.J Le Roy (1870-1954)

Principales contributions :

- Science et philosophie (1899)

- Dogme et critique (1907)

- Une philosophie nouvelle : Henri Bergson (1912)

Concepts et idées-forces :

- Étend le conventionnalisme à toutes les sciences, quand Poincaré le

restreignait à la géométrie.

- Sa réflexion porte en particulier sur les définitions et les axiomes. Chez

Aristote, définition = essence et axiome = évidence. La science moderne

caractérise en vue de la mesure et de l'observation. Les axiomes ne sont pas

évidents puisque remis en cause. Pense avec Poincaré qu'axiomes et

définitions sont interchangeables (comme en géométrie).

- Primat de la théorie sur l'expérience (vs. l’inductivisme naïf). Le construit

submerge le donné.

- En porte-à-faux avec l'absolutisme positiviste, Le Roy défend l’idée que la

science est affaire de liberté. Ce qui conduit à un certain relativisme

scientifique. Le Roy ne croit pas en la vérité empirique des lois.

268

- Une théorie est évaluée en fonction de sa fécondité. Conception

pragmatiste. Le discours scientifique n’atteint pas la réalité des choses, mais

peut seulement servir à dégager des normes en vue de l’action.

- Transpose la pensée de Bergson dans la philosophie des sciences. La raison

est elle-même dynamique, elle évolue ; les progrès scientifiques comme les

géométries non-euclidiennes témoignent de ce que ses anciennes limites

ont été dépassées. Se réclame également du dynamisme d'Héraclite et de

Dun Scot pour ce qui concerne ses œuvres religieuses.

Bertrand A.W. Russell (1872-1970)

Principales contributions :

- Principia Mathematica (avec Alfred North Whitehead) (1910 ; 1913)

- De la dénotation (1905)

Concepts et idées-forces :

- Invente le mot « épistémology ».

- Tenant du programme logiciste qui propose une axiomatisation et une

formalisation de la logique des propositions et des prédicats des

mathématiques.

- Atomisme logique : « La raison pour laquelle j'appelle ma théorie

l'atomisme logique est que les atomes auxquels je veux parvenir en tant que

résidus ultimes de l'analyse sont des atomes logiques et non pas des atomes

physiques. » (La Philosophie de l'atomisme logique).

- Le paradoxe (ou antinomie) de Russell : l'ensemble des ensembles

n'appartenant pas à eux-mêmes appartient-il à lui-même ?

- Propositions simples et complexes.

- La théorie des descriptions définies (philosophie du langage).

- Connaissance directe (knowledge by acquaintance) et connaissance par

description (knowledge by description).

- Théière de Russell (« Russell's teapot »). Aussi appelée « théière céleste ».

Utilisée pour retourner contre le dogmatisme religieux la charge de la

preuve. Le scientifique n’a pas à apporter la preuve de la fausseté de

doctrines spirituelles ou de présupposés métaphysiques superflus, a fortiori s’ils se dérobent à l’épreuve expérimentale (non-scientificité au sens de

l’épistémologie de Popper). C’est plutôt au croyant qu’il revient d’apporter

269

la preuve de ses affirmations. L’analogie de la théière céleste fait ainsi droit

à l’hypothèse d’un récipient verseur en porcelaine en rotation sur le plan de

l’écliptique entre la Terre et Mars : « De nombreuses personnes orthodoxes

parlent comme si c'était le travail des sceptiques de réfuter les dogmes

plutôt qu'à ceux qui les soutiennent de les prouver. Ceci est bien

évidemment une erreur. Si je suggérais qu'entre la Terre et Mars se trouve

une théière de porcelaine en orbite elliptique autour du Soleil, personne ne

serait capable de prouver le contraire pour peu que j'aie pris la précaution

de préciser que la théière est trop petite pour être détectée par nos plus

puissants télescopes. Mais si j'affirmais que, comme ma proposition ne peut

être réfutée, il n'est pas tolérable pour la raison humaine d'en douter, on me

considérerait aussitôt comme un illuminé. Cependant, si l'existence de cette

théière était décrite dans des livres anciens, enseignée comme une vérité

sacrée tous les dimanches et inculquée aux enfants à l'école, alors toute

hésitation à croire en son existence deviendrait un signe d'excentricité et

vaudrait au sceptique les soins d'un psychiatre à une époque éclairée, ou de

l'Inquisiteur en des temps plus anciens. » (« Is There a God ? », dans

Illustrated Magazine, 1952 (inédit)). Ce n’est pas parce qu’une proposition

ne peut être réfutée ou la non-existence d’une chose prouvé que cette

proposition est vraie ou que cette chose existe.

- D’autres analogies sur le modèle de la théière de Russell ont été invoquées,

principalement pour contester les prétentions de la religion à se mêler de

sciences. Ainsi de la Licorne rose invisible, du Monstre en spaghettis volant

et du culte du Canard en plastique jaune de Leo Bassi.

Alan D. Sokal (1955-20XX)

Principales contributions :

- « Transgressing the Boundaries : Towards a Transformative Hermeneutics

of Quantum Gravity », dans Social Text, no 46-47, « Science Wars »,‎

printemps-été 1996, p. 217-252

- « A Physicist Experiments with Cultural Studies », dans Lingua Franca,‎

mai-juin 1996, p. 62-64

- Impostures intellectuelles (avec Jean Bricmont) (1997)

- Pseudosciences et postmodernisme : adversaires ou compagnons de route ?

(2005)

270

Concepts et idées-forces :

- L'affaire Sokal. Une polémique née à la suite de la parution en 1996 dans

la revue Social Text, spécialisée dans les « études culturelles » (cultural studies), de son article « Transgresser les frontières : vers une

herméneutique transformatrice de la gravitation quantique ». Sokal, en

soumettant cette parodie d’article volontairement inepte et emphatique à la

lecture critique de ses éditeurs, entendait dénoncer la propension de

certaines revues postmodernistes à comité de lecture à publier n’importe

quelle contribution susceptible de « flatter les préconceptions idéologiques

des rédacteurs ». Le physicien et épistémologue américain révéla la

supercherie peu de temps après dans son article « A Physicist Experiments

with Cultural Studies », publié dans le numéro de Lingua Franca de mai-

juin 1996, p. 62-64.

- Les conclusions qu’en tire Sokal sont sans complaisance à l’endroit de

certains départements des sciences humaines qui se réclament des théories

et du jargon de la déconstruction postmodernisme. Est dénoncé leur

emprunt abusif et rhapsodique au vocabulaire scientifique pour appuyer les

thèses philosophiques les plus extravagantes, qui ne se soutiennent pas

d’elles-mêmes. La science est une chose trop sérieuse pour être laissée à des

poètes idéologues. Cette usurpation d’autorité avec effet de sidération

donne lieu à un ouvrage accusatoire écrit en 1997 avec la collaboration de

Jean Bricmont, Impostures intellectuelles.

Herbert Spencer (1820-1903)

Principales contributions :

- Principe de biologie (1864-1867)

- Principes de sociologie (1876-1897)

Concepts et idées-forces :

- C’est à Spencer qu’en 1870, est associée la notion d’évolutionnisme.

- Évolution vers la complexité et l’hétérogénéité, conformément à la « loi de

Baer » (anatomiste russe pionnier de l’embryologie) d’après laquelle « le

développement de tout organisme consiste en un changement de

l’homogène vers l’hétérogène ». Issu d’une origine commune, les entités

271

biologiques et culturelles se différencient par voie de ramification

successive, dans un mouvement qui fait passer du plus élémentaire au plus

complexe, de l’inférieur ou supérieur, du chaotique à l’ordonné, de

l’organique au spirituel, de l’animal à l’homme, de la sauvagerie barbare au

monde civilisé. Néguentropie, quoique le terme n’existe pas encore. Une

approche directive et mélioriste de la transformation qui le rapproche du

lamarckisme.

- « Survie des plus aptes ». Formule reprise par Darwin à l’occasion de la

cinquième édition revue de L’Origine des espèces. - Darwinisme (ou évolutionnisme) social. Transposition aux sociétés des

mécanismes de l’évolution naturelle. Les transformations des sociétés, de

l’esprit humain et des espèces doivent être interprétées à la lumière d’un

même principe. Il y a un continuum entre les végétaux, les animaux, les

sociétés humaines et les cultures. L’évolutionnisme peut être simultanément

biologique, sociologique, philosophique et anthropologique. Abolition de la

frontière entre l’anthropologie et la zoologie, les sciences humaines et les

sciences naturelles.

- D’autres tentatives contemporaines d’application du principe de

l’évolution à l’homme, qu’il s’agisse de l’étude des races, de la psychologie

ou de l’histoire des sociétés. Ainsi de l’évolutionnisme social introduit par

Lewis H. Morgan et par Édouard Taylor, de l’anthropologie physique de

l’école de Broca, de l’évolutionnisme spiritualiste d’Armand de Quatrefages

ou de l’eugénisme de Francis Galton. Prend chez Henri Bergson la forme

d’un élan vital créateur faisant passer les organismes les plus frustes et les

plus primitifs à la conscience (L’Évolution créatrice, 1907). Conforme à

l’esprit du progrès régnant dans l’Europe impériale, positiviste et coloniale,

de la fin du XIXe siècle.

- Influence déterminante du contexte politique sur la réception de Spencer

en France. Époque où se met en place l’État-providence et les politiques

solidaristes (Léon Bourgeois). Si bien que d’abord maître à penser de la

sociologie des années 1870, Spencer et le darwinisme social deviennent, à

compter de 1885, l’incarnation de l’ultralibéralisme, le repoussoir

idéologique. D’où l’entreprise de Durkheim, aux antipodes des postulats de

Spencer, qu’il met en œuvre dans son étude De la division du travail social (1893).

272

- Perte de crédit de l’évolutionnisme social et culturel à compter des années

1940 et de la théorie synthétique de l’évolution, faisant valoir le hasard des

mutations comme source de la variabilité. Supplanté par le fonctionnalisme

et le structuralisme.

- De nouvelles tentatives d’application de la sociobiologie à l’homme à

compter des années 1970 avec le développement de l’éthologie ou de

l’écologie humaine, ainsi que de la psychologie évolutionniste (evopsy) à

compter des années 1980.

Paul Tannery (1843-1904)

Principales contributions :

- La Géométrie grecque (1887)

- Pour l'histoire de la science hellène (1930)

- Recherches sur l'histoire de l'astronomie ancienne (1893)

Concepts et idées-forces :

- Auteur de nombreuses études portant sur la science antique. S’intéresse

également aux mathématiques byzantines et médiévales et à l’astronomie

du XVIIe siècle.

- Il conteste l’image traditionnelle d’un Galilée essentiellement

expérimentateur. Beaucoup des expériences que le Pisain décrit n’ont pas

été réalisées. C’est la mathématisation du phénomène qui fait la singularité

de son approche, comme en convient aussi Koyré à rebours de Hacking. Il

en ressort, conformément à l’analyse qu’en fait Duhem, que la révolution

des sciences entre le milieu du XVIe siècle et celui du XVIIe siècle fut avant

tout intellectuelle. Réhabilite pour cette raison le rôle de la spéculation

disqualifiée par Comte et positiviste.

- En opposition à Kant qui affirmait le caractère synthétique a priori des lois

de la physique et des notions mathématiques, Tannery démontre avec

Duhem que le principe d’inertie n’est pas a priori – ou bien les Grecs

l’auraient déjà trouvé. Or, l’inertie n’est autre que le point décisif de la

démarcation entre la physique scolastique et la physique classique, celui qui

rend possible la conciliation sous de mêmes lois des lieux supra- et

sublunaire.

273

- Pas davantage le principe d’inertie n’est-il synthétique a posteriori (tiré de

l’expérience) puisque nulle part observable dans la nature. Ne le sont que

les instanciations de ce principe (la pomme, la Lune, etc.).

- Conçoit le développement des sciences sur le modèle d’un continuum

évolutif, empreint de darwinisme et non, comme Kuhn, comme une

scansion discontinue de paradigmes.

Pierre Thuillier (1932-1998)

Principales contributions :

- Socrate fonctionnaire. Essai sur (et contre) la philosophie universitaire

(1969)

- Jeux et enjeux de la science (1972)

- Le petit savant illustré (1980)

- Les biologistes vont-ils prendre le pouvoir ? La sociobiologie en question

(1981)

- Darwin et Cie (1981)

- L’aventure industrielle et ses mythes (1982)

- Les savoirs ventriloques. Ou comment la culture parle à travers la science

(1983)

- D’Archimède à Einstein. Les faces cachées de l’invention scientifique

(1988)

- Les passions du savoir. Essais sur les dimensions culturelles de la science

(1988)

- La grande implosion. Rapport sur l’effondrement de l’Occident (1995)

- La revanche des sorcières. L’irrationnel et la pensée scientifique (1997)

Concepts et idées-forces :

- L’irrationnel de la découverte scientifique. Il n’est pas extérieur aux

sciences ; il n’est pas ce que la science épuise ; il est parfois son moteur

même. À rebours de la présentation idéalisée qu’en font les manuels

officiels, l’émergence effective de la découverte scientifique peut être

tributaire d’a prioris philosophiques, politiques et religieux. Ses sources

d’inspiration vont du délire fiévreux à l’occultisme le plus déroutant. Les

erreurs sont légions ; les falsifications pléthore ; les interrogations multiples.

La sérindipité est plus souvent la règle que l’exception.

274

- Croisade contre le scientisme. Quand la plupart des philosophes des

sciences cibleraient prioritairement la prétention des religions à imposer

leur vérité (voir les « procès du singe »). À illusion, illusion et demi. « Oui,

je tiens à critiquer le mythe de la "science pure". Selon ce mythe, la Science

serait transcendante aux autres activités sociales ; elle serait une

construction absolue, objective, neutre […] Je préfère pour ma part une

approche plus réaliste ; [La science] est tout de même une construction

humaine ; elle a une histoire et elle est enracinée dans tout un contexte

social » (Libération du 6 janvier 1981, propos recueillis par Didier Eribon).

Cf. aussi la préface-manifeste au Petit savant illustré de 1980.

- Au-delà du scientisme, critique de la rationalité à outrance et de

l’hégémonie des sciences qui ne font plus droit de cité à d’autres formes du

connaître : la poésie, l’art, etc. le roman d’anticipation de 1995 intitulée La grande implosion détaille l’effondrement de l’Occident aveugle à ses échecs

et incapable de remettre en cause ses idoles religieuses que sont devenues

les économies de marché, la technique et le mode de vie urbain.

Désenchantement du monde poussé à son plus extrême degré ; absence de

récit collectif à même de fédérer un peuple, ce sont là quelques-unes des

conséquences de l’impérialisme scientifique : « Si l’Occident s’était effrité,

s’il s’était culturellement décomposé, c’était parce qu’il avait fini par perdre

tout sens poétique », lit-on ici. « Sans poètes, pas de mythes ; et sans mythes,

pas de société humaine ; c’est-à-dire pas de culture ». L’exclusivisme

scientifique qui confine au monothéisme dispose la recherche à la mort

lente.

- Vision du monde matérialiste et pragmatiste qui aurait commencé avec la

renaissance du XIIe siècle et l’urbanisation qui s’ensuivit. Alliance des

ingénieurs et des marchands qui font un pas hors de la scolastique pour

préparer le règne des sciences de l’économie.

- Intéressement de la science. Contre le postulat de neutralité axiologique,

montre que la science a des enracinements socio-économiques, des mobiles

contextuels qui peuvent être religieux ou politiques, des retombées qui le

sont tout autant. Les controverses scientifiques ne se règlent pas le plus

souvent à la faveur de démonstrations. Les scientifiques sont des hommes

comme les autres, animés de leur intention propre. Voir notamment L’aventure industrielle et ses mythes qui revient sur l’arrière-plan

idéologique prévalant à la mise en place de nouvelles techniques ou Les

275

passions du savoir qui prend en charge la question de l’eugénisme, de

l’expérimentation humaine, du féminisme, de la « science juive » ; soit de la

connivence entre une certaine science et une entreprise politique. Thuillier

critique sous ces auspices la sociobiologie et les programmes de recherche à

saveur eugéniste.

John Tooby (1952-20XX)

Voir : Leda Cosmides.

Hugo de Vries (1848-1935)

Principales contributions :

- Hérédité, mutation et évolution (1937)

Concepts et idées-forces :

- De Vries introduit la notion de « mutation » en biologie, qu’il oppose au

concept de variabilité fluctuante et limitée, postulée par Darwin.

- Mutationnisme. Inspiré du transformisme expérimental de Camille

Dareste (1822-1899). Macro-évolution ou saltationnisme qui fait valoir des

moments critiques de mutations rapides entrecoupées par des périodes de

relative stabilité dans le processus de transformation des espèces. L’idée sera

reprise et développée par Thomas H. Morgan (1866-1945). S’oppose à la

vision gradualiste et continuiste de la transformation des espèces, soutenue

par Lamarck.

- Découvre, en 1900, des lois de l’hérédité indépendamment des travaux de

Gregor Mendel, et de manière similaire à Carl Correns et Erich von

Tschermak-Seysenegg. Lois statistiques qui mettent en évidence l’existence

de caractères dominants et récessifs. Aux fondements d’une nouvelle

discipline qui prend le nom de « génétique » (Bateson). Combinée à la

théorie de l’évolution et aux autres apports du génie génétique, donne lieu

au néodarwinisme ou à la théorie synthétique de l’évolution. Le hasard

apparent qui semble administrer les mutations contribue à la dépréciation

du transformisme (finaliste, presque « volontariste ») de Lamarck, qui reste

cependant latent en France tout au long du XXe siècle.

- Membre étranger de la Royal Society depuis 1905.

276

Max Weber (1864-1920)

Principales contributions :

- L'Éthique protestante et l'esprit du capitalisme (1905)

- Essais sur la théorie de la science (1904-1917)

- Le Savant et le politique (1919)

- Recueil d'études de sociologie des religions (1920)

Concepts et idées-forces :

- Sociologie compréhensive. Interprétative et herméneutique plutôt que

naturaliste et réifiante, en ce qu’elle s’emploie à exhumer le sens subjectif et

les motifs des actions des individus, au fondement des phénomènes sociaux :

« Nous appelons sociologie une science qui se propose de comprendre par

interprétation l'activité sociale et par là expliquer causalement son

déroulement et ses effets » (Économie et société).

- Individualisme méthodologique‎. Interprète le social à partir des individus

et non les individus à partir du social.

- Approche aux antipodes de la conception explicative, mécaniste,

statistique, objective et holiste (globale) de la sociologie attribuée à

Durkheim, pour qui « les fait sociaux doivent être traités comme des choses

». L’opposition entre les deux méthodes, l’une relevant de la tradition

allemande et l’autre de la tradition française, fut relevé par Raymond Aron

et reprise par Raymond Boudon dans les années 1970, devenant l’un des

points de controverse méthodologique les plus ardents de la sociologie.

- On explique par ailleurs la réception tardive et suspicieuse de l’œuvre de

Weber en France par la prégnance de l'école durkheimienne dans les

années de l’avant-guerre puis par celle de la pensée marxiste, faisant valoir

la détermination de ce que Bourdieu appellera l’habitus par la situation

socio-économique.

- Opposition méthodologique à relativiser. Elle nous en apprend plus sur

l’ignorance de ceux qui la convoquent que sur les travaux respectifs de

Weber et de Durkheim. Contre la tentation de faire de Weber un champion

inconditionnel de l’approche subjectiviste et individualiste, l’usage attesté –

dès son article le plus célèbre sur l’éthique protestante et l’esprit du

capitalisme – de statistiques, la mention de l’influence des traditions, des

religions, du commerce, des études historiques de psychologie collective et

277

la mention de corrélation sociale générale ; autant d’indications que l’on

n’attendrait pas de la part d’un chercheur qui ne tiendrait compte que de

motivations individuelles. Quant au sort fait à la méthode de son

concurrent, cf. notice Durkheim.

- Les « sciences de la culture ». Défend l’irréductibilité des sciences de

l’esprit (sociologie, histoire, etc.) aux sciences de la nature ; contra la

tradition positiviste dominante en France. Ainsi, Durkheim concède à la

sociologie une méthode spécifique, mais dérivée et tributaire de celle des

sciences naturelles.

- Neutralité axiologique. Jugements de valeur (subjectifs ; à bannir du

discours du sociologue) et rapports aux valeurs (objectifs ; à considérer

comme des données sociales à intégrer dans l’analyse compréhensive des

phénomènes sociaux). Une règle déontologique : ne pas porter de jugement

normatif. La seule valeur susceptible d’accompagner le travail scientifique

est celle de la vérité. (On peut se demander s’il ne s’agit pas d’un idéal ou

d’un aveuglement plutôt que d’un ethos humainement accessible).

- L'idéal-type. Construit par le chercheur pour servir de repère, de modèle

éthéré, de « tableau de pensée homogène » que légendent des propriétés

spécifiques et distinctives ; en somme, de schème « utopique » rendant la

multiplicité de l’observation intelligible à l’aune d’une construction

intellectuelle à valeur heuristique. Permet de rapporter les différentes

instanciations de l’objet empirique à une norme (stéréotype, cliché) pour en

considérer l’écart.

- Sociologie des religions. Weber reconnaît la contribution paradoxale et

décisive des religions au processus de rationalisation du monde. Les grandes

civilisations se développent en produisant des représentations toujours plus

systématiques et méthodiques, avec une acuité particulière en Occident : «

Ce qui importe donc, en premier lieu, c'est de reconnaître et d'expliquer

dans sa genèse la particularité du rationalisme occidental […]. L'apparition

du rationalisme économique […] dépend de la capacité et de la disposition

des hommes à adopter des formes déterminées d'une conduite de vie

caractérisée par un rationalisme pratique. Là où une telle conduite de vie a

rencontré des entraves d'ordre psychique, le développement d'une conduite

de vie rationnelle dans le domaine économique a rencontré, lui aussi, de

fortes résistances intérieures. Or, parmi les éléments les plus importants qui

ont façonné la conduite de vie, on trouve toujours, dans le passé, les

278

puissances magiques et religieuses ainsi que les idées éthiques de devoir qui

sont ancrées dans la croyance en ces puissances » (« Avant-propos » du

Recueil d'études de sociologie des religions).

- Désenchantement du monde. Effacement de la croyance en une causalité

magique et en l’intervention divine dans le monde phénoménal. La

téléologie le cède au mécanisme, les intentions aux lois ; d’où s’ensuit une «

vacance du sens ». L’homme moderne ne prête plus à l’existence de

signification fondamentale. La « cage d’acier » ou « cage de fer » (« iron cage

») dénonce le risque d’oppression de l’individu par un système

technocratique glacé, absurde et déshumanisé, fondé sur le calcul et avide

de contrôle.

- Une thèse à nuancer. En dépit d’une récente « désacralisation de la Nature

» en Occident, la pensée magique n’a pas été éradiquée. Comme le remarque

Mircea Eliade, les mythes opèrent encore efficacement sur une grande

partie du globe : « L'expérience d'une Nature radicalement désacralisée [...]

n'est accessible qu'à une minorité des sociétés modernes, et en premier lieu

aux hommes de science ». Quant aux mythes relatifs à la Nature, ils

prolifèrent jusqu’à constituer parfois des « pseudo-religions », des «

mythologies dégradées ». On songe à l’usage fait par les « mouvances Gaïa »

de l’hypothèse de James Lovelock, chimiste britannique, et de Lynn

Margulis, une microbiologiste américaine, dans les années 1970 (cf. La Terre est un être vivant, l'hypothèse Gaïa, 1999). Des résurgences de pensée

animiste dans nombre d’ouvrages s’inspirant de préoccupations écologiques

: personnification, ampleur cosmique, « la terre se venge », etc. Une

nouvelle religiosité, forme de spiritualité New-Age, en réaction contre les

excès de la société industrielle. Également dans le champ de la controverse

scientifique avec les thèmes de l’élan vital, pierre angulaire des théories de

l’École de Montpellier, où de la mémoire de l’eau défendue par Jacques

Benveniste dans sa thèse polémique de 1988. La science produit ses propres

mythologies, ses propres entités, ses propres métaphores (la « particule de

Dieu »), progresse dans la spéculation au point de recréer elle-même ses

récits de l’origine et du sens de la vie. On ne détruit que ce que l’on

remplace.

- Influence du protestantisme dans la genèse du capitalisme. Et plus

spécifiquement, du calvinisme et du puritanisme en général ; par quoi

s’explique l’ascèse du travail qui a conduit au système de production

279

moderne. La réussite professionnelle objectivée par la richesse sociale

confirme, dans l’optique protestante, le statut d’élu de l’individu. Le

paradoxe tient à ce qu’une théologie de la prédestination ait été l’aiguillon

de l’effort plutôt que du « sophisme paresseux ».

- C’est donc, pour Max Weber et à rebours de Marx, l’idéologie (ici la

religion) qui a déterminé le mode de production capitaliste, et non le mode

de production capitaliste qui a déterminé l’idéologie.

- Cette influence décisive de l’éthique protestante que Max Weber retrouve

à l’origine de l’esprit du capitalisme, R.K. Merton l’identifiait aussi au cœur

des valeurs de rationalisme et de rigueur scientifique qui caractérisait les

chercheurs de la Royal Society de Londres, à laquelle ont appartenu entre

autres Rober Boyle, Isaac Newton et son rival Robert Hooke, John Ray,

William Halley et Christopher Wren.

- Éthique de conviction et éthique de responsabilité.

- Définition de l’État moderne comme entité politique à laquelle est échue

le monopole de la violence légitime.

William Whewell (1794-1866)

Principales contributions :

- Histoire des sciences inductives (1837)

- Novum Organon renovatum (1858)

Concepts et idées-forces :

- Invente en 1848 la dénomination de « scientifique » par distinction d’avec

le « savant » du XVIIe siècle.

- Sciences palétiologiques, dont la caractéristique est de régresser à un état

passé des choses en inférant de l’état présent d’après les causes supputées du

changement (Histoire des sciences inductives). Prédiction rétrospective =

rétrospection.

- La « consilience » de l'induction : fait d’aboutir à des résultats analogues en

partant de disciplines distinctes.

- Le recueil des faits est tributaire d’une hypothèse de travail, contra

l’empirisme naïf.

280

Steve Woolgar (1950-20XX)

Principales contributions :

- La vie de laboratoire. La production des faits scientifiques (avec Bruno

Latour) (1979)

- The Cognitive Turn : sociological and psychological perspectives on science (avec Steve Fuller et M. de Mey) (1989)

- Representation in Scientific Practice (avec Michael Lynch) (1990)

Concepts et idées-forces :

- Anthropologie des sciences. Étude ethnographique du fonctionnement

d’un laboratoire de neuro-endocrinologie. Voir notice Bruno Latour.

- Représentant du courant britannique de sociologie de la connaissance

scientifique (SSK), développé par Harry Collins, David Edge ou Michael

Mulkay.

- Réoriente ses derniers travaux vers la question du marketing.

Reconversion significative qui soutient une analogie entre la capacité des

scientifiques à « investir en crédibilité » et celle des publicitaires à

promouvoir leurs produits.

Ludwig Wittgenstein (1889-1951)

Principales contributions :

- Tractatus logico-philosophicus (1921)

- Cahier bleu (1933-1935)

- Investigations philosophiques (1953)

- De la certitude (1969)

Concepts et idées-forces :

- Nouvelle conception de la philosophie conçue comme moins comme

recherche métaphysique de la vérité que comme activité de clarification

logique de la pensée. Le rôle du philosophe consiste à épurer le langage de

ces non-sens métaphysiques, sans valeur de vérité. Les controverses

philosophiques se résolvent dans cette explicitation. Proche de la

Caractéristique universelle selon Leibniz.

- Le Tractatus, écrit au début de la Grande guerre durant son engagement

dans l’armée autrichienne, se compose d’une suite d’aphorismes

281

s’enchaînant comme des théorèmes mathématiques. Cet ouvrage lu, selon

son auteur, doit aussitôt être oublié, n’être jamais considéré que comme une

étape transitoire du cheminement philosophique. On ne fonde pas d’église

avec le Tractatus ; contra le Cercle de Vienne.

- « Le monde est tout ce qui a lieu » = ensemble de faits que le langage a

pour fonction de décrire comme un tableau décrirait son modèle, en

écartant les propositions métaphysiques qui ne sont pas susceptibles de

vérification. La structure d’une proposition vraie est analogue à celle des

faits qu’elle énonce : mondes et langage sont isomorphes.

- Propositions logiques sont de l’ordre analytique. Tautologiques, elles

n’ajoutent rien à notre connaissance du monde.

- Inspire la division établie par Carnap entre les énoncés observationnels et

les énoncés théoriques.

- Développe les concepts de sens/non-sens/vide de sens, montrer/dire, jeu

de langage, etc.

- La signification d’un énoncé n’est autre que son usage syntaxique.

Adaptation à la sémantique du principe du rasoir d’Ockham : « Si un signe

n'a pas d'usage, il n'a pas de signification. Tel est le sens de la devise

d'Occam. (Si tout se passe comme si un signe avait une signification, c'est

qu'alors il en a une.) » (Tractatus logico-philosophicus, 1921).

- « Ce dont on ne peut parler, il faut le taire ». Formule ambiguë, donne lieu

à de multiples interprétations.

- Le Tractatus inspire le programme du manifeste du Cercle de Vienne.

Wittgenstein se défend de cette filiation qu’il conçoit comme une trahison.

Frances Yates (1899-1981)

Principales contributions :

- Giordano Bruno et la Tradition hermétique (1964)

- L'Art de la mémoire (1966)

- Science et tradition hermétique (1967-1977)

- La Philosophie occulte à l'époque Elisabéthaine (1979)

- Raymond Lulle et Giordano Bruno (1982)

282

Concepts et idées-forces :

- Met en valeur le rôle fondamental joué par l’occultisme, par l’hermétisme

et par le néoplatonisme dans la réforme de la philosophie et l’émergence des

sciences au seuil de la modernité. Historien spécialiste des premiers âges de

la modernité, auteur célèbre de Religion and the Decline of Magic et de

Man and the Natural World, Keith V. Thomas lui sait gré d’avoir défriché

une région jusqu’alors délaissée de l’historiographie : « The seminal studies

of Michel Foucault and Frances Yates, even if not fully persuasive in every

aspect, have made it impossible for historians ever again to ignore the role

of various forms of magical thinking and practice in the Renaissance

understanding of the natural world » (Anthony Grafton, Nancy Siraisi (éd.),

Natural Particulars, Introduction, 1999).

- Décèle les survivances du gnosticisme, du mysticisme alexandrin et de la

magie chez les penseurs du Moyen Âge. Giordano Bruno exécuté en 1600

pour avoir témoigné de sa foi en l’hermétisme plutôt que avoir professé

l’héliocentrisme (double mouvement des planètes sur elles-mêmes et autour

du Soleil) ou la pluralité des mondes habités.

283

Bibliographie indicative

Acot P., L'histoire des sciences, Presses universitaires de France, 1999.

Alder K., Mesurer le monde, 1792-1799 : l'incroyable histoire de l'invention du mètre, Flammarion, 2005.

Daston L., Galison P., Objectivity, Zone Books, 2007.

Alquié F., La philosophie des sciences, La Table Ronde, 2002.

Althusser L., Philosophie et philosophie spontanée des savants (1967), Maspero, 1974.

Ampère A.-M., Essai sur la philosophie des sciences. Ou Exposition analytique d'une classification naturelle de toutes les connaissances humaines, Bachelier, 1834.

Andler D., Fagot-Largeault A., Saint-Sernin B., Philosophie des sciences (2

vol.), Gallimard, 2002.

Aristote, Catégories, Le Seuil, 2002.

Aristote, Organon, trad. Tricot J., Vrin, 1983.

Aristote, Seconds Analytiques, Flammarion, 2005.

Aristote, Traité du ciel, Vrin, 1990.

Arnault A., Nicole P., La logique, ou l'art de penser, Gallimard, 1992.

Astofli J.-P., M. Develay, La didactique des sciences, Presses universitaires

de France, 1989.

Bachelard G., Épistémologie, textes choisis. Presses universitaires de France,

1971.

Bachelard G., Essai sur la connaissance approchée, Vrin, 1973.

Bachelard G., La formation de l'esprit scientifique. Contribution à une psychanalyse de la connaissance, Vrin, 1993.

Bachelard G., L'activité rationaliste de la physique contemporaine, Presses

universitaires de France, 1951.

Bachelard G., Le nouvel esprit scientifique, Presses universitaires de France,

2003.

Bacon F. Novum Organum, trad. Lorquet A., Hachette, 1990.

Barberousse A., Kistler M., Ludwig P., La philosophie des sciences au XXe siècle, avec Flammarion, Champs U, 2000.

284

Barreau H., L'épistémologie, Paris, Presses universitaires de France, 2008.

Baudet J.C., Mathématique et vérité, L'Harmattan, Paris, 2005.

Ben-David J., Éléments d'une sociologie historique des sciences, Gad

Freudenthal (éd.), trad. Launay M. de, Presses universitaires de France,

1997.

Ben-David J., The Scientist's Role in Society, U. of Chicago Press, 1984.

Bensaude-Vincent B., Lavoisier. Mémoires d'une révolution, Paris, Flamma-

rion, 1993.

Bensaude-Vincent B., Stengers I., Histoire de la chimie, La Découverte,

2001.

Benthem J. van, Meulen A. ter (éd.), Handbook of Logic and Language, Elsevier, 1997.

Bernard C, Introduction à l'étude de la médecine expérimentale, éd. Fataud

J.M., Bordas, 1966.

Besnier J.-M., Les théories de la connaissance. Un exposé pour comprendre, un essai pour réfléchir, Flammarion, 1996.

Blackburn P., Rijke M. de, Venema Y., Modal Logic, Cambridge UP, 2001.

Blanche R., Dubucs J., La logique et son histoire, A. Colin (1970), 1996.

Blanché R., L'induction scientifique et les lois naturelles, Presses

universitaires de France, 1975.

Blay M., La science du mouvement de Galilée à Lagrange, Belin, 2002.

Bohr N., Physique atomique et connaissance humaine (1958), trad. Bauer

E., Omnès Roland, Gallimard, 1991.

Boltzmann L., Leçons sur la théorie des gaz, Sceaux, Gabay, 1987.

Bonnay D., Cozic M., Textes clés de philosophie de la logique : logique, preuve, vérité, Vrin, 2009.

Boolos G., Jeffrey R., Computability and Logic, Cambridge UP, 1974, 2002.

Boss G., John Stuart Mill. Induction et utilité, Éditions du Grand Midi,

2009.

Bourdeau M., Braunstein J.-F., Petit A., Auguste Comte aujourd'hui, Col-

loque de Cerisy, 3-10 juillet 2001, précédé de Houellebecq M., Prélimi-naires au positivisme, Kimé, 2003.

Braunstein J.-F. (dir.), L'histoire des sciences : méthodes, styles et controverses, Vrin, 2008.

Brenner A., Duhem : Science, réalité et apparence, Librairie Philosophique

Vrin, Mathesis, 2000.

285

Brenner A., Les origines françaises de la philosophie des sciences, Presses

Universitaires de France, Science, histoire et société, 2003.

Brenner A., Raison scientifique et valeurs humaines, Presses Universitaires

de France, Science, histoire et société, 2011.

Broch H., Charpak G., Devenez sorciers, devenez savants, Odile Jacob,

2002.

Broda E., Ludwig Boltzmann : man, physicist, philosopher, trad. Gay L.,

Woodbridge, CT, Ox Bow Press, 1983.

Brunschwig J., Lloyd G.E.R. (éd.), Le savoir grec. Dictionnaire critique, Flammarion, 1996.

Bunge M., Épistémologie, Maloine, 1983.

Busino G., Sociologie des sciences et des techniques, Paris, Presses

universitaires de France, 1998.

Canguilhem G. La formation du concept de réflexe aux XVIIe et XVIIIe siècles, Presses universitaires de France, 1955.

Canguilhem G., Le normal et le pathologique (1966), Presses universitaires

de France, Quadrige, 2005.

Carnap R., H. Hahn, Manifeste du Cercle de Vienne et autres écrits, sous la

direction de Soûlez A., Presses universitaires de France, 1985.

Carnap R., Logical Foundations of Probability, University of Chicago Press,

1962.

Cercignani C. Ludwig Boltzmann: the man who trusted atoms, Oxford

University Press, 2006.

Chalmers A.F., Qu'est-ce que la science? Popper, Kuhn, Lakatos, Feyerabend, Le Livre de Poche, 1990.

Châtelet G., Les enjeux du mobile : mathématique, physique, philosophie, Le Seuil, 1993.

Chevalier J.-M., Gaultier B., Connaître. Questions d’'épistémologie contemporaine, Ithaque, Philosophie, 2014.

Chevasus-au-Louis N., Les Savants sous l'Occupation : enquête sur la vie scientifique française entre 1940 et 1944, Seuil, Science ouverte, 2004.

Cicéron, De la divination, trad. Appuhn C., Garnier Frères, 1937.

Clavelin M., La Philosophie naturelle de Galilée. Essai sur les origines et la formation de la mécanique classique, A. Michel, 1996.

Collins H., Pinch T., Les nouveaux Frankenstein : quand la science vous trahit, trad. Argouarc'h M., Paget D., Flammarion, 2001.

286

Collins H., Pinch T., Tout ce que vous devriez savoir sur la science, trad.

Piélat T., Seuil, 2001.

Comte A., Cours de philosophie positive (1830-1842), 2 vol., Paris,

Hennann, 1975.

Condorcet, Esquisse d'un tableau historique des progrès de l'esprit humain

(1793-1794), Librairie philosophique J. Vrin, Paris, 1970.

Copernic N., Des révolutions des orbes célestes, trad. Koyré Alexandre,

Félix Alcand, 1934.

Cori R., Lascar D., Logique mathématique, 2 vol., Dunod, 2003.

Cournot A.A., « Considérations sur la marche des idées et des événements

dans les temps modernes », dans The American Historical Review, 40, 1,

1934.

Dagognet F., La raison et les remèdes, Paris, Presses universitaires de

France, 1964.

Dahan-Dalmedico A., Peiffer J., Une histoire des mathématiques : routes et dédales, Seuil, Points sciences, 1986.

Dalen D. van, Logic and Structure, Berlin, Springer, 2004.

Darwin C., L'origine des espèces au moyen de la sélection naturelle, ou La lutte pour l'existence dans la nature (1859), Flammarion, 2008.

Daumas M. (dir.), Histoire générale des techniques, Presses universitaires de

France, 1962-1979.

David R., Nour K., Raffalli Ch., Introduction à lu logique. Théorie de la dé-monstration, Dunod, 2003.

Dear P., Revolutionizing the Sciences : European Knowledge and its Ambitions, 1500-1700, Palgrave, 2001.

Gingras Y., Keating P., Limoges C., Du scribe au savant : les porteurs du savoir de l'Antiquité à la révolution industrielle, Boréal, Presses

universitaires de France, 1998.

Delmas Y., Lalement R., La logique. Ou l'art de raisonner, Le Pommier,

Quatre à quatre, 1999.

Descartes R., Discours de la méthode. Pour bien conduire sa raison et chercher la vérité dans les sciences, éd. Liard L., Guénard A., Garnier

Frères, 1950.

Dhombre J.et al., Mathématiques au fil de l'âge, Gauthiers-Villars, 1987.

Dhombres J., A. Kremer-Marietti, L'épistémologie : état des lieux et

positions, Ellipses Marketing, 2006

287

Diogène Laërce, Vie, doctrines et sentences des philosophes illustres, trad.

Genaille R., Garnier Frères, 1960.

Duhem P., La théorie physique, son objet, sa structure, Chevalier et

Rivière, 1906.

Duhem P., Le système du monde. Histoire des doctrines cosmologiques de Platon a Copernic, Hermann, 1954.

Duhem P., L'évolution de la mécanique. Suivi de Les théories de la chaleur : analyse de l'ouvrage de Ernst Mach, La mécanique, éd. Brenneret A.,

Germain P., Vrin, 1992.

Duhem P., Sozein ta phainomena. Essai sur la Notion de Théorie physique de Platon à Galilée

Dumont J.-P., Delattre D., Poirier J.-L, Les Présocratiques, Gallimard, 1988.

Dutant J., Engel P., Textes clés de la philosophie de la connaissance : Croyance, connaissance, justification, Vrin, 2005.

Einstein A., Comment je vois le monde, Flammarion/Champs, 1983.

Einstein A., La Relativité, trad. Solovine Maurice, Gallimard, 1956.

Enderton H.B., A Mathematical Introduction to Logic, Académie Press,

2001.

Enderton H.B., Eléments of Set Theory, New York, Académie Press, 1977.

Esfeld M., Philosophie des sciences : Une introduction, Presses

polytechniques et universitaires romandes (PPUR), 2009.

Esfeld M., Physique et métaphysique : Une introduction à la philosophie de la nature, Presses polytechniques et universitaires romandes (PPUR), 2012.

Fagin R., Halpern J. et al, Reasoning about Knowledge, Cambridge (MA),

MIT Press, 1995.

Farouki N., Qu'est-ce qu'une idée ?, Le Pommier, Quatre à quatre, 1999.

Feyerabend P., Contre la méthode. Esquisse d'une théorie anarchiste de la connaissance, trad. Jurdant B., Schlumberger A., Seuil, 1988.

Folscheid D., Les grandes dates de la philosophie antique et médiévale, Presses universitaires de France, 1996.

Foucault M., L'archéologie du savoir, Gallimard, 1969.

Foucault P.-M., Les Mots et les choses : archéologie des sciences humaines, Gallimard, 1966.

Fourez G., Apprivoiser l'épistémologie, De Boeck, 2003.

Frege G., Écrits logiques et philosophiques, Le Seuil, 1971.

Frege G., Écrits posthumes, 1969, trad. Chambon J., 1994.

288

Frege G., Idéographie, éd. Besson C., Barnes J., Vrin, 1999.

Gabbay D., Guenthner F. (éd.), Handbook of Philosophical Logic, D. Reidel,

Springer, 2005.

Galilée G., Dialogue sur les deux grands systèmes du monde (1632), trad.

Fréreux R., Seuil, 1992.

Galilei G., L’essayeur, trad. Chauviré C., Les Belles Lettres, 1980.

Galison P., L'empire du temps : les horloges d'Einstein et les cartes de Poincaré, Gallimard, Folio-essais, 2005.

Gamut L.T.F., Logic, Language and Meaning, 2 vol., University of Chicago

Press, 1991.

Gaston Bachelard, Épistémologie : Textes choisis, Presses Universitaires de

France, 1971.

Gille B. (dir.), Histoire des techniques, Gallimard, 1978.

Gillespie C.C. (dir.), Dictionary of Scientific Biography, Scribner's Sons,

1970-1980.

Giordan A., Vecchi G. de, L'enseignement scientifique. Comment faire pour que « ça marche » ? Delagrave, 2002.

Girard J.-Y., Proof Theory and Logical Complexity, Bibliopolis, 1987.

Goble L. (éd.), The Blackwell Guide to Philosophical Logic, Black-well,

2001.

Gochet P., Gribomont P., Thayse A., Logique, 3 vol., Hermès, 1990-2000.

Gôdel K., Collected Works, 5 vol., Oxford UP, 1986-2003.

Golinski J., Making Natural Knowledge : Contructivism and the History of Science, Univ. of Chicago Press, 2005.

Gonseth F., Le problème de la connaissance en philosophie ouverte, textes

choisis et présentés par Emery E., Lausanne, L'Âge d'homme, 1990.

Goodman N., Faits, fictions et prédictions, Éditions de Minuit, 1985.

Gouhier H., La Vie d'Auguste Comte, Vrin, 1997.

Granger G. G., La Science et les sciences, Paris, Presses universitaires de

France, 1993.

Haaparanta L. (éd.), The History of Modem Logic, Oxford UP, à paraître.

Hacking I., Ducrest B., Concevoir et expérimenter. Thèmes introductifs à la philosophie des sciences expérimentales, Paris, C. Bourgois, 1989.

Hacking I., Entre science et réalité : la construction sociale de quoi ?, trad.

Jurdant B., La Découverte, Paris, 2001

289

Haking I., L'ouverture au probable. Éléments de logique inductive, trad.

Dufour M., A. Colin, 2004.

Hanson N.R., The concept of positron, Cambridge University Press, 1963.

Hanson N.R., Patterns of discovery : An inquiry into the conceptual fondations of science, Cambridge University Press, 1958.

Heidegger M., Essais et conférences, Gallimard, 2001.

Heijenoort J. van (éd.), From Frege to Gôdel. A Sourcebook in Mathematical Logic, Oxford UP, 1879-1931.

Heisenberg W., La Nature dans la physique contemporaine, trad Karvelis

U., Leroy A.E., Chevalley C., Paris, Gallimard, 2000.

Hempel C.G., Éléments d'épistémologie, A. Colin, 1972

Holbach P.H.D., Système de la nature. Par le baron d'Holbach, éd. Diderot

D., Etienne Ledoux, 1821.

Humboldt A. de, Cosmos : essai d'une description physique du monde, trad.

Faye H., Baudy J., 1855.

Hume D., Enquête sur l'entendement humain. Enquête sur les principes de la morale, trad. Leroy A.-L., Beyssade M., Flammarion, 2008.

Hume D., Traité de la nature humaine. Livre premier, ou De l'entendement, trad. Renouvier C., Billon F., Au Bureau de la Critique Philosophique, 1878.

Husserl E., Idées directrices pour une phénoménologie, t. 1, trad. Ricœur P.,

Paris, Gallimard, 1963.

Husserl E., La Crise des sciences européennes et la phénoménologie transcendantale, trad. Granel G., Gallimard, 1976.

Jacob M., Scientific Culture and the Making of the Industrial West, Oxford

UP, 1996.

Jacquard A., La Sciences à l'usage des non-scientifiques, Calmann-Lévy,

2001.

Jacquette D. (éd.), A Companion to Philosophical Logic, Blackwell, 2002.

Jacquette D. (éd.), Philosophy of Logic, North-Holland, 2006.

Jaquet C, Bacon et la promotion des savoirs, Presses universitaires de

France, 2010.

Jastrow J., Fact and fable in psychology, Macmillan, 1901.

Kant E., Critique de la raison pure, trad Alquié F., Delamarre A.J.-L, Marty

F., Gallimard, 1980.

Kleene S., Logique mathématique, A. Colin, 1971.

290

Koertge N. (dir.), New Dictionary of Scientific Biography, 8 vols, Gale,

2007.

Koyré A., Études newtoniennes (1964), Gallimard, 1968.

Koyré A., Du monde dos à l'univers infini, trad. Tarr R., Presses

universitaires de France, 1962.

Koyré A., Études d'histoire de la pensée scientifique, XX

Koyré A., Études galiléennes, Hermann, 1939

Koyré A., La révolution astronomique. Copernic, Kepler, Borelli, Hermann,

1961.

Kremer-Marietti A., Philosophie des sciences de la nature, Presses

Universitaires de France, 1999.

Kripke S.A., Règles et langage privé ? Introduction au paradoxe de Wittgenstein, Le Seuil, 1996.

Kuhn T.S., La révolution copernicienne, Fayard, 1973.

Kuhn T.S., La structure des révolutions scientifiques (1962), Flammarion,

1970.

La Mettrie J.O., L'homme-machine, Assoun P.L., Denoël-Gonthier, 1981.

Lachelier J., Du fondement de l'induction. Suivi de Psychologie et métaphysique et de Notes sur le pari de Pascal, éd. Moutaux J., Fayard,

1992.

Lakatos I., Falsification and the Methodology of Scientific Research Programs dans Lakatos I., Musgrave A. (éd.), Criticism ans the Growths of Knowledge, Cambridge Univeristy Press, 1970.

Lakatos I., Preuves et réfutations : essai sur la logique de la découverte mathématique, trad. Balacheff N., Laborde J.M., Hermann, 1984.

Lalande A., Les théories de l'induction et de l'expérimentation, Boivin &

Cie, 1929.

Lange F.-A., Histoire du matérialisme et critique de son importance à notre époque, Coda, 2004.

Laplace P.S., Essai philosophique sur les probabilités, Courcier, 1816.

Laplace P.S., Exposition du système du monde dans Œuvres complètes, Gauthier-Villars, 1878-1912.

Largeault J. (éd.), Intuitionisme et théorie de la démonstration, Vrin, 1992.

Latour B., La Science en action : introduction à la sociologie des sciences, Gallimard, 1995.

291

Latour B., Petites leçons de sociologie des sciences, Le Seuil, Point-Sciences,

1994.

Laugier S., Wagner P. (éd.), Textes clés de philosophie des sciences, t. I :

Théories, expériences et méthodes ; t. II : Naturalismes et réalismes, Vrin,

2004.

Laugier S., Wagner P., Philosophie des sciences, 2 vol., Vrin, 2004.

Lavoisier A.-L, Traité élémentaire de chimie. Présenté dans un ordre nou-veau, et d'après les découvertes modernes, Hachette Livre BNF, 1012.

Le Moigne J.-L., Les épistémologies constructivistes, Que sais-je ?, Presses

universitaires de France, 2012.

Lecourt D., Bourgeois T., Dictionnaire d'histoire et philosophie des sciences, Presses universitaires de France, Quadrige Dicos Poche,‎‎2006.

Lecourt D., Dictionnaire de la pensée médicale, Paris, Presses universitaires

de France, Quadrige, 2004.

Lecourt D., L’épistémologie historique de Gaston Bachelard (1969), Vrin,

2002.

Lecourt D., La philosophie des sciences (2001), Que sais-je ?, Presses

universitaires de France, 2010.

Lepage F., Éléments de logique contemporaine, Presses de l'Université de

Montréal, 1991.

Lloyd G.E.R., Les débuts de la science grecque. De Thaïes à Aristote, trad.

Brunschwig J., Maspero, 1974.

Locke J., Essai sur l'entendement humain, Vrin, 2001.

Lovejoy A.O., The Great chain of being. A study of the history of an idea by Arthur O. Lovejoy, Harvard University press, 1942.

Lucrèce, De la nature, trad. Ernout A., Gallimard, 1990.

MacFarlane J., What Does it Mean to Say that Logic is Formai ?, Ph.D, uni-

versité de Pittsburgh, 2000.

Mach E., La mécanique, exposé historique et critique de son développement (1883), Hermann, 1904.

Machover M., Set Theory, Logic and their Limitations, Cambridge UP,

1996.

Maine de Biran P., « Mémoire sur la décomposition de la pensée », dans

Œuvres, t. III. Paris, Vrin, 1988.

Malherbe J.-F., Épistemologies anglo-saxonnes, Presses universitaires de

Namur, 1981.

292

Marion P., Le génial bonhomme Ampère. Le roman de sa vie, Mémoire des

arts, 1999.

Mathieu F., Une brève histoire de monde, TheBookEdition, 2013.

Merton R., Eléments de théorie et de méthode sociologique, trad. Mendras

Henri, A. Coli, 1997.

Nowotny H., Scott P., Repenser la science : savoir et société à l'ère de l'incertitude, Belin, 2003.

Mesure S., Dilthey W., Critique de la raison historique. Introduction aux sciences de l'esprit et autres textes, Éditions du Cerf, 1992.

Morin E., La Méthode, La Connaissance de la connaissance, 1986, Le Seuil,

Nouvelle édition, Points, 2010.

Nadeau R., Vocabulaire technique et analytique de l'épistémologie, Paris,

Presses universitaires de France, 1999.

Nicod J., Le problème logique de l'induction, préface de Russell B., Presses

universitaires de France, 1961.

Nouvel P., L'Art d'aimer la science, Presses universitaires de France,

Science, histoire et société, 2000.

Nye M.J., Before Big Science: The Pursuit of Modern Chemistry and Physics, 1800-1940.

Rosmorduc J., Une histoire de la physique et de la chimie, de Thalès à Einstein, Seuil, Points/sciences, Paris, 2001.

Olby R.C. et al., Companion to the History of Modern Science Routledge,

1990.

Osler M.J. (dir.), Rethinking the Scientific Revolution, Cambridge

University Press, 2000.

Panza M., Newton, Les Belles Lettres, 2003.

Pascal B., Œuvres complètes, Hachette, 1858.

Pascal N., Philosophie des sciences, Presses universitaires de France,

Licence Philo, 2011.

Perdijon J., La mesure, science et philosophie, Flammarion, Dominos, 1998.

Perrin J., Les atomes, Paris, Alcan, 1921.

Pestre D., Introduction aux « Sciences studies », La Découverte, 2006.

Piaget J., Introduction à l'épistémologie génétique, t. I : La pensée mathématique ; t. II : La pensée physique ; t. III : La pensée biologique, la pensée psychologique et la pensée sociale, Presses universitaires de France,

1950.

293

Pickstone J.V., Ways of Knowing : A New History of Science, Technology and Medicine, Manchester Univ. Press, 2000.

Pierre B., Science de la science et réflexivité : cours du Collège de France, 2000-2001, Raisons d'agir, 2001.

Poincaré H., Science et méthode, Kimé, 1999.

Pont J.-C, « Auguste Comte et William Whewell. Œuvres contemporaines

», dans Revue philosophique de la France et de l'étranger, janvier 2007, p.

471-491.

Popper K.R., Conjectures et réfutations. La croissance du savoir scientifique, trad. Brudny M.Y., Buhot L M., Payot, 2006.

Popper K.R., La Connaissance objective, trad. Bastyns C., Presses

universitaires de France, 1978.

Popper K.R., La logique de la découverte scientifique, trad. Thyssen-Rutten

N., Devaux P., Monod J., Payot, 2007.

Popper K.R., La quête inachevée, Calmann-Lévy, 1981.

Popper K.R., Misère de l'historicisme, trad. Rousseau H., Bouveresse-

Quilliot R., Presses Pocket, 1988.

Pracontal M. de, L'imposture scientifique en dix leçons, La découverte, Le

livre de poche, 1986.

Prigogine L., Stengers L., La nouvelle alliance, Gallimard, 1979.

Pyenson L., Sheets-Pyenson S., Servants of Nature : A History of Scientific Institutions, Enterprises and Sensibilities, Norton, 1999.

Quine W. V.O., La philosophie de la logique Aubier, 1975.

Quine W. V.O., Méthodes de logique (1952), A. Colin, 1973.

Quine W.V.O., Du point de vue logique : Neuf essais logico-philosophiques, trad. Laugier S., Vrin, 2003.

Quine W.V.O., Philosophie de la logique (1970), trad. Largeault, J. Aubier,

2008.

Rabaudy C, Emile Meyerson. Identité et réalité, Hatier, 1976.

Ramachandran V.S., Le cerveau, cet artiste, Eyrolles, 2005.

Rasplus V. (dir.), Sciences et pseudo-sciences : regards des sciences humaines et sociales, 2014.

Read S., Thinking about Logic, Oxford UP, 1995.

Rickert H., Science de la culture et science de la nature, trad. Nicolas A.-H.,

Prompsy C., Launay M.B., Gallimard, 1997.

Ricœur P., Soi-même comme un autre, Seuil, 1990.

294

Rivenc F., Introduction à la logique pertinente, Presses universitaires de

France, 2005.

Rivenc F., Rouilhan Ph. de (éd.), Logique et fondements des mathématiques. Anthologie (1850-1914), Payot, 1992.

Rosmorduc J., Quelques repères de l'histoire des sciences et des techniques,

Université de Bretagne Occidentale, 1998.

Rossi P., Aux origines de la science moderne, Seuil, Points sciences, 1999.

Russell B., Écrits de logique philosophique, Presses universitaires de France,

1989.

Russell B., Introduction à la philosophie mathématique (1919), Payot, 1991.

Russell B., Problèmes de philosophie (1912), Payot, 1972.

Schrödinger E., Qu'est-ce que la vie ? De la physique à la biologie (1944),

trad. Keffler L., Seuil, Point-Sciences, 1993.

Serres M. et al., Eléments d'histoire des sciences, Larousse, 1989.

Serres M., N. Farouki, Le Trésor des sciences, Flammarion, 1997.

Shapin S., La Révolutions scientifique, Flammarion, 1998.

Shinn T., Ragouet P., Controverses sur la science : pour une sociologie transervale de l'activité scientifique, Raisons d'agir, 2005.

Sokal A., Bricmont J., Impostures intellectuelles, Odile Jacob, Le livre de

poche, 1997.

Soler L., Introduction à l'épistémologie, Ellipses, 2000.

Soûlez A., Manifeste du Cercle de Vienne et autres écrits. Carnap, Hahn, Neurath, Schlick, Waismann sur Wittgenstein, Vrin, 2010.

Spinoza B., Éthique, A. Colin, 1907.

Stengers I., D'une science à l'autre, des concepts nomades, Seuil, 1987.

Stengers I., L'invention des sciences modernes, Flammarion/Champs, 1992.

Szczeciniarz J.-J., Copernic et le mouvement de la terre, Flammarion, 1998.

Tarski A., Logique, sémantique, métamathématique, 2 vol., A. Colin, 1972.

Taton R. (dir.), Histoire générale des sciences, 5 tomes, Presses

universitaires de France, Quadrige, 1966.

Tonquedec J., Questions de cosmologie et de physique chez Aristote et saint Thomas d'Aquin. Le système du monde, les théories de la lumière et de la couleur, la théorie de la mesure, Vrin, 1950.

Toulmin S., Foresight and understanding, University of Indiana Press, 1961.

Toulmin S., The philosophy of science, Hutchinson, 1953.

Valéry P., Cahiers, Gallimard, 1975.

295

Verdet J.-P., Une histoire de l'astronomie, Seuil, Points/sciences, 1990.

Verneaux R., Critique de la « Critique de la raison pure de Kant, A.

Montaigne, 1972.

Vuillemin J., La philosophie de l'algèbre, Presses universitaires de France,

1962.

Vuillemin J.-C., « Réflexions sur l’épistémè foucaldienne », Cahiers philosophiques, n°130, 2012, p. 39-50.

Wagner P. (dir.), Les Philosophes et la science, Gallimard, folio-essais, 2002,

Wagner P., (dir.). Philosophie des sciences, 2 vol., Paris, Vrin, 2004.

Watson J.D., La double hélice : comment un jeune savant de vingt-cinq ans en découvrant la structure de l'ADN a révélé au monde le secret de la vie,

trad. Joël H., R. Laffont, 2003.

Watzlawick P., L'invention de la réalité. Comment savons-nous ce que nous croyons savoir ?, Seuil, 1988.

Westfall R.S., The Life of Isaac Newton, Cambridge UP, 1994.

Whewell W., Blanche R., De la construction de la science. Novum organum renovatum, Paris, Vrin, 2000.

Whewell W., Yeo R., The philosophy of the inductive sciences, Bristol,

Thoemmes Press, 2001.

Witkowski N., Trop belles pour le Nobel : les femmes et la science, Seuil

science ouverte, 2005.

Wittgenstein L., Investigations philosophiques (posth. 1953), Gallimard,

1961.

Wittgenstein L., Tractatus logico-philosophicus (1921), trad. Granger G.-G.,

Gallimard, 2001.

Wolpert L., The Unnatural Nature of Science, Harvard University Press,

1998.

296

297

Index des auteurs

Alhazen (965- 1039) .................................................................................................. 9 Aristote (384-322 av. J.-C.) ........................................................................................ 9 Gaston Bachelard (1884-1962) ................................................................................ 12 Francis Bacon (1951-1626) ...................................................................................... 16 Roger Bacon (1214-1294) ........................................................................................ 17 William Bateson (1861-1926) .................................................................................. 20 George Berkeley (1685-1753) .................................................................................. 20 Claude Bernard (1813-1878) ................................................................................... 21 David Bloor (1942-20XX) ........................................................................................ 22 Émile Boutroux (1845-1921) ................................................................................... 22 Henri Broch (1950-20XX) ....................................................................................... 23 Michael Brooks (1970-20XX) .................................................................................. 24 Giordano Bruno (1548-1600) .................................................................................. 45 Léon Brunschvicg (1869-1944) ............................................................................... 51 Jean Buridan (1292 - 1363) ...................................................................................... 52 Michel Callon (1945-20XX) ..................................................................................... 54 Georges Canguilhem (1904-1995) ........................................................................... 56 Rudolf Carnap (1891-1970) ..................................................................................... 58 Jean Cavaillès (1903-1944) ...................................................................................... 59 Maurice Caveing (1923-20XX) ................................................................................ 59 Harry Collins (1943-20XX) ...................................................................................... 61 Auguste Comte (1898-1957) .................................................................................... 63 Nicolas Copernic (1473-1543) ................................................................................. 64 Leda Cosmides (1985-20XX).................................................................................... 74 Louis Couturat (1868-1914) ..................................................................................... 77 Alistair C. Crombie (1915-1996) ............................................................................. 77 Georges Cuvier (1769-1832) .................................................................................... 78 Charles Darwin (1809-1882) ................................................................................... 79 Lorraine Daston (1951-20XX) ................................................................................. 86 Richard Dawkins (1941-20XX) ............................................................................... 88 René Descartes (1596-1650) .................................................................................... 90

298

John Dewey (1859-1952) ......................................................................................... 92 Wilhelm Dilthey (1833 -1911) ................................................................................ 94 Pierre Duhem (1861-1916) ...................................................................................... 95 Albert Einstein (1879-1955) .................................................................................. 102 Paul Feyerabend (1924-1994) ................................................................................ 105 Richard P. Feynman (1918-1988) ......................................................................... 107 Paul-Michel Foucault (1926-1984) ....................................................................... 122 Hans-Georg Gadamer (1900-2002) ....................................................................... 124 Galileo Galilei (1564-1642) .................................................................................... 125 Peter Galison (1955-20XX) .................................................................................... 131 Bertrand Gille (1920-1980) .................................................................................... 131 Ernst von Glasersfeld (1917-2010) ........................................................................ 133 Kurt Gödel (1906-1978) ......................................................................................... 133 Albert le Grand (1193-1280) ................................................................................. 135 Robert Grosseteste (1168-1253) ............................................................................ 137 Jürgen Habermas (1929-19XX) .............................................................................. 155 Ian Hacking (1936-20XX) ...................................................................................... 161 Ernst Haeckel (1834-1919) .................................................................................... 162 Werner Heisenberg (1901-1976) .......................................................................... 163 Carl G. Hempel (1905-1997) ................................................................................. 163 Gerald Holton (1922-20XX) .................................................................................. 164 David Hume (1711-1776) ...................................................................................... 165 Jâbir ibn Hayyan (721-815) ................................................................................... 175 François Jacob (1920-2013) ................................................................................... 176 Hans Jonas (1903-1993) ......................................................................................... 176 Emmanuel Kant (1724-1804) ................................................................................ 177 Lord Kelvin (1824-1907)........................................................................................ 178 Johannes Kepler (1571-1630) ................................................................................ 179 Al-Khwarizmi (c.780-c.850) .................................................................................. 182 Alexandre Koyré (1892-1964) ............................................................................... 184 Thomas S. Kuhn (1922-1996) ................................................................................ 186 Imre Lakatos (1922-1974) ...................................................................................... 198 Jean-Baptiste Lamarck (1748-1836) ...................................................................... 199 Pierre-Simon Laplace (1749-1827) ........................................................................ 206 Bruno Latour (1947-20XX) .................................................................................... 208 Gottfried W. Leibniz (1646-1716) ......................................................................... 211

299

James Lovelock (1919-20XX)................................................................................. 212 Stéphane Lupasco (1900-1988) .............................................................................. 214 Ernst Mach (1938-1916) ........................................................................................ 216 Émile Meyerson (1859-1933) ................................................................................ 216 Robert K. Merton (1910-2003) .............................................................................. 217 Gaston Milhaud (1858-1918) ................................................................................. 219 John Stuart Mill (1806-1873) ................................................................................. 219 Jean-Louis Le Moigne (1931-20XX) ...................................................................... 220 Edgar Morin (1921-20XX) ..................................................................................... 221 Otto Neurath (1882-1945) ..................................................................................... 224 Isaac Newton (1643-1727) ..................................................................................... 225 Guillaume d’Ockham (1285-1347) ........................................................................ 238 Max Planck (1858-1947) ........................................................................................ 241 Platon (427-348 av. J.-C.) ...................................................................................... 247 Henri Poincaré (1854-1912) .................................................................................. 252 Karl Popper (1902-1994) ....................................................................................... 253 Claude Ptolémée (90-c.168) .................................................................................. 256 Hilary Putnam (1926-20XX) ................................................................................. 257 Willard V. O. Quine (1908-2000) ......................................................................... 266 Hans Reichenbach (1891-1953) ............................................................................ 267 Édouard L.E.J Le Roy (1870-1954) ........................................................................ 267 Bertrand A.W. Russell (1872-1970) ...................................................................... 268 Alan D. Sokal (1955-20XX) ................................................................................... 269 Herbert Spencer (1820-1903) ................................................................................ 270 Paul Tannery (1843-1904) ..................................................................................... 272 Pierre Thuillier (1932-1998) ................................................................................. 273 John Tooby (1952-20XX) ....................................................................................... 275 Hugo de Vries (1848-1935) .................................................................................... 275 Max Weber (1864-1920) ........................................................................................ 276 William Whewell (1794-1866) ............................................................................. 279 Steve Woolgar (1950-20XX) .................................................................................. 280 Ludwig Wittgenstein (1889-1951) ........................................................................ 280 Frances Yates (1899-1981) ..................................................................................... 281

300

301

Table des points

Point sur les Archaï (principes)................................................................. 12

Point sur la fraude scientifique ................................................................. 26

Point sur la révolution copernicienne ...................................................... 67

Point sur le modèle standard ................................................................... 108

Point sur la religion et l’occultisme ........................................................ 139

Point sur le problème de l’induction ...................................................... 169

Point sur l’épigénétique ........................................................................... 202

Point sur les théories de l’unification ..................................................... 230

Point sur la mécanique quantique .......................................................... 242

Point sur l’expérience de pensée ............................................................. 258

302

303

Du même auteur

Édités chez TheBookEdition

Le Dernier Mot (2008)

Kant et la Subjectivité (2008)

Les Texticules t. I, II, III (2009-2012)

Somme Philosophique t. I (2009-2012), II (2013-2014)

Révulsez-vous ! (2011)

D’un Plateau l’Autre (2012)

Sociologie des Marges (2012)

Le Cercle de Raison (2012)

Apologie de Strauss-Kahn (2012)

Platon, l’Égypte et la question de l’Âme (2013)

Une brève Histoire de Mondes (2013)

Les Nouveaux Texticules (2013)

Le Miroir aux Alouates (2013)

Platon. Un regard sur l’Égypte t. I, II, III (2014)

Les Valeurs de la Vie (2014)

Anthologie Philosophique (2014)

Jamais sans ma novlangue ! (2014)

Planète des Signes (2014)

Le Phénomène (2015)

H+. Du Posthumain (à paraître)

304

S = k log W (à paraître)

Médite donc ! (à paraître)

Mythes à l’écran (à paraître)

Des PDFs (gratuits) et les livres papiers (sur commande) sont disponibles à

l’adresse : http://texticules.fr.nf/

305

QR codes

Livres à commander

Livres à télécharger

306

307

308

Mars 2015

Copyright © 2015

ISBN : 979-10-92895-13-1

Frédéric Mathieu

Contact :

[email protected]

ou

[email protected]