Vous êtes sur la page 1sur 18

Chapitre 2

LA CONSTRUCTION DES
THEORIES SCIENTIFIQUES
Une bonne théorie ne fait pas que des prédictions, mais des prédictions surprenantes qui s'avèrent vraies.
(Francis Crick)

Nous avons montre que 1'approche inductiviste pour décrire la science est insatisfaisante.
Discutant des difficultés soulevées par cette voie, nous avons esquisse des pistes de solution.
Dans ce chapitre nous allons présenter quelques unes des approches parmi les plus
remarquables qui ont jeté un éclairage plus complet sur la science comme activité intellectuelle
et socio-historique. Si aucune d'elles ne se révélera entièrement satisfaisante, chacune apportera
des éléments qui aideront à mieux comprendre le processus scientifique. On verra que les
relations entre la science et la société prendront de 1'importance, car le chercheur est membre
d'une communauté de chercheurs qui opère dans un cadre social élargi.

1 LE COUPERET LOGIQUE DE POPPER


Karl Popper (1902-1993), homme de vaste culture et brillant penseur d'origine autrichienne, a
marqué la philosophie des sciences du 20e siècle en introduisant la réfutabilité comme critère
de scientificité. Publié à Vienne 1'automne 1934, 1'ouvrage de Popper Logik der Forschung
[l] illustre une approche originale prenant en considération l'histoire des sciences. Popper part
du principe que la fausseté des théories, ou des énoncés universels, peut être déduite de tests, ou
d'énoncés singuliers appropries; nous en verrons des exemples plus loin. L'approche de Popper
est séduisante; elle s'est d'ailleurs révélée fort populaire chez les scientifiques parce qu'elle
renforce l'idée de la redoutable efficacité de la science pour démasquer l'erreur et pour atteindre
à la vérité.

1.1 Le falsificationisme
L'idée sous-jacente du falsificationisme est simple. Les énoncés pour être scientifiquement
valides, doivent être formulés pour qu'on puisse les réfuter. Cette caractéristique à pouvoir
démontrer qu'un énoncé est faux est la réfutabilité ou la "falsifiabilité". Andre Lwoff suggère
de parler de réfutation, plutôt que de "falsification", signalant avec raison que la traduction de
falsify n'est pas très heureuse et contribue à la confusion des concepts, falsifier pouvant vouloir
dire fausser, maquiller, dénaturer [2]. Nous emploierons donc le terme réfuter, mais nous
maintiendrons "falsificationisme" pour décrire l'école popperienne.
Pour être scientifique une affirmation doit pouvoir être réfutée. L'essai de réfutation
est un test de vérité, une vérification de 1'adequation entre notre conception du monde
et sa réalité. Voici quelques exemples d'énoncés susceptibles d'être réfutés, c'est-à-dire
qu'il est possible de les démontrer comme étant faux :
* On observe un corbeau qui n'est pas noir à 1'endroit xi au temps ti.
=> L'énoncé que tous les corbeaux sont noirs est faux, donc réfuté.
* On établit par observation qu'un poids de 10 kg et un poids de 100 g tombent en chute
libre avec la même accélération.
=> 1'enonce que les corps tombent avec une vitesse proportionnelle à leur poids est faux.
Chalmers donne une définition succincte de la réfutabilité : Une hypothèse est réfutable
si la logique autorise 1'existence d'un énoncé ou d'une série d'énoncés d'observation qui lui sont
contradictoires [3]. Explorons ce concept plus en profondeur.

1.2 La réfutabilité des hypothèses scientifiques

La science est selon Popper un ensemble d'hypothèses visant à décrire ou à expliquer le


comportement des constituants du monde. Chaque hypothèse, toutefois, doit être
réfutable pour avoir valeur scientifique. Faisons encore appel à des exemples pour se
faire une idée plus précise la réfutabilité.
EXEMPLES D'ÉNONCÉS OU D'HYPOTHÈSES RÉFUTABLES:

1. Il ne neige jamais à Hawaii.

2. L'eau gèle quand la température est 0° C ou plus basse.

3. Tous les corps en chute libre tombent avec la même accélération.

Lorsque j'observe qu'il neige sur le Mauna Kea, volcan dormant de 4200 m de la grande île
de Hawaii, je réfute le premier énoncé. On peut procéder à des vérifications analogues pour les
énoncés 2 et 3; on peut les entériner, mais on peut et on doit pouvoir tester leur validité.

EXEMPLES D'ENONCES NON REFUTABLES:

1. Certains titres boursiers pourraient bien décoller dans les prochaines semaines.
2. Vous pouvez avoir de la chance lors d'une rencontre prochaine.
3. L'été prochain sera particulièrement ensoleillé (ou pluvieux).
4. Dieu existe.

Ces énoncés ne sont pas réfutables, car quoi qu'il arrive ils ne seront pas contredits. Les
discours de politiciens à la langue de bois et les déclarations des marchands de bonne aventure
font partie de la catégorie des énoncés non réfutables. Lisez vos prochains horoscopes pour
vous en convaincre. Certaines prédictions de la marche boursière sont aussi des énoncés non
réfutables; jetez un coup d'oeil sur les chroniques boursières et vous réaliserez que certaines
sont aussi instructives que 1'horoscope du jour.
Un corollaire du critère de réfutabilité est que toute théorie ou loi scientifique doit être
porteuse d'information. Les théories doivent donner une information sur le comportement réel
du monde.

Par exemple, la structure en double hélice de 1'ADN permet d'expliquer comment 50% de
notre bagage génétique provient de notre mère et 50% de notre père [4]. La théorie de la
structure des étoiles propose que la luminosité du Soleil soit assurée par la lente conversion par
fusion nucléaire de 1'hydrogene en hélium au centre du Soleil ou règnent des températures de
10' degrés Kelvin. La luminosité solaire est donc stable pour une durée d'environ 10 milliards
d'années parce que la fusion de 1'hydrogene est une réaction très efficace énergétiquement, qui
se produit à un rythme relativement lent dans le coeur des étoiles peu massives où l'hydrogène
est très abondant.
Simultanément, les théories doivent exclure tous les événements logiquement possibles,
mais qui ne se produisent pas.

La théorie de la structure des étoiles exclut que le Soleil se transforme en supernova la


semaine prochaine ou même d'ici la fin de sa vie. Le Soleil n'a pas une masse
suffisante pour terminer sa vie en explosion; il deviendra dans environ 5 milliards
d'années une étoile naine blanche, sorte de diamant cosmique gros comme la Terre
après avoir éjecté ses couches externes.

Voyons d'autres exemples d'énoncés ayant les caractéristiques de contenu informatif


et d'exclusion d'événements :
- Les planètes décrivent des ellipses dans leur mouvement orbital autour du Soleil.
- Toute réaction chimique dans une cellule a un enzyme spécifique (une protéine) jouant
le rôle de catalyseur.
- Les polarités magnétiques de signes opposes s'attirent, celles de même signe se re-
poussent.

- ACIDE + BASE = SEL + HZO

- La recherche et la poursuite du plaisir et de la joie conduisent à des comportements


favorables à une performance optimale du corps et de 1'esprit [6].
- Plus on avance en complexité, plus le genre de mutations qui peuvent influencer
l'évolution diminue [5].

1.3 Qualité et précision d'une théorie

Un grand avantage du critère de réfutabilité de Popper est de pouvoir qualifier la puissance


d'une théorie. Une très bonne théorie pose des assertions de portée très générale. Par
exemple, 1'énoncé que "toutes les planètes se déplacent sur des ellipses" est plus général que
"Mars se déplace autour du Soleil en suivant une ellipse".
De plus une très bonne théorie est hautement réfutable. Plus une théorie est énoncée avec
précision, plus elle devient réfutable, et meilleure elle est ! On peut lui faire subir de
nombreux tests, et si elle résiste aux essais délibères et réitérés de la réfuter, elle en sort
grandie. Comme exemple, on peut penser aux multiples tests de la théorie de la Relativité
générale d'Einstein dont les prédictions ont toujours été jusqu'ici confirmées. Ces prédictions,
d'ailleurs pas toujours explicites dans 1'ebauche de la théorie, surgissent d'une exploration
plus poussée ou d'une analyse ultérieure. La démarche poppérienne met donc 1'emphase sur
les tentatives de démolition des théories existantes.
2 LE PROGRES EN SCIENCE
Comment apparaissent de nouvelles théories scientifiques ? Selon Popper, 1'elaboration de
nouvelles théories est amorcée par la prise de conscience de l'existence de problèmes. Lorsque
ces problèmes sont résolus, de nouveaux problèmes émergent qui sont a leur tour résolus, et
ainsi de suite. Cette dynamique de dominos signifie que les observations sont problématiques
seulement à la lumière d'une théorie. Par conséquent, la science n'évolue pas par 1'observation
pure. Cette approche représente donc une amélioration importante de la description du
processus scientifique par rapport a 1'inductivisme que nous avons critique au chapitre
précédent.
L'idée de progrès est aussi implicite à cette dynamique. La physique d'Aristote fut reprise,
corrigée, complétée et puis remplacée par celle de Galilée, celle de Galilée par celle de Newton
et celle de Newton par celle d'Einstein. La réfutation de la Relativité générale constituerait une
nouvelle étape dans le progrès de la physique. La génétique a été réunie à la théorie du
darwinisme pour former une théorie synthétique de 1'evolution. Mais on le sait, au-delà d'un
bassin grandissant de problèmes résolus émerge continuellement l'iceberg des nouvelles
énigmes.
EXEMPLES DE PROBLEMES RESOLUS :

L'histoire des sciences a légué de beaux exemples d'énigmes ou problèmes qui furent
résolus par une nouvelle théorie. En voici une liste ainsi que les théories qui les expliquèrent.

- Ralentissement séculaire de la Lune sur son orbite de même que de la rotation de la Terre sur
elle-même.
* Théorie des marées (Newton et Laplace)
- Irrégularités dans le mouvement orbital de la planète Uranus.
* Prédiction de 1'existence d'une nouvelle planète, Neptune, par la théorie de Newton.

- Noircissement par une "radiation pénétrante'' d'émulsions photographiques non exposées.


* Théorie de la radioactivité

- Découpage en correspondance des cotes occidentales de 1'Afrique et orientales de 1'Amerique


du sud
* Théorie de la tectonique des plaques continentales

- Surabondance de 1'helium dans 1'univer


* Théorie du Big Bang et de la nucléosynthèse primordiale.

EXEMPLES DE PROBLEMES NON RESOLUS

Si les triomphes sont impressionnants, le domaine de nos ignorances apparaît immense. En


énumérer un certain nombre constitue à la fois un exercice de modestie et une énumération de
plusieurs grands projets de recherche actuels. En voici :
- L'origine de la vie

- Le mécanisme de 1'apprentissage et de la mémoire

- Carence cyclique dans la couche d'ozone au-dessus du continent de 1'Antarctique


- L'émergence de la conscience de 1'activite des neurones

- Soudaineté des débuts et fins des périodes glaciaires dans 1'histoire du climat terrestre

-La nature et les mécanismes de 1'experience olfactive

- L'origine et le porteur immunisé du virus filiforme Ebola Zaire

-Comment certains gènes mutent pour déclencher des cancers ?

- Diminution du taux de succès de manipulations transgéniques avec la tailles croissante de


l'animal.

- Les dinosaures : furent-ils des animaux à sang chaud ou froid ?

--D'autres planètes comme la Terre existent-elles dans 1'univers ?

- Quel impact les réseaux informatiques auront-ils sur nos sociétés ?

Ces problèmes seront un jour résolus et donneront naissance à de nouvelles théories; les
recherches pour y parvenir dégageront certainement de nouveaux problèmes. Par exemple, la
théorie des quarks, qui explique les propriétés des particules subatomiques, fait surgir un
nouveau problème, celui de leur confinement a 1'interieur des protons par exemple. Somme
toute, la vieille idée récurrente de la "fin de la science" qui revient de façon épisodique dans
1'histoire intellectuelle est prétentieuse sinon ridicule. [7][8]

3 LA REFUTATION DU FALSIFICATIONISME !
3.1 Le mérite des théories
L'approche de Popper permet d'affirmer que certaines théories sont meilleures que d'autres. Elle
propose d'ailleurs une fa§on d'évaluer le mérite des nouvelles théories :
a) Une hypothèse nouvelle doit être plus réfutable que celle qu'elle remplace. Ainsi le fal-
sificationiste met 1'emphase sur le progrès, et propose une vision dynamique de la science, qui
contraste avec la vision accumulative de 1'inductivisme.
b) Une théorie nouvelle pourra remplacer 1'ancienne (i) si elle peut expliquer quelque chose
que 1'ancienne théorie ne pouvait pas, et (ii) si elle peut prédire un nouveau type de phénomène
que 1'ancienne n'avait pas permis d'envisager. Par exemple, la Relativité générale prédit le
ralentissement des horloges dans les champs gravitationnels forts. En effet, le temps physique
s'écoule plus lentement a la surface de la Terre que lorsque vous volez à bord d'un avion où la
force de gravité est plus faible parce que vous êtes plus éloigne de la Terre. Cet effet qui n'a
aucune conséquence mesurable sur le vieillissement de votre corps a toutefois été mesure avec
une grande précision par maintes expériences. Il est une conséquence d'une propriété
fondamentale de la nature mise en évidence par Albert Einstein : c'est l'invariance des lois
physiques par rapport au mouvement des systèmes de référence qu'ils soient en mouvement
uniforme ou accélère.

Les grands progrès de la science ont lieu lors

de la confirmation de conjectures AUDACIEUSES ou


de la réfutation de conjectures PRUDENTES.

A 1'inverse, la réfutation d'une conjecture audacieuse, ou la confirmation d'une con-


jecture prudente ne nous apprennent pas grande chose sur le monde.
EXEMPLES :

- Dans sa théorie de la Relativité générale de 1915, Albert Einstein prédisait que la


présence d'une masse déformait la structure de 1'espace-temps. Le déplacement des po-
sitions apparentes des étoiles sur le ciel, mesure lors d'une éclipse totale du Soleil du 29
mai 1919, confirma cette conjecture audacieuse.
- La jeune théorie quantique proposait que la lumière était composée de particules (Einstein
en 1905) et que les électrons se comportaient comme des ondes. Cette hypothèse étonnante
sur les électrons et les autres particules, formulée par le physicien frangeais Louis de
Broglie en 1924, fut vérifie expérimentalement par les physiciens américains C. J. Davisson
et L. H. Germer en 1927. Cet étrange comportement des électrons, des atomes et des
molécules est a la base des processus utilises dans 1'electronique moderne.
- Les atomes de tous les éléments possèdent un cortége d'électrons en mouvement repartis
sur des couches de niveau d'énergie différent; ces électrons n'émettent de 1'energie que lors
de transitions entre deux niveaux d'énergie. Cette hypothèse de Niels Bohr réfutait une
théorie bien établie : celle qu'un rayonnement électromagnétique (e.g. la lumière) est émis
par toute charge électrique en mouvement accole. Or les électrons voyagent dans 1'atome
sur des orbites fermées (donc avec une accélération angulaire très grande) sans émettre de
rayonnement. Ce phénomène souligne le caractère fondamentalement différent des aspects
quantiques de la matière.
- Johan Kepler proposa un modèle original mais complètement faux du système solaire. Il
1'imagina compose d'une série de sphères ou s'emboîtaient a la façon de poupées russes des
polyèdres circonscrits. Cette conjecture osée se révéla vite une élucubration d'un esprit se
préparant à couper avec la science médiévale.
Résumons les points-clefs qui distinguent le falsificationisme de 1'inductivisme :

INDUCTIVISME

* Le processus de développement historique n'a que peu d'importance =>, La démarche


scientifique est ahistorique, a 1'exception du fait qu'a une époque donnée, la science est la
somme des expériences et des théories élaborées jusqu'a ce jour.
* La relation logique entre les énoncés et la théorie compte par dessus tout.
* La connaissance progresse par croissance cumulative; aux observations et aux mesures, on
adjoint concepts appropries, et on construit des lois.

FALSIFICATIONISME

* Les théories peuvent être réfutées et rejetées. Le rejet est un acte décisif.
* On ne peut établir la vérité d'une théorie. Les expériences ne peuvent que réfuter une
théorie; elles ne peuvent pas la prouver de façon absolue.
* Lecontexte historique dans lequel se fait la confirmation ou la réfutation est
important =>, La démarche scientifique est historique.
3.2 Les failles du falsificationisme

La logique intransigeante du falsificationisme de Popper en a fait une école attrayante pour


nombre de chercheurs et de tenants d'un rationalisme dur; c'est 1'ecole positiviste. Mais
malgré 1'eclairage critique qu'elle jette sur le fonctionnement et le rôle des théories,
1'approche popperienne souffre de faiblesses importantes.
Tout d'abord, le falsificationisme est fonde sur la supposition que les énoncés
d'observation et les mesures expérimentales sont parfaitement surs. Or nous avons montre au
Chapitre 1 que les énoncés d'observation peuvent être faillibles, et que de plus les énoncés
d'observation dependent d'une theorie; les montages experimentaux exigent un schema
conceptuel. On peut donc faire au falsificationisme le même reproche qu'a 1'inductivisme :
tous deux présupposent le caractère infaillible des observations et des mesures
expérimentales. Deuxièmement, 1'histoire abonde en exemples o u i l y eut rejet d'une
théorie, ou tout au moins réfutation apparente, et o u la théorie fut maintenue. En voici des
exemples frappants :
* Pour expliquer son refus d'adhérer a 1'heliocentrisme d'Aristarque de Samos (v. 310 a
environ 230 av. J.-C.) et de Nicolas Copernic (1473-1543), Tycho Brahe (1546-1601) met de
1'avant son échec à mesurer des mouvements de parallaxe pour les étoiles proches. En effet,
une conséquence observable de 1'heliocentrisme devait être un mouvement oscillatoire
annuel du au mouvement de la Terre autour du Soleil de la position apparente des étoiles sur
la sphère céleste, mouvement appelle"parallaxe stellaire", et qu'on n'observait pas.
L'héliocentrisme était donc en apparence réfute. Or on sait que cette mesure de parallaxe
stellaire est extrêmement difficile parce que 1'angle de parallaxe est très petit (8 < 1
seconde d'arc) du a la très grande distance des étoiles; c'est 1'explication qu'avait donne
Aristarque il y a 2300 ans. Grâce a un gain notable dans la qualité des télescopes utilises au
début du 19e siècle, la première observation d'une parallaxe stellaire ne fut effectuée par
Friedrich Wilhelm Bessel (17841846) qu'en 1838! Pourtant, même "falsifie",
1'heliocentrisme devint une théorie acceptée des la seconde moitie du 17e siècle.

* On avait réalise au 19e siècle que le plan de 1'orbite de la planète Mercure tournait dans
1'espace a une vitesse plus grande que celle prédite par la théorie de Newton. Cet avance-
ment du périhélie de Mercure fut explique en 1915 par Albert Einstein dans sa théorie de la
Relativité générale. On continue néanmoins d'utiliser la mécanique de Newton, par exemple
lorsqu'on lance des fusées et des sondes spatiales. D'ailleurs, vous serez peut-être plus a
1'aise de traverser un pont dessine par un ingénieur qui a fonde ses calculs sur la mécanique
newtonienne, que celui dessine par un physicien de la mécanique quantique; exemple un
peu étiré qui illustre la différence des domaines, voire leur quasi-exclusion. Mais si on
habitait prés d'un trou noir, il faudrait alors adopter la relativité générale dans la vie
quotidienne, car la mécanique newtonienne serait totalement inadéquate. De façon stricte,
la théorie de Newton a été réfutée, et on continue pourtant de 1'utiliser. Peut-on considérer
que la Relativité englobe la théorie de Newton comme un cas particulier ? "Einstein ne
montra pas que 1'oeuvre de Newton était fausse; il créa un cadre plus grand à 1'interieur
duquel des limitations, contradictions et asymétries de la physique ancienne disparurent.
"[9] Jusqu'a quel point la théorie - inexacte - de Newton peut-elle donc être considérée
comme incorrecte ? Voila des questions qu'escamote le falsificationisme.
* La structure en double hélice de 1'ADN proposée par Watson et Crick en, 1955 ne fut
finalement confirmée qu'au début des années 1980. Il fallut 25 ans pour que ce modeler de
1'ADN passe d'une hypothèse plausible à un fait vérifié dans tous ses détails. D'ailleurs
Crick et Watson éprouvèrent, peu après la publication de leur idée dans la revue Nature,
des doutes quant a la justesse de leur modeler. Crick raconte que Watson craignait même
qu'ils se soient trompés et deviennent la risée de leur collègue [10]. Cet exemple montre
que la démarche scientifique n'est pas structurée de façon aussi rigide que le prétend Pop-
per.

Enfin, poussons la logique popperienne jusqu'au bout : 1'appui durable de plusieurs


penseurs et scientifiques au falsificationisme de Popper démontre que le critère même de
réfutabilité a été réfuté. Imre Lakatos écrivait" "Le critère de Popper a été réfuté : le
falsificationisme de Popper doit être largue." Pourtant des scientifiques utilisent encore le
critère "popperien" de réfutabilité pour affirmer que des théories ne sont pas "scientifiques".
On 1'utilise régulièrement dans des débats autour de thèmes controverses; par exemple, certains
prétendent que la théorie darwiniste de 1'evolution n'est pas "réfutable". Comme tout argument
d'autorité, une telle approche n'a évidemment que peu de poids réel.

Enfin, la motivation du chercheur n'est pas de réfuter une erreur, mais de répondre à une
question, de résoudre une énigme, et de construire une théorie plutôt que d'en détruire. Mario
Bunge met, je crois, le clou final dans le cercueil du falsificationisme lorsqu'il écrit très
justement : "Je ne crois pas que la refusable soit le critère de la scientificité. L'astrologie a été
réfutée par Saint Augustin, mais cela ne la rend pas scientifique. Un savant ne veut pas lui-
même réfuter ses hypothèses, ce serait antipsychologique. II souhaite au contraire leur
confirmation. Qu'il cherche des contre-exemples, oui, j'en conviens. Mais c'est seulement d
regret qu'il reconnaît être dans 1'erreur. Il vaut mieux employer un terme neutre : ce que fait le
scientifique, c'est simplement tester ses théories. Si les résultats sont positifs, alors on peut
embrasser I'hypothèse en cause, du moins jusqu'à plus ample informe. Mime une réfutation
West pas nécessairement définitive." [11].

3.3 La complexité du processus de la recherche

La démarche scientifique emprunte des avenues extrêmement diverses. L'ébauche d'une théorie
est un processus ardu, frustrant et complexe comme peuvent en témoigner tous les chercheurs.
La démarche de recherche est pleine d'obstacles et de fausses pistes qui exigent des retours
fréquents sur les hypothèses et les expériences; il y n'a que très rarement progression
systématique. Michel Cabanac le décrit bien : "Chaque petit pas en avant découvre une
perspective nouvelle conduisant à une nouvelle question et a un nouveau petit pas en avant.
Chaque petite étape, chaque question est accessible à quiconque s'intéresse au problème pose
et souhaite progresser avec autrui, car la science est un partage d'évidences avant d'être une
organisation des connaissances résultantes en un tout cohérent. "[12].
Une théorie s'élabore donc autour d'énoncés structurés et universels (par oppositions aux
énoncés uniques comme "tous les cygnes sont blancs"), et d'un ensemble d'hypothèses
auxiliaires; ces dernières régissent le protocole expérimental et incluent les lois et les théories
des instruments de mesure utilisés. De plus ces connaissances doivent être partagées et
communiquées. On connaît bien 1'importance de publier en science. Cette pression n'est pas
uniquement pour justifier un meilleur financement, ou pour mieux faire connaître son
laboratoire. Le "public or péris" fait aussi partie de la dynamique du processus qui exige que les
connaissances scientifiques soient communiquées a 1'audience la plus élargie possible. La très
grande majorité des scientifiques en font une obligation morale et sociale. En plus, le processus
de rédaction amener un second regard et un nouvel éclairage par le recul -et la réflexion que
force 1'écriture; il est souvent source d'idées et d'interprétations nouvelles.
La supposition de Popper qu'il existe toujours des tests clairs pour vérifier les théories
n'est peut-être viable que pour des théories solidement établies. Dans un jeune domaine, il
arrive souvent qu'une prédiction ne se réalise pas ou qu'une expérience affiche un résultat
imprévu. On sait bien qu'une prédiction faite par une théorie peut se révéler incorrecte pour
des causes diverses : a) une hypothèse auxiliaire incorrecte; b) un instrument de mesure mal
compris; c) des conditions initiales mal cernées. Une impasse ou un résultat négatif
amènera les défenseurs d'une théorie prise en défaut à faire dévier la falsification sur un de
ces aspects périphériques. La théorie est alors "protége" du moins temporairement.

Face a ses critiques, Popper a pose la défense suivante: un énoncé d'observation est
acceptable à titre d'essai et à une étape particulière d'une science, s'il parvient a résister a
tous les tests permis par 1'etat de développement de la science a cette étape. Popper a ainsi
accepte la faillibilité des énoncés d'observation, et 1'extrait suivant est révélateur d'un esprit
surprenamment amolli chez ce redoutable positiviste : "La base empirique de la science objective
ne comporte donc rien d "absolu'. La science ne repose pas sur une base rocheuse. La structure audacieuse
de ses théories s'édifie en quelque sorte sur un marécage. Elle est comme une construction bâtie sur pilotis.
Les pilotis sont enjonces dans le marécage mais pas jusqu'a la rencontre de quelque base naturelle ou
`donnée' et, lorsque nous cessons d'essayer de les enjoncer davantage, ce n'est pas parce que nous avons
atteint un terrain ferme. Nous nous arrêtons, tout simplement parce que nous sommes convaincus qu'ils sont
assez solides pour supporter l"édifice, du moins provisoirement. "[l3].

Le mérite principal de Popper est d'avoir coince dans ses derniers replis le modèle
inductiviste. Son approche s'est toutefois avérée limitée parce qu'il ne peut y avoir de
réfutation totalement convaincante à une époque donnée du développement des nouvelles
idées, surtout quand une théorie est jeune. De plus, l'activité des scientifiques ne consiste
nullement en démarches repesées pour abattre une théorie. La vision "falsificationiste" est
trop simple et incomplet. Passons à des visions beaucoup plus englobantes et plus
soucieuses de tenir compte de la dimension historique et sociale de 1'evolution des idées en
science, celles d'Imre Lakatos et de Thomas Khun.

4 LA RECHERCHE, UN ENSEMBLE
DYNAMIQUE
Un examen le moindrement approfondi de la science contemporaine et de 1'histoire des
sciences révèle que les théories et 1'activite scientifique sont des ensembles beaucoup plus
complexes et plus dynamiques que ne le laissent croire les partisans de 1'inductivisme ou de
1'ecole de Popper. Dans 1'introduction de son livre La structure des révolutions scientifiques,
Thomas Khun (1922-1996) avoue à quel point il fut frappe par le contraste entre 1'image de la
science transmise par le curriculum de 1'enseignement universitaire traditionnel et celle qui se
dégage d'une étude attentive des comptes rendus historiques de 1'activite de recherche révèles
par les articles originaux, les lettres et les témoignages personnels des chercheurs [14].
En effet, un ensemble de facteurs logiques, historiques et sociologiques, de même que
métaphysique et psychologiques, ont marque avec force le développement des idées en science.
Ces interactions reflètent le jeu complique entre les facteurs internes et les facteurs externes.
Considérons comme exemple les efforts de recherche pour comprendre les changements
climatiques paraissant affecter 1'atmosphere terrestre depuis près d'un siècle. Une partie des
efforts de cette recherche est motivée par un désir de mieux comprendre les réactions
chimiques dans la haute atmosphère et les mécanismes d'échange d'énergie entre les diverses
couches de 1'atmosphere; c'est le facteur interne. D'autre part, la société donne un large appui
financier à ce programme de recherche pour minimiser les impacts socio-économiques
qu'entraîneraient des changements climatiques importants ou 1'amincissement permanent de la
couche d'ozone stratosphérique; c'est le facteur externe.
Une théorie ou un événement scientifique peuvent être la source de beaucoup d'activités de
recherche motivées à des degrés divers par les facteurs externes et internes. De nouveaux
résultats, surtout s'ils sont spectaculaires, peuvent générer d'autres actions. L'impact sur Jupiter
de la comète Shoemaker-Levy en juillet 1994 a mobilise des dizaines d'observatoires et des
centaines d'astronomes a travers le monde les amenant a combiner leurs efforts pour observer
cet événement exceptionnel. Les grands accélérateurs de particules sont construits et finances
par plusieurs pays, par exemple le CERN ou des expériences impliquent des centaines de
chercheurs. La découverte des supraconducteurs a hautes températures a suscite 1'organisation
de grandes conférences internationales. Une des retombées de nouvel investissement en main
d'oeuvre et en argent et d'éveiller 1'interet de 1'entreprise privée. Nous développerons ce thème
au cours des deux prochains chapitres. Retenons de tout ceci qu'au delà de la vérification de la
validité des théories scientifiques, il y a quelque chose de beaucoup plus complexe qui fait
marcher la science que le schéma inductiviste ou falsificationiste le laisse entendre. Autre point
négligé par 1'approche inductiviste et falsificationiste : les concepts ont une histoire. Les idées
d'atome, inconscient, galaxie, gène, cellule, opinion publique ont débute par des concepts flous.
Ils ont ensuite connu une phase plus ou moins longue de clarification (près de 2,500 ans pour
1'atome et moins de 100 ans pour le gène) avant d'aboutir a une théorie cohérente. De plus des
théories aujourd'hui dépasses étaient en harmonie avec les idées et les outils de leur époque;
elles n'étaient pas nécessairement des "erreurs".
Ce bref examen suggère 1'idée d'une nécessité pour la science de progresser et de
déclencher de nouvelles activités. Une bonne théorie, et ce sera le point de vue de Laka.tos, doit
donc avoir une structure et une dynamique qui donne des `clefs' et des prescriptions pour la
développer et 1'etendre. Les théories suscitent des programmes qui permettent de guider la
recherche; le nombre et 1'importance de ces nouveaux programmes est une mesure de la qualité
d'une théorie. Enguerrand des exemples :
- La mécanique de Newton a permis la recherche de nouvelles planètes autour du Soleil ou
d'étoiles proches, et d'envoyer nos propres sondes spatiales en orbite autour de la Lune, Venus,
Mars, Jupiter et du Soleil.

- La biologie moléculaire permet la reconnaissance des mécanismes moléculaires de trans-


mission de 1'information génétique, et 1'identification de nouveaux virus comme ceux du SIDA
et d'Ebola, et de tenter d'élaborer les vaccins appropries.
- L'avènement de la chimie moderne avec 1'elaboration du tableau périodique des éléments
chimiques par Dimitri Ivanovith Mendeleiev (18341907) a eu pour conséquence la découverte
de nouveaux éléments et la production d'éléments artificiels. Certains de ces éléments n'existent
pas sur Terre a 1'etat `naturel' mais sont fabriques par transmutation dans les réacteurs
nucléaires ou les accélérateurs de particules. Par exemple, le thallium et le technétium utilises
comme traceurs en médecine nucléaire sont fabriques par 1'homme (ou dans certaines réactions
nucléaires dans les étoiles lointaines); ces radio-isotopes ont une durée de vie trop courte pour
qu'on les retrouve a 1'etat naturel sur notre planète.
- La génétique explique 1'heredite et la structure des gènes et donne les outils pour produire des
animaux ou des plantes transgéniques.
- Le darwinisme décrit les rôles de 1'isolement géographique et climatique dans les modi-
fications génétiques.
Enfin, des domaines ou des disciplines scientifiques totalement nouveaux peuvent
émerger lorsqu'une théorie résulte en une avalanche de nouveaux résultats. On pense a
1'informatique née avec 1'apres-guerre, ou a la biologie moléculaire dans les années 1960.
4.1 La recherche comme un ensemble de programmes

Cet enchaînement dynamique a été pris en compte par Imre Lakatos (19??-19??) qui a
propose une approche qui dépasse le falsificationisme de Karl Popper. Lakatos suggère de
décrire la science en terme de programmes [15]. Un programme lakatosien est défini sim-
plement comme une structure qui guide la recherche. Le guidage s'effectue de façon à la fois
positive et négative, et Lakatos parle d'heuristique positive et d'heuristique négative. On peut
faire une analogie avec le jeux de hockey : une équipe est constituée de défenseurs (e.g. le
gardien ou joueur défenseur) - c'est 1'heuristique négative -, et d'attaquants (e.g. joueur ailier
ou centre) - c'est 1'heuristique positive. Pour le programme de recherche, cette analogie
amener la distinction suivante :
HEURISTIQUE NEGATIVE ou DEFENSIVE
La défensive dans un programme scientifique est constituée de quelques hypothèses
fondamentales. Ces dernières ne peuvent être ni modifies, ni rejetées, car elles constituent le
noyau dur. Le noyau dur d'un programme est rendu irréfutable par décision méthodologique
de ses protagonistes; il doit rester inchangé au cours du programme. Cette vision est
totalement opposée a celle de Popper pour qui ce noyau dur est continuellement mis a
1'epreuve, et pour qui les tests successifs pour le déboulonner constituent 1'essentiel de
1'activite de recherche. Pour Lakatos ou Mario Bunge, cette vision de forteresse assiette est
une vue de 1'esprit qui n'a rien à voir avec 1'histoire de la science pas plus qu'avec la
recherche contemporaine.
HEURISTIQUE POSITIVE ou OFFENSIVE

De façon complémentaire, l'offensive d'un programme est faite de 1'ensemble des règles
qui indiquent aux chercheurs ce qu'ils doivent faire. Ce sont les lignes de conduite générale,
les directions d'étude et de développement, et les manières d'enrichir et de prédire les
phénomènes, de solidifier le cadre théorique.

4.2 La dynamique des programmes de recherche


L'approche de Lakatos est évidemment progressiste. Mais étant donne qu'il peut y avoir une
période relativement longue avant qu'on puisse procéder a des tests pertinents, le travail
initial se fait parfois sans se soucier des réfutations apparentes. Pour Einstein, une réfutation
de sa prédiction (celle du déplacement apparent des étoiles lors de 1'eclipse totale du Soleil
de 1917) aurait tout simplement signale 1'imprecision des instruments; il est clair qu'Einstein
était suffisamment certain de la solidité son approche théorique et qu'un résultat négatif ne
1'aurait aucunement dérangé. Assurance que n'avait pas Darwin qui s'interrogeait sur sa
théorie : "Heaven knows whether this agrees with Nature - Cuidado "[16] .

EXEMPLES: Les longueurs d'onde des transitions spectrales de 1'hydrogene n'avaient pas
les valeurs exactes prédîtes par Niels Bohr (1885-1962), Dans son premier modèle atomique
d'électrons négatifs en orbite autour d'un noyau de charge positive, Bohr ne tenait alors pas
compte des effets relativistes. Il ne fut pas ébranlé, par les différences entre les longueurs
d'onde des raies spectrales atomiques que prédisaient son modèle et celles mesurées en
laboratoire. Le physicien Arnold Sommerfeld (1868-1951) recalcula le modèle de Bohr, en
incluant cette fois les effets relativistes, car les électrons de I'atome se meuvent a des
vitesses qui sont une fraction importante de la vitesse de la lumière. Les longueurs d'onde,
des raies spectrales correspondirent exactement aux longueurs d'onde observées.
Mario Bunge 1'énoncé clairement : "L'important c'est que, dans les sciences, on
peut toujours corriger, on peut obtenir des vérités de plus en plus raffinées et
précises... La science tend à des approximations sans cesse meilleures. "[17]
Lorsqu'un programme est bien développe, ce sont les confirmations ou les vérifications, et
non pas les efforts de réfutation, qui revêtent une importance, donc qui dirigent la recherche;
les efforts de bonification dynamisent les activités de recherche. Ainsi un programme
vigoureux doit aboutir de temps à autre à des prédictions nouvelles, parfois surprenantes, qui
se voient confirmées.

EXEMPLE : La prédiction de 1'existence d'une nouvelle planète, Neptune, par les as-
tronomes Urbain le Verrier (1811-1877) et John Couch Adams (1819-1892), et observée par
Johan Gottfried Galle (1812-1910) a représente un triomphe spectaculaire de la théorie de la
gravitation de Newton étendue du mouvement de la Lune autour de la Terre aux mouvements
planétaires autour du Soleil.
Alors que Popper proposait le degré de réfutabilité, Lakatos assure 1'evaluation du
mérite des programmes au moyen des deux critères :
I. Le degré de cohérence qui définit la recherche future.
II. L'efficacité a prédire et a découvrir des phénomènes nouveaux (au moins occasionnelle-
ment).

Pour Lakatos, un programme est dit scientifique si et seulement s'il satisfait ces deux critères.
On ne peut évidemment pas accepter comme scientifiques les programmes des partis
politiques (même si certains utilisent dans leur publicité des équations très complexes de la
physique !), la psychanalyse freudienne, le marxisme, 1'astrologie. Tout a 1'oppose, la
biologie moléculaire qui permet de montrer que tous les grands groupes animaux sont très
proches les uns des autres par leur ADN permet de faire de grands bonds grâce aux
possibilités qu'elle donne de révéler, de comprendre, et éventuellement, de modifier le code
génétique.

4.3 Les règles du jeu au sein d'un programme

On arrive aux hypothèses scientifiques par plusieurs chemins : par nécessité, par préjuge, par
analogie, par accident [18]. Pour Lakatos, la méthodologie a 1'interieur d'un programme est
par conséquent ouverte; tout changement est permis (a 1'exception des hypothèse ad hoc) à
condition qu'il ouvre la voie a des tests inédits et qu'il permette de nouvelles découvertes. On
peut ajouter des hypothèses auxiliaires qui étendent et modifient la "ceinture protectrice". Par
exemple en cosmologie, la théorie classique du Big Bang (e.g. les modèles de Friedmann ou
de Lemaître) s'est trouvée profondément modifiée en 1983; Guth et Linde introduisirent une
phase dite inflationnaire lorsque 1'univers avait un age de 10-35 seconde. L'introduction de
1'inflation permit de résoudre certaines énigmes comme 1'uniformite et 1'isotropie des
propriétés de 1'univers a 1'echelle de plusieurs centaines de millions d'années-lumière. De
même a la fin du 19e siècle, la théorie électromagnétique de James Clerk Maxwell (1$31-
1879) était fondée sur les vibrations électriques de 1'ether, un milieu hypothétique
extrêmement rigide mais n'offrant que peu de résistance, par exemple aux planètes orbitant
autour du Soleil. A. A. Michelson (1852-1931) et E. W. Marley (1838-1923) en 1887
démontrèrent que l'éther n'existait pas. Néanmoins, le noyau, dur de la théorie de
1'electromagnetisme de Maxwell demeura intact malgré l'abandon d'un concept en apparence
fondamental, celui de, l'éther. Qu'une partie importante d'un complexe théorique puisse être
refusée est inacceptable pour le falsificationiste qui y voit une source de chaos. Mais, dans le
schéma lakatosien, 1'ordre des programme est maintenu par 1'inviolabilite du noyau dur et
par 1'heuristique positive.
Les analogies ont joue un rôle important dans les nouvelles découvertes. Ces rapprochements
que fait un chercheur entre une nouvelle équation et une autre décrivant un phénomène déjà
bien connu, ou entre un nouveau phénomène et un comportement bien compris sont les
"éclairs de génie" qui peuvent parfois propulser un chercheur aux tous devants de la scène
scientifique. On pense à Maxwell qui déduisit 1'existence d'ondes électromagnétiques en
remarquant 1'analogie formelle entre ses équations de champ et l'équation des ondes
élastiques. Peu après le retour du Beagle, Darwin se brancha sur l'évolution grâce à une
double analogie : il vit un parallèle frappant entre les variations géographique et temporelles,
le gradualisme géologique de Charles Lyell, et le gradualisme biologique qu'il avait
découvert durant ses cinq ans à travers le monde sur Beagle [16].

5 LES REVOLUTIONS ET LES PARADIGMES


DE THOMAS KUHN
En 1962, Thomas Khun, physicien américain devenu historien des sciences, publie un
ouvrage, La structure des révolutions scientifiques [19], qui fait 1'effet d'une bombe dans les
milieux de 1'histoire et de la philosophie des sciences. Au décès de ce pilier de 1'etude
contemporaine des sciences en 1996, ce livre-choc avait été traduit en 16 langues et vendu a
plus d'un million d'exemplaires. Kuhn réalisa assez tôt, comme Lakatos et d'autres, que la
façon d'envisager la science de Popper et des inductivistes, était en contradiction flagrante
avec 1'histoire des sciences. Il fut particulièrement frappé par le caractère révolutionnaire de
1'évolution des idees en science, et il n'hesita pas a etablir une analogie avec les revolutions
politiques comme la revolution française ou américaine. Tout comme une révolution
correspond à un changement brutal de régime et d'acteurs politiques, 1'abandon d'une
structure théorique est aussi traumatisant pour ses tenants, car il y a remplacement par une
nouvelle structure souvent incompatible avec 1'ancienne. L'héliocentrisme de Copernic,
1'evolutionisme de Darwin et la tectonique des plaques furent des exemples, a degrés divers,
de ces révolutions.
Allant au-delà du propos historique, Kuhn décrit les communautés scientifiques et leurs
activités un peu comme le ferait 1'anthropologue. La science évolue par bonds entrecoupes
d'accalmies que Kuhn peint comme ères de "science normale". L'évolution se fait par étapes
définies: ... - pré-science  science normale  crise  révolution  nouvelle science
normale -+ nouvelle crise -4 ... L'activité chaotique qui précède la formation d'une théorie
finit par se structurer autour d'un "paradigme", mot central de 1'oeuvre de Kuhn, nous allons
y revenir. La révolution n'est pas un acte inaugural et unique, mais s'insère dans une suite
d'événements. Prenons 1'exemple d'Antoine Laurent Lavoisier (1743-1794), qui avant de
périr sur 1'echaffaud des révolutionnaires, détruisit la théorie du phlogiston et qu'on associe a
une révolution en chimie; le phlogiston était considère une substance inflammable contenue
dans tous les corps combustibles. "La prolifération des versions du phlogistique illustre les
symptômes de crise dans le paradigme dominant; 1'augmentation de poids des métaux
calcines illustre 1'anomalie qui déclenche la crise; la lute entre la chimie phlogistique et
antiphlogistique illustre le temps de controverse qui divise la communauté scientifique en
deux camps; enfin la résorption de la crise la victoire du nouveau paradigme sont
illustrées par 1'adoption de la nouvelle nomenclature chimique." [20].

5.1 Qu'est-ce qu'un paradigme

Le paradigme est un ensemble d'hypothèses théoriques générales, de lois, de


langages et de techniques. Cet ensemble est adopte par les membres d'une
communauté scientifique. Cette communauté est circonscrite par ceux qui opèrent à
1'interieur d'un même paradigme (chimie analytique, microbiologie, astrophysique)
et qui font de la science normale. L'activité des chercheurs est de formuler plus
finement le paradigme et d'étendre son domaine d'application. Chemin faisant, il est
possible qu'ils rencontrent des anomalies, des problèmes ou des réfutations
apparentes. Si d'importantes anomalies ne sont pas résolues, il y a "crise". Il y a alors
changement discontinu (révolution) et adoption d'un nouveau paradigme.
Tout comme 1'idee du mouvement de la Terre autour du Soleil, la notion que les
continents pouvaient se déplacer relativement les uns aux autres (idée apparue
d'abord au 19e siècle) rencontra à ses débuts beaucoup de résistance. C'est le
météorologue allemand Alfred Wegener (1880-1930) qui lui donna une formulation
plus complète. Les géophysiciens, et ensuite les géologues, n'adopteront le nouveau
paradigme de la tectonique des plaques vers 1970 qu'après de vigoureux débats
internes.

5.2 La science en pantoufles

Les activités de la "science normale" consistent en la résolution d'énigmes (un peu


comme un détective essaie de résoudre un crime) dans le domaine scientifique sous
1'egide des règles dictées par le paradigme. Dans ses efforts pour faire correspondre
le paradigme avec la nature, le chercheur doit prendre très au sérieux les anomalies
ou les échecs. Selon Kuhn, la science normale est relativement peu critique, du
moins vis-à-vis le paradigme. Le "paradigme" de Kuhn apparaît être un concept
toutefois plus englobant que le "noyau dur" de Lakatos.

5.3 La crise suivie de la révolution


Pour avoir une crise, 1'anomalie doit toucher les bases fondamentales du "noyau dur" (selon
Lakatos) ou du paradigme. L'anomalie doit aussi résister aux assauts persistants des tenants
de la science normale qui cherchent à 1'éliminer en vérifiant si elle n'est pas le résultat d'une
erreur méthodologique ou expérimentale. Les comètes troublaient la cosmologie
aristotélicienne parce qu'elles étaient considérées des phénomènes atmosphériques; seuls les
phénomènes atmosphériques - météores - pouvaient être source de changement sur la voûte
céleste. Or, en mesurant leur parallaxe, Tycho Brahe avait démontre que les comètes étaient
situées au-delà de I'orbite lunaire. Cette anomalie allait s'ajouter à bien d'autres pour fracasser le
géocentrisme. Si le nombre d'anomalies augmente, la situation s'aggrave. Ainsi la physique de
1900 connut la "catastrophe ultraviolette", les raies spectrales en émission dans les flammes, et
en absorption dans le spectre du Soleil, et une foule d'autres phénomènes qu'on ne put expliquer
qu'avec 1'avenement d'une nouvelle physique, la quantique.
Lorsqu'un nouveau paradigme apparaît avec des différences radicales, son adoption peut
nécessiter, selon Kuhn, une véritable conversion de la part des tenants de 1'ancien paradigme;
cette conversion peut être douloureuse idéologiquement. On examine le mérite de la nouvelle
théorie, sa "simplicité". Cet examen peut se faire de fa~on tumultueuse. Par exemple,
1'adoption de la théorie de la tectonique des plaques fut difficile pour les géologues, mais plutôt
facile de la part des géophysiciens; ce fut une source de vifs débats entre ces deux
communautés. A 1'inverse, la transition peut être aisée, ce qui contredit 1'hypothese
"révolutionnaire" de Kuhn. La structure de la double hélice pour 1'ADN proposée par Watson
et Crick fut rapidement acceptée, et cela de façon enthousiaste, par les scientifiques oeuvrant
dans le même domaine, incluant Linus Pauling et Max Delbriick qui développaient une
hypothèse assez différente de celle des deux jeunes découvreurs. Voila donc un exemple d'une
des idées les plus révolutionnaire de la science du 20e siècle, qui ne correspond pas à la "crise"
ou a la "révolution" de Kuhn. Kuhn va jusqu'a insister que le changement d'allégeance se fait
sur une base complexe qui dépasse la logique simple, et ressemblerait même a une conversion
religieuse ! En dépit de cette exagération, on ne peut être que d'accord avec Kuhn pour
constater que le rapport entre le nouveau paradigme et 1'environnement social, politique et
métaphysique joue aussi un rôle dans la rapidité avec laquelle une nouvelle théorie est
acceptée. Mais les facteurs internes et la capacité de résoudre un type particulier de problème
joueront un rôle dominant pour catalyser la "conversion". Les facteurs externes comme
1'accueil du milieu et les enjeux financiers vont accélérer ou modérer la transition vers la
nouvelle théorie.

En résumé, une révolution scientifique consiste en 1'abandon d'un paradigme, suivi


rapidement de 1'adoption d'un nouveau paradigme et du rejet des théories auxiliaires par une
communauté de chercheurs, laissant de cote une poignée de réfractaires. Kuhn laisse entendre
qu'il n'y aurait pas d'argument purement logique, ou contraignant qui dicterait au scientifique
d'abandonner un paradigme au profit d'un autre; les paradigmes sont incommensurables. Par
cette évaluation, Kuhn s'attira les foudres de bien des milieux scientifiques et
philosophiques. Pourtant loin était de Kuhn 1'idee de relativiser les théories
scientifiques et de prétendre qu'elles étaient du pareil au même. Il dut se défendre
souvent de ce relativisme dans ses écrits ultérieurs, comme en témoigne la postface de
la réédition française de son ouvrage.

Pour mieux cerner 1'idee de Kuhn, je donne ci-dessous un problème scientifique


actuel où s'opposent deux paradigmes - le réchauffement apparent de 1'atmosphere
terrestre.
Exemple de "crise"
C02 et EFFET DE SERRE
PARADIGME A
Le C02 atmosphérique s'est accru depuis les débuts de 1'ere industrielle. La
température terrestre moyenne affiche depuis le début du 20e siècle un réchauffement
global.
La cause suspecte est la démographie galopante et la mondialisation des technolo-
gies qui entraînent une croissance dans la production du C02, donc une élévation de la
température moyenne a la surface du globe.
* L'activité humaine aurait donc une influence prépondérante sur la teneur en gaz d'effet
de serre dans 1'atmosphere terrestre.

VERSUS
PARADIGME B
Il y a eu réchauffement naturel (par une cause encore non identifiée) de la planète.
La croissance du COZ atmosphérique est due au dégazage des énormes quantités de C02
dissout dans les océans. L'effet de serre est renforce par une cause naturelle inconnue.
* L'activité humaine aurait peu d'effet sur le contenu C02 de 1'atmosphere en comparai-
son des éruptions volcaniques, des grands incendies de forêts et de 1'activite de la
biomasse.
Dans le cadre de cet exemple d'actualité, on peut facilement élaborer des scénarios
qui amèneraient des chercheurs a passer d'un paradigme a 1'autre, et les motifs d'un
changement d'adhésion pourraient ne pas être uniquement d'ordre "interne". Un autre
bel exemple où s'opposent deux paradigmes est la grande extinction du Cretace-Tertiaire qui vit
la disparition des dinosaures. Un camp propose un scénario avec un impact de météore ou de
comète, et 1'autre invoque une violente recrudescence du volcanisme terrestre associée à la
tectonique des fonds marins et des continents.

Quoiqu'on puisse trouver dans 1'histoire des exemples qui différent de la vision de Kuhn, il
demeure que celle-ci nous pousse a jeter un regard neuf sur la science et son évolution, en
particulier, en accordant comme Lalcatos de 1'importance aux caractéristiques sociologiques
des communautés scientifiques et aux facteurs "externes". La démarche de Kuhn est
intéressante parce qu'elle permet d'a11er au-delà d'une description désincarnée de la dimension
humaine de 1'histoire de la science et de 1'oeuvre des scientifiques. Son "progrès" par des
révolutions s'oppose au "progrès cumulatif" cher aux inductivistes.

Les révolutions héliocentrique et quantique correspondent assez bien aux schémas de


Kuhn. Toutefois, les avènement d'autres théories ne correspond pas à 1'idée kuhnienne; on
pense à 1'ADN en génétique, à la Relativité générale d'Einstein ou à la découverte de
1'expansion de 1'univers. Ces trois exemples qui transformèrent la science du 20e siècle et
notre vision du monde ne furent pas le résultat de "crises" de la science normale. Enfin, par un
retour d'ascenseur, 1'approche de Khun n'est-elle pas devenue elle-même un paradigme, et de la
sujette a des anomalies et a des problèmes qui entraîneraient son abandon ou rejet a plus ou
moins court terme ?

6 CONCLUSION
Vous étés probablement essoufflées ou quelque peu confus de ce survol de grands courants
d'analyse de la nature de la science. D'autres écoles de pensée existent; nous nous sommes
attardés à celles de Popper, Lakatos et Kuhn parce qu'elles sont bien connues et qu'elles
représentent des étapes importantes dans la réflexion contemporaine sur la science. Que retenir
de ces différentes approches que nous avons toutes critiquées a des degrés divers ? Suivons la
règle d'or énoncée par Mario Bunge : "Méfions-nous de toute description du processus
scientifique, mais n'en négligeons aucune !"[21]
Tirons le mot de la fin en soulevant un volet important du développement des idées et des
théories scientifiques; c'est celui des découvertes faites par pur accident. La plupart des grandes
découvertes contiennent un élément de chance; mais comme le dit Francis Crick, la chance
favorise un esprit prépare [22]. En voici des exemples :

- La radioastronomie (Carl Jansky)


- Les ondes de matière de Broglie (David Germer) - Les implants dentaires en
titane
- La radioactivité des sels d'uranium (Henri Becquerel)

- Le fond de rayonnement cosmique a 2.7 K (Arno Penzias et Robert Wilson)


Ce type de découvertes, qui eurent des impacts a des degrés divers, sur la façon
faire la science n'a pas vraiment été considère par les philosophes des sciences, si on
une exception pour Lakatos qui aborde le sujet. Encore moins explorées, sont les p
fondes différences de fonctionnement entre les diverses disciplines, que ce soit la
méthode ou la portée des lois propres à chaque domaine. Francis Crick a fait une
intéressant comparaison entre les façons différentes utilisées par les physiciens et les
biologistes dans la manière de conduire leurs recherches, mais il n'existe pas d'analyse
de fond. [23]

Références
[ 1 ] POPPER, K. R., "La logique de la découverte scientifique", trad. Nicole Thyssen
Rutten et Philippe Devaux, Payot, Paris, 1984
[2] LWOFF, A., "Sur le prétendu principe de falsfication de Karl Popper et sur
quelques divagations logomachiques", La Recherche, mars 1983.
[3] CHALMER5, A. F., "Qu'est-ce que la science ?", trad. Michel Biezunski, La
Découverte, 1987. p. 26
[4] DAWKINS, R., "The Selfish Gene", Oxford University Press, 1989
[5] de DUVE, C., " ", La Recherche, Avril 1996, p. 90
[6] CABANAC, M., "La quête du plaisir : Etude sur le conflit des motivations", Liber,
Montréal 1995, p. 156
[7] Le lecteur intéresse trouvera une critique de la vision millénariste dans HOLTON,
G., "Einstein, History, and Other Passions", Addison-Wesley Publishing
Company, 1996
[8] Un ouvrage récent reprennent la thèse millénariste de la "fin de la science" est The
End of Science, par J. Horgan paru chez Addison-Wesley Publishing Company
Inc., 1996.
[9] HOLTON, G., ibid., pp. 48-49
[l7] BUNGE, M., "Sociologia de la ciencia", Siglo veinte, 1993 ou Ciencia, su me
[18] Lire dans HOLTON, G., ibid., chapitre 4 "Imagination in Science".
[19] KUHN, T. S., Ibid.
[20] BENSAUDE-VINCENT, B., "Lavoisier et la révolution de la chimie modern,
Recherche, mai 1994, vol 25., p. 538
[21] BUNGE, M., "La ciencia, su metodo y su filisofia", Siglo veinte, 1993
[22] CRICK, F., ibid.
[23] CRICK, F., ibid., pp. 137-142

Vous aimerez peut-être aussi