Vous êtes sur la page 1sur 175

Science or not science ?

Essai épistémologique sur la science, sa nature, ses méthodes.

Science or not science ? Essai épistémologique sur la science, sa nature, ses méthodes.

I. introduction

II. Qu’est-ce que la science ?

Définition ; Histoire ; Etymologie : de la « connaissance » à la « recherche » ; Un terme générique de la connaissance ; Définition large ; Définition stricte ; Principe de l’acquisition des connaissances scientifiques ; Pluralisme des définitions ; Histoire de la science ; Premières traces : préhistoire et antiquité ; Préhistoire ; Mésopotamie ; Egypte pharaonique ; Chine de l’antiquité ; Science en Inde ; Logos grec : les prémisses philosophiques de la science ; Présocratique ; Platon et la dialectique ; Période alexandrine et Alexandrie à l’époque romaine ; Ingénierie et technologies romaines ; Science au Moyen Age ; En Europe ; Dans le monde arabo-musulman ; Sciences en Chine médiévale ; Inde des mathématiques médiévales ; Fondements de la science moderne en Europe ; Science institutionnalisée ; Renaissance et la « science classique » ; Naissance de la méthode scientifique : Francis Bacon ; De « l’imago mundi » à l’astronomie ; De l’alchimie à la chimie ; Emergence de la physiologie moderne ; Diffusion du savoir ; Les « Lumières » et les grands systèmes scientifiques ; L’encyclopédie ; Rationalisme et science moderne ; Naissance des grandes disciplines scientifiques ; XIXe siècle ; Claude Bernard et la méthode expérimentale ; Révolution industrielle ; Une science post-industrielle ; Complexification des sciences ; Développement des sciences humaines ; Ethique et science : l’avenir de la science au XXIe siècle ; Disciplines scientifiques ; Classification des sciences ; Sciences fondamentales et appliquées ; Sciences nomothétiques et idiographiques ; Sciences empiriques et logico-formelles ; Sciences de la nature et sciences humaines et sociales ; Raisonnement scientifique ; Type formel pur ; Type empirico-formel ; Type herméneutique ; Scientificité ; Objectifs ; Recherche d’un corpus fini et évolution permanente ; Recherche de la simplification et l’unification des théories ; Le connu et l’inconnu

III. La méthode scientifique III.1. La méthode

Théorie et expérience ; La recherche ; La méthode en physique ; Description détaillée ; Méthode scientifique ; Découverte et théorie ; Evolution de la notion ; Aristote ; Ibn Al Haytham ; Roger Bacon ; René Descartes et Francis Bacon ; Conventionnalisme ; Vérificationnisme ; Réfutationnisme ; Pluralisme scientifique ; Contextes de justification et de découverte ; Méthodes dans le contexte de justification ; Méthodes dans le contexte de découverte ; Observation ; Expérimentation ; Modélisation ; Simulation numérique ; Analogie ; Complémentarité entre méthodes analytiques et synthétiques ; Analyse réductionniste ; Synthèse transdisciplinaire systémique ; Universalité

III.2. La philosophie

Physique et réalité ; L’attitude pragmatique ; L’attitude néo-positiviste ; L’attitude réaliste ; Le principe d’objectivité ; L’accroissement des connaissances ; Une science exacte

III.3. Les modes de raisonnement III.3.1. Déduction III.3.2. Induction III.3.3. Abduction

Liste des méthodes

III.4. La mesure

Science et mesure ; Les moyens de l’expérimentation ; La cellule de mesure ; L’échantillon ; L’instrument de mesure ; La fidélité ; La sensibilité ; La justesse ; Perception de la mesure ; Précision de la mesure ; Mesure ; Méthodologie de la mesure ; Expérimentation ; Erreurs de mesure ; Classification ; Exploitation des mesures entachées d’erreurs fortuites ; Etalons fondamentaux ; Bases du système international ; Critères de choix ; Etude des étalons ; Etalons fondamentaux ; Etalons auxiliaires

IV. Théories IV.1. Théories et modèles

Théorie ; Modèle

IV.2. Méthodes d’élaboration

Approche orthodoxe ; Unification ; Adaptations ; Extensions

IV.3. Les mathématiques

Physique et mathématiques ; Les mathématiques, langage de la physique ? ; La nature du rapport des mathématiques et de la physique ; Le polymorphisme mathématique de la physique ; La plurivalence des mathématiques en physique ; La physique mathématique ; Les mathématiques et la spécificité de la physique ; Un point de vue pragmatique ; Un conseil

IV.4. Spéculations

V. La pratique V.1. Comment se fait la science ?

Laboratoires ; Documentation ; Le travail en communauté ; Le rôle de la communauté ; Le travail isolé

V.2. Publications

Catégories ; Eléments de définition ; Evolutions ; Quantitatif versus qualitatif ?; Revue scientifique ; Histoire ; Contenu et auteurs ; Les sujets ; Les auteurs ; Comité éditorial et comité de lecture ; Modèles économiques ; Hausse des prix ; Propriété intellectuelle ; Comment publier ; Forme ; Fond

VI. La mauvaise science VI.1. Pseudoscience

Pseudoscience ; Sémantique ; Origines de l’expression ; A la rechercher de critères ; Critères externes ; La discipline n'est pas enseignée dans le monde académique ; Critères internes ; L'absence de vérification empirique des hypothèses proposées ; Impossibilité de réfuter les hypothèses soumises ; Erreurs méthodologiques et manipulations statistiques des résultats ; Conclusions hâtives, ou fausses conclusions, par rapport aux résultats ; Utilisation de sophismes pour appuyer une conclusion ; Remise en cause abusive d'acquis scientifiques ; Distinctions entre « science », « para-science » et « pseudoscience » ; Stratégies pour paraitre scientifique ; Tactiques pour discréditer la recherche scientifique ; Critiques de la notion de pseudoscience ; Quelques doctrines considérées comme pseudo-scientifiques ; Aspect social et risque de dérive ; Facteur de nouveauté ?; Sans « prétention » scientifique ; Réactions aux pseudosciences ; Défis ; Pseudosciences parodiques ; Science pathologique ; Définition ; Les exemples de Langmuir ; Les rayons N ; Autres exemples ; Exemples ultérieurs ; Exemples récents ; Polywater ; Fusion froide ; La mémoire de l’eau ; Des contre-exemples récents ; Patascience et « n’importe nawak »

VI.2. Vulgarisation

Eléments de définition ; Moyens et acteurs ; Musée scientifique ; Publications et médias ; Sites web ; Revues de vulgarisation ; Emissions télévisées ; Emissions radiophoniques ; Entreprises privées et associations ; Animation scientifique et technique ; Approches critiques et éthiques ; Analyse critique ; Enjeux éthiques ; Déontologie de la vulgarisation ; Formation ; Vulgarisateurs célèbres ; Expériences de pensée ; Science ou vulgarisation ?

VI.3. Bonne et mauvaise science

En trouve-t-on dans les publications « sérieuses » ? ; Interprétations ; Mauvaises théories

VII. Références

I. introduction

A notre époque, la science est devenue très médiatique. On en parle abondamment dans les médias grand public, journaux et télévisions, dans les reportages, les documentaires,… Mais aussi à travers de très nombreux médias spécialisés, que ce soit dans des revues ou sur internet, mais toujours à destination du grand public.

C’est une bonne chose de faire connaitre la science, ses merveilles, ses objectifs, ses réalisations,… Mais aussi parfois pour simplement répondre « à quoi ça sert de faire tout ça ». Il est utile d’informer le grand public de la recherche en cours, de susciter de grands débats de sociétés touchant à l’éthique ou toutes les conséquences des applications scientifiques mais aussi, pourquoi pas, d’éveiller des vocations chez les jeunes.

Mais ce type de présentation est aussi très « vulgarisé », nous reviendrons sur la signification de ce terme, parfois par des non scientifiques (des journalistes plus ou moins spécialisés). Cela peut donner une idée approximative, faussée voire même totalement erronée de ce qu’est réellement la science et surtout sur la manière dont on « fait » de la science. Souvent, la figure d’autorité du scientifique, les citations données hors contexte, et sans beaucoup de précisions, des « Grands Hommes » (dont Einstein est sans doute la figure emblématique) peut fortement empirer ces appréciations erronées.

Alors, pourquoi ne pas faire le point ?

Posons-nous les bonnes questions. Qu’est-ce que la science ? Comment fait-on de la science ? Qu’est-ce qu’on appelle la « méthode scientifique » ? C’est quoi en sommes une théorie ? Qu’appelle-t-on vraiment mesure et expérience ? Quels sont les fondements philosophiques et logiques de la science ? Quelle est la place des mathématiques en science ? Comment distinguer ce qui n’est que fadaises de véritables raisonnements scientifiques ?

On n’étudiera pas ici les théories scientifiques elles-mêmes mais plutôt, leur cadre, leur mode de fonctionnement, de raisonnement, d’élaboration… Nous allons aborder tout cela progressivement et en profondeur. Nous prendrons surtout modèle sur la physique, archétype des « sciences exactes » où toutes ces questions sont souvent aigues et difficiles.

II. Qu’est-ce que la science ?

Commençons d’abord par définir ce qu’est la science. Impossible de parler de celle-ci, de définir les méthodes et outils de travail, de parler de ses fondements, sans savoir d’abord de quoi on parle !

Définition

La science est un concept grec philosophique.

La science (latin scientia, « connaissance ») est « ce que l'on sait pour l'avoir appris, ce que l'on tient pour vrai au sens large, l'ensemble de connaissances, d'études d'une valeur universelle, caractérisées par un objet (domaine) et une méthode déterminés, et fondés sur des relations objectives vérifiables [sens restreint] ».

Dans un passage du Banquet, Platon distingue la droite opinion (orthos logos) de la science ou de la connaissance (Épistémé). Synonyme de l’épistémé en Grèce antique, c'est selon les Définitions du pseudo-Platon, l’Épistémé est une « Conception de l’âme que le discours ne peut ébranler »

Histoire

La science est historiquement liée à la philosophie. Dominique Lecourt écrit ainsi qu'il existe « un lien constitutif [unissant] aux sciences ce mode particulier de penser qu'est la philosophie. C'est bien en effet parce que quelques penseurs en Ionie dès le VIIe siècle av. J.-C. eurent l'idée que l'on pouvait expliquer les phénomènes naturels par des causes naturelles qu'ont été produites les premières connaissances scientifiques ». Dominique Lecourt explique ainsi que les premiers philosophes ont été amenés à faire de la science (sans que les deux soient confondues). La théorie de la connaissance en Science est portée par l'épistémologie.

L'histoire de la Science est nécessaire pour comprendre l'évolution de son contenu, de sa pratique.

La science se compose d'un ensemble de disciplines particulières dont chacune porte sur un domaine particulier du savoir scientifique. Il s’agit par exemple des mathématiques, de la chimie, de la physique, de la biologie, de la mécanique, de l'optique, de la pharmacie, de l'astronomie, de l'archéologie, de l'économie, de la sociologie, etc. Cette catégorisation n'est ni fixe, ni unique, et les disciplines scientifiques peuvent elles-mêmes être découpées en sous-disciplines, également de manière plus ou moins conventionnelle. Chacune de ces disciplines constitue une science particulière.

L'épistémologie a introduit le concept de « science spéciale », c'est la science « porte drapeau » parce qu'elle porte les problématiques liées à un type de Sciences.

Etymologie : de la « connaissance » à la « recherche »

L'étymologie de « science » vient du latin, « scientia » (« connaissance »), lui-même du verbe « scire » (« savoir ») qui désigne à l'origine la faculté mentale propre à la connaissance. Cette acception se retrouve par exemple dans l'expression de François Rabelais : « Science sans conscience n'est que ruine de l'âme ». Il s’agissait ainsi d'une notion philosophique (la connaissance pure, au sens de « savoir »), qui devint ensuite une notion religieuse, sous l'influence du christianisme. La « docte science » concernait alors la connaissance des canons religieux, de l'exégèse et des écritures, paraphrase pour la théologie, première science instituée.

La racine « science » se retrouve dans d'autres termes tels la « conscience » (étymologiquement, « avec la connaissance »), la « prescience » (« la connaissance du futur »), l'« omniscience » (« la connaissance de tout »), par exemple.

Un terme générique de la connaissance

Définition large

Un terme générique de la connaissance Définition large La science, par ses découvertes, a su marquer

La science, par ses découvertes, a su marquer la civilisation. Ici, les images rapportées par l'astronomie nourrissent la pensée humaine quant à sa place dans l'Univers.

Le mot science est un polysème, recouvrant principalement trois acceptions :

1. Savoir, connaissance de certaines choses qui servent à la conduite de la vie ou à celle des affaires.

2. Ensemble des connaissances acquises par l’étude ou la pratique.

3. Hiérarchisation, organisation et synthèse des connaissances au travers de principes généraux (théories, lois, etc.)

Définition stricte D'après Michel Blay, la science est « la connaissance claire et certaine de quelque chose, fondée soit sur des principes évidents et des démonstrations, soit sur des raisonnements expérimentaux, ou encore sur l'analyse des sociétés et des faits humains. »

Cette définition permet de distinguer les trois types de science :

1. les sciences exactes, comprenant les mathématiques et les « sciences mathématisées » comme la physique théorique ;

2. les sciences physico-chimiques et expérimentales (sciences de la nature et de la matière, biologie, médecine) ;

3. les sciences humaines, qui concernent l’Homme, son histoire, son comportement, la langue, le social, le psychologique, le politique.

Néanmoins, leurs limites sont floues ; en d'autres termes il n'existe pas de catégorisation systématique des types de science, ce qui constitue par ailleurs l'un des questionnements de l'épistémologie. Dominique Pestre explique ainsi que « ce que nous mettons sous le vocable « science » n’est en rien un objet circonscrit et stable dans le temps qu’il s’agirait de simplement décrire ».

Principe de l’acquisition des connaissances scientifiques

L'acquisition de connaissances reconnues comme scientifiques passent par une suite d'étapes. Selon Francis Bacon, la séquence de ces étapes peut être résumée comme suit :

1. observation, expérimentation et vérification

2. théorisation

3. prévision

Pour Charles Sanders Peirce (18391914), qui a repris d'Aristote l'opération logique d'abduction, la découverte scientifique procède dans un ordre différent :

1. abduction : création de conjectures et d'hypothèses ;

2. déduction : recherche de ce que seraient les conséquences si les résultats de l'abduction étaient vérifiés

3. induction : mise à l'épreuve des faits ; expérimentation.

Nous reviendrons plus loin sur ces méthodes de raisonnement.

Les méthodes scientifiques permettent de procéder à des expérimentations rigoureuses, reconnues comme telles par la communauté de scientifiques. Les données recueillies permettent une théorisation, la théorisation permet de faire des prévisions qui doivent ensuite être vérifiées par l'expérimentation et l'observation. Une théorie est rejetée lorsque ces prévisions ne cadrent pas à l'expérimentation. Le chercheur ayant fait ces vérifications doit, pour que la connaissance scientifique progresse, faire connaître ces travaux aux autres scientifiques qui valideront ou non son travail au cours d'une procédure d'évaluation.

Pluralisme des définitions

Le mot « science », dans son sens strict, s’oppose à l'opinion (« doxa » en grec), assertion par nature arbitraire. Néanmoins le rapport entre l'opinion d'une part et la science d'autre part n'est pas aussi systématique ; l'historien des sciences Pierre Duhem pense en effet que la science s’ancre dans le sens commun, qu'elle doit « sauver les apparences ».

Le discours scientifique s’oppose à la superstition et à l'obscurantisme. Cependant, l'opinion peut se transformer en un objet de science, voire en une discipline scientifique à part. La sociologie des sciences analyse notamment cette articulation entre science et opinion. Dans le langage commun, la science s’oppose à la croyance, par extension les sciences sont souvent considérées comme contraires aux religions. Cette considération est toutefois souvent plus nuancée tant par des scientifiques que des religieux.

L’idée même d’une production de connaissance est problématique : nombre de domaines reconnus comme scientifiques n’ont pas pour objet la production de connaissances, mais celle d’instruments, de machines, de dispositifs techniques. Terry Shinn a ainsi proposé la notion de « recherche technico- instrumentale ». Ses travaux avec Bernward Joerges à propos de l’« instrumentation » ont ainsi permis de mettre en évidence que le critère de « scientificité » n'est pas dévolu à des sciences de la connaissance seules.

Le mot « science » définit aux XXe et XXIe siècles l'institution de la science, c'est-à-dire l'ensemble des communautés scientifiques travaillant à l'amélioration du savoir humain et de la technologie, dans sa dimension internationale, méthodologique, éthique et politique. On parle alors de « la science ».

La notion ne possède néanmoins pas de définition consensuelle. L'épistémologue André Pichot écrit ainsi qu'il est « utopique de vouloir donner une définition a priori de la science ». L'historien des sciences Robert Nadeau explique pour sa part qu'il est « impossible de passer ici en revue l'ensemble des critères de démarcation proposés depuis cent ans par les épistémologues, [et qu'on] ne peut apparemment formuler un critère qui exclut tout ce qu'on veut exclure, et conserve tout ce qu'on veut conserver ». La physicienne et philosophe des sciences Léna Soler, dans son manuel d'épistémologie, commence également par souligner « les limites de l'opération de définition ». Les dictionnaires en proposent certes quelques-unes. Mais, comme le rappelle Léna Soler, ces définitions ne sont pas satisfaisantes. Les notions d'« universalité », d'« objectivité » ou de « méthode scientifique » (surtout lorsque cette dernière est conçue comme étant l'unique notion en vigueur) sont l'objet de trop nombreuses controverses pour qu'elles puissent constituer le socle d'une définition acceptable. Il faut donc tenir compte de ces difficultés pour décrire la science. Et cette description reste possible en tolérant un certain « flou » épistémologique.

Histoire de la science

L'histoire des sciences est intimement liée à l'histoire des sociétés et des civilisations. D'abord confondue avec l'investigation philosophique, dans l'Antiquité, puis religieuse, du Moyen Âge jusqu'au Siècle des Lumières, la science possède une histoire complexe. L'histoire de la science et des sciences peut se dérouler selon deux axes comportant de nombreux embranchements :

l'histoire des découvertes scientifiques d'une part,

l'histoire de la pensée scientifique d'autre part, formant pour partie l'objet d'étude de l'épistémologie.

Allégorie de la Science Bien que très liées, ces deux histoires ne doivent pas être

Allégorie de la Science

Bien que très liées, ces deux histoires ne doivent pas être confondues. Bien plutôt, il s’agit d'une interrogation sur la production et la recherche de savoir. Michel Blay fait même de la notion de « savoir » la véritable clé de voûte d'une histoire des sciences et de la science cohérente : « Repenser la science classique exige de saisir l'émergence des territoires et des champs du savoir au moment même de leur constitution, pour en retrouver les questionnements fondamentaux. »

De manière générale, l'histoire des sciences n'est ni linéaire, ni réductible aux schémas causaux simplistes. L'épistémologue Thomas Samuel Kuhn parle ainsi, bien plutôt, des « paradigmes de la science » comme des renversements de représentations, tout au long de l'histoire des sciences. Kuhn énumère ainsi un nombre de « révolutions scientifiques ». André Pichot distingue ainsi entre l’histoire des connaissances scientifiques et celle de la pensée scientifique. Une histoire de la science et des sciences distingueraient de même, et également, entre les institutions scientifiques, les conceptions de la science, ou celle des disciplines.

Premières traces : préhistoire et antiquité

Préhistoire

Premières traces : préhistoire et antiquité Préhistoire L'usage d'outils en pierre précède l'apparition

L'usage d'outils en pierre précède l'apparition d'Homo sapiens de plus de 2 millions d'années

La technique précède la science dans les premiers temps de l'humanité. En s’appuyant sur une démarche empirique, l'homme développe ses outils (travail de la pierre puis de l'os, propulseur) et découvre l'usage du feu dès le Paléolithique inférieur. La plupart des préhistoriens s’accordent pour penser que le feu est utilisé depuis 250 000 ans ou 300 000 ans. Les techniques de production de feu relèvent soit de la percussion (silex contre marcassite), soit de la friction de deux morceaux de bois (par sciage, par rainurage, par giration).

Pour de nombreux préhistoriens comme Jean Clottes, l'art pariétal montre que l'homme anatomiquement moderne du Paléolithique supérieur possédait les mêmes facultés cognitives que l'homme actuel.

Ainsi, l'homme préhistorique savait, intuitivement, calculer ou déduire des comportements de l'observation de son environnement, base du raisonnement scientifique. Certaines « proto-sciences » comme le calcul ou la géométrie en particulier apparaissent sans doute très tôt. L'os d'Ishango, datant de plus de 20 000 ans, a été interprété par certains auteurs comme l'un des premiers bâtons de comptage. L'astronomie permet de constituer une cosmogonie. Les travaux du français André Leroi-Gourhan, spécialiste de la technique, explorent les évolutions à la fois biopsychiques et techniques de l'homme préhistorique. Selon lui, « les techniques s’enlèvent dans un mouvement ascensionnel foudroyant », dès l'acquisition de la station verticale, en somme très tôt dans l'histoire de l'homme.

Mésopotamie Les premières traces d'activités scientifiques datent des civilisations humaines du néolithique où se développent commerce et urbanisation. Ainsi, pour André Pichot, dans La Naissance de la science, la science naît en Mésopotamie, vers - 3500, principalement dans les villes de Sumer et d'Élam. Les premières interrogations sur la matière, avec les expériences d'alchimie, sont liées aux découvertes des techniques métallurgiques qui caractérisent cette période. La fabrication d'émaux date ainsi de - 2000. Mais l'innovation la plus importante provient de l'invention de l'écriture cunéiforme (en forme

de clous), qui, par les pictogrammes, permet la reproduction de textes, la manipulation abstraite de concepts également. La numération est ainsi la première méthode scientifique à voir le jour, sur une base 60 gesh » en mésopotamien), permettant de réaliser des calculs de plus en plus complexes, et ce même si elle reposait sur des moyens matériels rudimentaires. L'écriture se perfectionnant (période dite « akadienne »), les sumériens découvrent les fractions ainsi que la numération dite « de position », permettant le calcul de grands nombres. Le système décimal apparaît également, via le pictogramme du zéro initial, ayant la valeur d'une virgule, pour noter les fractions. La civilisation mésopotamienne aboutit ainsi à la constitution des premières sciences telles : la métrologie, très adaptée à la pratique, l'algèbre (découvertes de planches à calculs permettant les opérations de multiplication et de division, ou « tables d'inverses » pour cette dernière ; mais aussi des puissances, racines carrées, cubiques ainsi que les équations du premier degré, à une et deux inconnues), la géométrie (calculs de surfaces, théorèmes), l'astronomie enfin (calculs de mécanique céleste, prévisions des équinoxes, constellations, dénomination des astres). La médecine a un statut particulier ; elle est la première science « pratique », héritée d'un savoir-faire tâtonnant.

« pratique », héritée d'un savoir-faire tâtonnant. Une tablette d'argile en écriture cunéiforme Les

Une tablette d'argile en écriture cunéiforme

Les sciences étaient alors le fait des scribes, qui, note André Pichot, se livraient à de nombreux « jeux numériques » qui permettaient de lister les problèmes. Cependant, les sumériens ne pratiquaient pas la démonstration. Dès le début, les sciences mésopotamiennes sont assimilées à des croyances,

comme l'astrologie ou la mystique des nombres, qui deviendront des pseudo-sciences ultérieurement. L'histoire de la science étant très liée à celle des techniques, les premières inventions témoignent de l'apparition d'une pensée scientifique abstraite. La Mésopotamie crée ainsi les premiers instruments de mesure, du temps et de l'espace (comme les gnomon, clepsydre, et polos). Si cette civilisation a joué un rôle majeur, elle n'a pas cependant connu la rationalité puisque celle-ci « n'a pas encore été élevée au rang de principal critère de vérité, ni dans l'organisation de la pensée et de l'action, ni a fortiori, dans l'organisation du monde ».

Egypte pharaonique L'Égypte antique va développer l'héritage préscientifique mésopotamien. Cependant, en raison de son unité culturelle spécifique, la civilisation égyptienne conserve « une certaine continuité dans la tradition [scientifique] » au sein de laquelle les éléments anciens restent très présents. L'écriture des hiéroglyphes permet la représentation plus précise de concepts ; on parle alors d'une écriture idéographique. La numération est décimale mais les Égyptiens ne connaissent pas le zéro. Contrairement à la numération sumérienne, la numération égyptienne évolue vers un système d'écriture des grands nombres (entre 2000 et 1600 av. J.-C.) par « numération de juxtaposition ». La géométrie fit principalement un bond en avant. Les Égyptiens bâtissaient des monuments grandioses en ne recourant qu'au système des fractions symbolisé par l'oeil d'Horus, dont chaque élément représentait une fraction.

, dont chaque élément représentait une fraction. L'oeil Oudjat, ou oeil d'Horus . Dès 2600 av.

L'oeil Oudjat, ou oeil d'Horus.

Dès 2600 av. J.-C., les Égyptiens calculaient correctement la surface d'un rectangle et d'un triangle. Il ne reste que peu de documents attestant l'ampleur des mathématiques égyptiennes ; seuls les papyri de Rhind, (datant de 1800 av. J.-C.), de Kahun, de Moscou et du Rouleau de cuir éclairent les innovations de cette civilisation qui sont avant tout celles des problèmes algébriques (de division, de progression arithmétique, géométrique). Les Égyptiens approchent également la valeur du nombre Pi, en élevant au carré les 8/9es du diamètre, découvrant un nombre équivalant à ≈ 3,1605 (au lieu de ≈ 3,1416). Les problèmes de volume (de pyramide, de cylindre à grains) sont résolus aisément. L'astronomie progresse également : le calendrier égyptien compte 365 jours, le temps est mesuré à partir d'une « horloge stellaire » et les étoiles visibles sont dénombrées. En médecine, la chirurgie fait son apparition. Une théorie médicale se met en place, avec l'analyse des symptômes et des traitements et ce dès 2300 av. J.-C. (le Papyrus Ebers est ainsi un véritable traité médical).

Pour André Pichot, la science égyptienne, comme celle de Mésopotamie avant elle, « est encore engagée dans ce qu'on a appelé « la voie des objets », c'est-à-dire que les différentes disciplines sont déjà ébauchées, mais qu'aucune d'entre elles ne possède un esprit réellement scientifique, c'est-à- dire d'organisation rationnelle reconnue en tant que telle. »

Chine de l’antiquité Les Chinois découvrent également le théorème de Pythagore (que les Babyloniens connaissaient quinze siècles avant l'ère chrétienne). En astronomie, ils identifient la comète de Halley et comprennent la périodicité des éclipses. Ils inventent par ailleurs la fonte du fer. Durant la période des Royaumes combattants, apparaît l'arbalète. En -104, est promulgué le calendrier « Taichu », premier véritable calendrier chinois. En mathématiques, les chinois inventent, vers le IIe siècle av. J.- C., la numération à bâtons. Il s’agit d'une notation positionnelle à base 10 comportant dix-huit symboles, avec un vide pour représenter le zéro, c'est-à-dire la dizaine, centaine, etc. dans ce système de numérotation.

dizaine, centaine, etc. dans ce système de numérotation. La « numération en bâtons » chinoise En

La « numération en bâtons » chinoise

En 132, Zhang Heng invente le premier sismographe pour la mesure des tremblements de terre et est la première personne en Chine à construire un globe céleste rotatif. Il invente aussi l'odomètre. La médecine progresse sous les Han orientaux avec Zhang Zhongjing et Hua Tuo, à qui l'on doit en particulier la première anesthésie générale.

En mathématiques, Sun Zi et Qin Jiushao étudient les systèmes linéaires et les congruences (leurs apports sont généralement considérés comme majeurs). De manière générale, l'influence des sciences chinoises fut considérable, sur l'Inde et sur les pays arabes.

Science en Inde La civilisation dite de la vallée de l'Indus (-3300 à -1500) est surtout connue en histoire des sciences en raison de l'émergence des mathématiques complexes (ou « ganita »).

La numération décimale de position et les symboles numéraux indiens, qui deviendront les chiffres arabes, vont influencer considérablement l'Occident via les arabes et les chinois. Les grands livres indiens sont ainsi traduits au IXe siècle dans les « maisons du savoir » par les élèves d'Al-Khawarizmi, père arabe de l'algorithme. Les Indiens ont également maîtrisé le zéro, les nombres négatifs, les fonctions trigonométriques ainsi que le calcul différentiel et intégral, les limites et séries. Les « Siddhânta » sont le nom générique donné aux ouvrages scientifiques sanskrits.

On distingue habituellement deux périodes de découvertes abstraites et d'innovations technologiques dans l'Inde de l'Antiquité : les mathématiques de l'époque védique (-1500 à -400) et les mathématiques de l'époque jaïniste (-400 à 200).

Logos grec : les prémisses philosophiques de la science

Présocratique Pour l'épistémologue Geoffrey Ernest Richard Lloyd, la méthode scientifique fait son apparition dans la Grèce du VIIe siècle av. J.-C. avec les philosophes dits présocratiques. Appelés « physiologoï » par

Aristote parce qu'ils tiennent un discours rationnel sur la nature, les présocratiques s’interrogent sur les phénomènes naturels, qui deviennent les premiers objets de méthode, et leur cherchent des causes naturelles.

Thalès de Milet (v. 625-547 av. J.-C.) et Pythagore (v. 570-480 av. J.-C.) contribuent principalement à la naissance des premières sciences comme les mathématiques, la géométrie (théorème de Pythagore), l'astronomie ou encore la musique. Dans le domaine de la cosmologie, ces premières recherches sont marquées par la volonté d'imputer la constitution du monde (ou « cosmos ») à un principe naturel unique (le feu pour Héraclite par exemple) ou divin (l'« Un » pour Anaximandre). Les présocratiques mettent en avant des principes constitutifs des phénomènes, les « archè ».

Héraclite. Tableau de Hendrik ter Brugghen Les présocratiques initient également une réflexion sur la théorie

Héraclite. Tableau de Hendrik ter Brugghen

Les présocratiques initient également une réflexion sur la théorie de la connaissance. Constatant que la raison d'une part et les sens d'autre part conduisent à des conclusions contradictoires, Parménide opte pour la raison et estime qu'elle seule peut mener à la connaissance, alors que nos sens nous trompent. Ceux-ci, par exemple, nous enseignent que le mouvement existe, alors que la raison nous enseigne qu'il n'existe pas. Cet exemple est illustré par les célèbres paradoxes de son disciple Zénon. Si Héraclite est d'un avis opposé concernant le mouvement, il partage l'idée que les sens sont trompeurs. De telles conceptions favorisent la réflexion mathématique. Par contre, elles sont un obstacle au développement des autres sciences et singulièrement des sciences expérimentales. Sur

cette question, ce courant de pensée se prolonge, quoique de manière plus nuancée, jusque Platon, pour qui les sens ne révèlent qu'une image imparfaite et déformée des Idées, qui sont la vraie réalité (allégorie de la caverne).

À ces philosophes, s’oppose le courant épicurien. Initié par Démocrite, contemporain de Socrate, il sera développé ultérieurement par Épicure et magnifiquement exposé par le Romain Lucrèce dans De rerum natura. Pour eux, les sens nous donnent à connaître la réalité. La théorie de l'atomiste affirme que la matière est formée d'entités dénombrables et insécables, les atomes. Ceux-ci s’assemblent pour former la matière comme les lettres s’assemblent pour former les mots. Tout est constitué d'atomes, y compris les dieux. Ceux-ci ne s’intéressent nullement aux hommes, et il n'y a donc pas lieu de les craindre. On trouve donc dans l'épicurisme la première formulation claire de la séparation entre le savoir et la religion, même si, de manière moins explicite, l'ensemble des présocratiques se caractérise par le refus de laisser les mythes expliquer les phénomènes naturels, comme les éclipses.

Il faudra attendre Aristote pour aplanir l'opposition entre les deux courants de pensée mentionnés plus haut.

La méthode pré-socratique est également fondée dans son discours, s’appuyant sur les éléments de la rhétorique : les démonstrations procèdent par une argumentation logique et par la manipulation de concepts abstraits, bien que génériques.

Platon et la dialectique Avec Socrate et Platon, qui en rapporte les paroles et les dialogues, la raison : logos, et la connaissance deviennent intimement liés. Le raisonnement abstrait et construit apparaît. Pour Platon, les « Formes » sont le modèle de tout ce qui est sensible, ce sensible étant un ensemble de combinaisons géométriques d'éléments. Platon ouvre ainsi la voie à la « mathématisation » des phénomènes. Les sciences mettent sur la voie de la philosophie, au sens de « discours sur la sagesse » ; inversement, la philosophie procure aux sciences un fondement assuré. L'utilisation de la dialectique, qui est l'essence même de la science complète alors la philosophie, qui a, elle, la primauté de la connaissance discursive (par le discours), ou « dianoia » en grec. Pour Michel Blay : « La méthode dialectique est la seule qui, rejetant successivement les hypothèses, s’élève jusqu'au principe même pour assurer solidement ses conclusions ». Socrate en expose les principes dans le Théétète. Pour Platon, la recherche de la vérité et de la sagesse (la philosophie) est indissociable de la dialectique scientifique, c'est en effet le sens de l'inscription figurant sur le fronton de l'Académie, à Athènes : « Que nul n'entre ici s’il n'est géomètre ».

Mosaïque représentant l'Académie de Platon (Ier siècle)[note 10]. Aristote et la physique C'est surtout avec

Mosaïque représentant l'Académie de Platon (Ier siècle)[note 10].

Aristote et la physique C'est surtout avec Aristote, qui fonde la physique et la zoologie, que la science acquiert une méthode, basée sur la déduction. On lui doit la première formulation du syllogisme et de l'induction. Les notions de « matière », de « forme », de « puissance » et d'« acte » deviennent les premiers concepts de manipulation abstraite. Pour Aristote, la science est subordonnée à la philosophie (c'est une « philosophie seconde » dit-il) et elle a pour objet la recherche des premiers principes et des premières causes, ce que le discours scientifique appellera le causalisme et que la philosophie nomme l'« aristotélisme ». Néanmoins, dans le domaine particulier de l'astronomie, Aristote est à l'origine d'un recul de la pensée par rapport à certains pré-socratiques quant à la place de la terre dans l'espace. À la suite d'Eudoxe de Cnide, il imagine un système géocentrique et considère que le cosmos est fini. Il sera suivi en cela par ses successeurs en matière d'astronomie, jusqu'à Copernic, à l'exception d'Aristarque, qui proposera un système héliocentrique. Il détermine par ailleurs que le vivant est ordonné selon une chaîne hiérarchisée mais sa théorie est avant tout fixiste. Il pose l'existence des premiers principes indémontrables, ancêtres des conjectures mathématiques et logiques. Il décompose les propositions en nom et verbe, base de la science linguistique.

Période alexandrine et Alexandrie à l’époque romaine La période dite « alexandrine » (de -323 à -30) et son prolongement à l'époque romaine sont marqués par des progrès significatifs en astronomie et en mathématiques ainsi que par quelques avancées en physique. La ville égyptienne d'Alexandrie en est le centre intellectuel et les savants d'alors y sont grecs.

centre intellectuel et les savants d'alors y sont grecs. Un fragment des Éléments d'Euclide trouvé à

Un fragment des Éléments d'Euclide trouvé à Oxyrhynque

Le fragment principal de la machine d'Anticythère , un mécanisme à engrenages capable de calculer

Le fragment principal de la machine d'Anticythère, un mécanisme à engrenages capable de calculer la date et l'heure des éclipses solaires et lunaires

Euclide (-325 à -265) est l'auteur des Éléments, qui sont considérés comme l'un des textes fondateurs des mathématiques modernes. Ces postulats, comme celui nommé le « postulat d'Euclide », que l'on exprime de nos jours en affirmant que « par un point pris hors d'une droite il passe une et une seule parallèle à cette droite » sont à la base de la géométrie systématisée.

Les travaux d'Archimède (-292 à -212) sur sa poussée correspondent à la première loi physique connue alors que ceux d'Ératosthène (-276 à -194) sur la circonférence de la terre ou ceux d'Aristarque de Samos (-310 à -240) sur les distances terre-lune et terre-soleil témoignent d'une grande ingéniosité. Apollonius de Perga modélise les mouvements des planètes à l'aide d'orbites excentriques.

Hipparque de Nicée (-194 à -120) perfectionne les instruments d’observation comme le dioptre, le gnomon et l'astrolabe. En algèbre et géométrie, il divise le cercle en 360°, et crée même le premier globe céleste (ou orbe). Hipparque rédige également un traité en 12 livres sur le calcul des cordes (nommé aujourd'hui la trigonométrie). En astronomie, il propose une « théorie des épicycles » qui permettra à son tour l'établissement de tables astronomiques très précises. L'ensemble se révélera largement fonctionnel, permettant par exemple de calculer pour la première fois des éclipses lunaires et solaires. La machine d'Anticythère, un calculateur à engrenages, capable

de calculer la date et l'heure des éclipses, est un des rares témoignages de la sophistication des connaissances grecques tant en astronomie et mathématiques qu'en mécanique et travail des métaux.

Ptolémée d’Alexandrie (85 ap. J.-C. à 165) prolonge les travaux d'Hipparque et d'Aristote sur les orbites planétaires et aboutit à un système géocentrique du système solaire, qui fut accepté dans les mondes occidental et arabe pendant plus de mille trois cents ans, jusqu'au modèle de Nicolas Copernic. Ptolémée fut l’auteur de plusieurs traités scientifiques, dont deux ont exercé par la suite une très grande influence sur les sciences islamique et européenne. L’un est le traité d’astronomie, qui est aujourd’hui connu sous le nom de l’Almageste ; l’autre est la Géographie, qui est une discussion approfondie sur les connaissances géographiques du monde gréco-romain.

Ingénierie et technologies romaines La technologie romaine est un des aspects les plus importants de la civilisation romaine. Cette technologie, en partie liée à la technique de la voûte, probablement empruntée aux Étrusques, a été certainement la plus avancée de l'Antiquité. Elle permit la domestication de l'environnement, notamment par les routes et aqueducs. Cependant, le lien entre prospérité économique de l'Empire romain et niveau technologique est discuté par les spécialistes : certains, comme Emilio Gabba, historien italien, spécialiste de l'histoire économique et sociale de la République romaine, considèrent que les dépenses militaires ont freiné le progrès scientifique et technique, pourtant riche. Pour J. Kolendo, le progrès technique romain serait lié à une crise de la main-d’œuvre, due à la rupture dans la « fourniture » d'esclaves non qualifiés, sous l'empereur Auguste. Les romains auraient ainsi été capables de développer des techniques alternatives. Pour L. Cracco Ruggini, la technologie traduit la volonté de prestige des couches dominantes.

Cependant, la philosophie, la médecine et les mathématiques sont d'origine grecque, ainsi que certaines techniques agricoles. La période pendant laquelle la technologie romaine est la plus foisonnante est le IIe siècle av. J.-C. et le Ier siècle av. J.-C., et surtout à l'époque d'Auguste. La technologie romaine a atteint son apogée au Ier siècle avec le ciment, la plomberie, les grues, machines, dômes, arches. Pour l'agriculture, les Romains développent le moulin à eau. Néanmoins, les savants romains furent peu nombreux et le discours scientifique abstrait progressa peu pendant la Rome antique : « les Romains, en faisant prévaloir les « humanités », la réflexion sur l'homme et l'expression écrite et orale, ont sans doute occulté pour l'avenir des « realita » scientifiques et techniques », mis à part quelques grands penseurs, comme Vitruve ou Apollodore de Damas, souvent d'origine étrangère d'ailleurs. Les romains apportèrent surtout le système de numération romain pour les Unités de mesure romaines en utilisant l'abaque romain, ce qui permet d'homogénéiser le comptage des poids et des distances.

Science au Moyen Age Bien que cette période s’apparente généralement à l'histoire européenne, les avancées technologiques et les évolutions de la pensée scientifique du monde oriental (civilisation arabo- musulmane) et, en premier lieu, celles de l'empire byzantin, qui hérite du savoir latin, et où puisera le monde arabo-musulman, enfin celles de la Chine sont décisives dans la constitution de la « science moderne », internationale, institutionnelle et se fondant sur une méthodologie. La période du Moyen Âge s’étend ainsi de 512 à 1492 ; elle connaît le développement sans précédent des techniques et des disciplines, en dépit d'une image obscurantiste, propagée par les manuels scolaires.

En Europe Les byzantins maîtrisaient l'architecture urbaine et l'admission d'eau ; ils perfectionnèrent également les horloges à eau et les grandes norias pour l'irrigation ; technologies hydrauliques dont la civilisation arabe a hérité et qu'elle a transmis à son tour. L'hygiène et la médecine firent également

des progrès. Les Universités byzantines ainsi que les bibliothèques compilèrent de nombreux traités et ouvrages d'étude sur la philosophie et le savoir scientifique de l'époque.

L'Europe occidentale, après une période de repli durant le Haut Moyen Âge, retrouve un élan culturel et technique qui culmine au XIIe siècle. Néanmoins, du VIIIe siècle au Xe siècle la période dite, en France, de la Renaissance carolingienne permit, principalement par la scolarisation, le renouveau de la pensée scientifique. La scolastique, au XIe siècle préconise un système cohérent de pensée proche de ce que sera l'empirisme. La philosophie naturelle se donne comme objectif la description de la nature, perçue comme un système cohérent de phénomènes (ou pragmata), mus par des « lois ». Le Bas Moyen Âge voit la logique faire son apparition avec l'académie de Port-Royal des Champs et diverses méthodes scientifiques se développer ainsi qu'un effort pour élaborer des modèles mathématiques ou médicaux qui joueront « un rôle majeur dans l'évolution des différentes conceptions du statut des sciences ». D'autre part le monde médiéval occidental voit apparaître une « laïcisation du savoir », concomitant à l'« autonomisation des sciences ».

Dans le monde arabo-musulman Le monde arabo-musulman est à son apogée intellectuelle du VIIIe au XIVe siècle ce qui permet le développement d'une culture scientifique spécifique, d'abord à Damas sous les derniers Omeyyades, puis à Bagdad sous les premiers Abbassides. La science arabo-musulmane est fondée sur la traduction et la lecture critique des ouvrages de l'Antiquité. L'étendue du savoir arabomusulman est étroitement liée aux guerres de conquête de l'Islam qui permettent aux Arabes d'entrer en contact avec les civilisations indienne et chinoise. Le papier, emprunté aux Chinois remplace rapidement le parchemin dans le monde musulman. Le Calife Harun ar-Rachid, féru d'astronomie, crée en 829 à Bagdad le premier observatoire permanent, permettant à ses astronomes de réaliser leurs propres études du mouvement des astres. Abu Raihan al-Biruni, reprenant les écrits d'Ératosthène d'Alexandrie (IIIe siècle av. J.-C.), calcule le diamètre de la Terre et affirme que la Terre tournerait sur elle-même, bien avant Galilée. En 832 sont fondées les Maisons de la sagesse (Baït al-hikma), lieux de partage et de diffusion du savoir.

En médecine, Avicenne (980-1037) rédige une monumentale encyclopédie, le Qanûn. Ibn Nafis décrit la circulation sanguine pulmonaire, et al-Razi recommande l'usage de l'alcool en médecine. Au XIe siècle, Abu-l- Qasim az-Zahrawi (appelé Abulcassis en Occident) écrit un ouvrage de référence pour l'époque, sur la chirurgie.

En mathématiques l'héritage antique est sauvegardé et approfondi permettant la naissance de l'algèbre. L'utilisation des chiffres arabes et du zéro rend possible des avancées en analyse combinatoire et en trigonométrie.

Enfin, la théologie motazilite se développe sur la logique et le rationalisme, inspirés de la philosophie grecque et de la raison (logos), qu'elle cherche à rendre compatible avec les doctrines islamiques.

Sciences en Chine médiévale La Chine de l'Antiquité a surtout contribué à l'innovation technique, avec les quatre inventions principales qui sont : le papier (daté du IIe siècle av. J.-C.), l'imprimerie à caractères mobiles (au IXe siècle), la poudre (la première trace écrite attestée semble être le Wujing Zongyao qui daterait des alentours de 1044) et la boussole, utilisée dès le XIe siècle, dans la géomancie. Le scientifique chinois Shen Kuo (1031-1095) de la Dynastie Song décrit la boussole magnétique comme instrument de navigation.

Maquette d'une cuillère indiquant le sud (appelée sinan ) du temps des Han (206 av.

Maquette d'une cuillère indiquant le sud (appelée sinan) du temps des Han (206 av. J.-C. - 220 ap. J.-C.)

Pour l'historien Joseph Needham, dans Science et civilisation en Chine, vaste étude de dix-sept volumes, la société chinoise a su mettre en place une science innovante, dès ses débuts. Needham en vient même à relativiser la conception selon laquelle la science doit tout à l'Occident. Pour lui, la Chine était même animée d'une ambition de collecter de manière désintéressée le savoir, avant même les universités occidentales.

Les traités de mathématiques et de démonstration abondent comme Les Neuf Chapitres (qui présentent près de 246 problèmes) transmis par Liu Hui (IIIe siècle) et par Li Chunfeng (VIIe siècle) ou encore les Reflets des mesures du cercles sur la mer de Li Ye datant de 1248 étudiés par Karine Chemla et qui abordent les notions arithmétiques des fractions, d'extraction de racines carrée et cubique, le calcul de l'aire du cercle et du volume de la pyramide entre autres. Karine Chelma a ainsi démontré que l'opinion répandue selon laquelle la démonstration mathématique serait d'origine grecque était partiellement fausse, les Chinois s’étant posé les mêmes problèmes à leur époque ; elle dira ainsi : on ne peut rester occidentalo-centré, l'histoire des sciences exige une mise en perspective internationale des savoirs.

Inde des mathématiques médiévales Les mathématiques indiennes sont particulièrement abstraites et ne sont pas orientées vers la pratique, au contraire de celles des Égyptiens par exemple. C'est avec Brahmagupta (598 - 668) et son ouvrage célèbre, le Brahmasphutasiddhanta, particulièrement complexe et novateur, que les différentes facettes du zéro, chiffre et nombre, sont parfaitement comprises et que la construction du système de numération décimal de position est parachevée. L'ouvrage explore également ce que les mathématiciens européens du XVIIe siècle ont nommé la « méthode chakravala », qui est un algorithme pour résoudre les équations diophantiennes. Les nombres négatifs sont également introduits, ainsi que les racines carrées. La période s’achève avec le mathématicien Bhaskara II (1114 - 1185) qui écrivit plusieurs traités importants. À l'instar de Nasir ad-Din at-Tusi (1201 - 1274) il développe en effet la dérivation. On y trouve des équations polynomiales, des formules de

trigonométrie, dont les formules d'addition. Bhaskara est ainsi l'un des pères de l'analyse puisqu'il introduit plusieurs éléments relevant du calcul différentiel : le nombre dérivé, la différentiation et l'application aux extrema, et même une première forme du théorème de Rolle.

Aryabhata

Aryabhata

Mais c'est surtout avec Âryabhata (476 - 550), dont le traité d’astronomie (nommé l’Aryabatîya) écrit en vers aux alentours de 499, que les mathématiques indiennes se révèlent. Il s’agit d'un court traité d'astronomie présentant 66 théorèmes d'arithmétique, d'algèbre, ou de trigonométrie plane et sphérique. Aryabhata invente par ailleurs un système de représentation des nombres fondé sur les signes consonantiques de l'alphasyllabaire sanskrit.

Ces percées seront reprises et amplifiées par les mathématiciens et astronomes de l'école du Kerala, parmi lesquels : Madhava de Sangamagrama, Nilakantha Somayaji, Parameswara, Jyeshtadeva, ou Achyuta Panikkar, pendant la période médiévale du Ve siècle au XVe siècle. Ainsi, le Yuktibhasa ou Ganita Yuktibhasa est un traité de mathématiques et d'astronomie, écrit par l'astronome indien Jyesthadeva, membre de l'école mathématique du Kerala en 1530. Jyesthadeva a ainsi devancé de trois siècles la découverte du calcul infinitésimal par les occidentaux.

Fondements de la science moderne en Europe

Science institutionnalisée C'est au tournant du XIIe siècle, et notamment avec la création des premières universités de Paris (1170) et Oxford (1220) que la science en Europe s’institutionnalisa, tout en conservant une affiliation intellectuelle avec la sphère religieuse. La traduction et la redécouverte des textes antiques grecs, et en premier lieu les Éléments d'Euclide ainsi que les textes d'Aristote, grâce à la civilisation arabo-musulmane, firent de cette période une renaissance des disciplines scientifiques, classées dans le quadrivium (parmi les Arts Libéraux). Les Européens découvrirent ainsi l'avancée des Arabes, notamment les traités mathématiques : Algèbre d'Al-Khwarizmi, Optique d'Ibn al-Haytham ainsi que la somme médicale d'Avicenne. En s’institutionnalisant, la science devint plus ouverte et plus fondamentale, même si elle restait assujettie aux dogmes religieux et qu'elle n'était qu'une branche encore de la philosophie et de l'astrologie. Aux côtés de Roger Bacon, la période fut marquée par quatre autres personnalités qui jetèrent, en Europe chrétienne, les fondements de la science moderne :

Roger Bacon (1214 - 1294) est philosophe et moine anglais. Il jeta les bases de la méthode expérimentale. Roger Bacon admet trois voies de connaissance : l'autorité, le raisonnement et l'expérience. Il rejette donc l'autorité de l'évidence, qui s’appuie sur des raisons extérieures et promeut « L'argument [qui] conclut et nous fait concéder la conclusion, mais il ne certifie pas et il n'éloigne pas le doute au point que l'âme se repose dans l'intuition de la vérité, car cela n'est possible que s’il la trouve par la voie de l'expérience ». Les œuvres de Bacon ont pour but l'intuition de la vérité, c'est-à-dire la certitude scientifique, et cette vérité à atteindre est pour lui le salut. La science procédant de l'âme est donc indispensable.

Robert Grosseteste (env. 1168 - 1253) étudia Aristote et posa les prémices des sciences expérimentales, en explicitant le schéma : observations, déductions de la cause et des principes, formation d'hypothèse(s), nouvelles observations réfutant ou vérifiant les hypothèses enfin. Il développa les techniques d'optique et en fit même la science physique fondamentale (il étudia le comportement des rayons lumineux et formule même la première description de principe du miroir réfléchissant, principe qui permettra l'invention du télescope).

« Réfraction de la lumière » par Robert Grosseteste De natura locorum (XIIIe siècle) Le

« Réfraction de la lumière » par Robert Grosseteste De natura locorum (XIIIe siècle)

Le religieux dominicain Albert le Grand (1193-1280) fut considéré par certains contemporains comme un alchimiste et magicien, néanmoins ses études biologiques permirent de jeter les fondations des disciplines des sciences de la vie. Il mena ainsi l'étude du développement du poulet en observant le contenu d'œufs pondus dans le temps et commenta le premier le phénomène de la nutrition du fœtus. Il établit également une classification systématique des végétaux, ancêtre de la taxonomie. Il décrit également les premières expériences de chimie.

L'Europe sortait ainsi d'une léthargie intellectuelle. L'Église, avait interdit jusqu'en 1234 les ouvrages d'Aristote, accusé de paganisme. Ce n'est qu'avec Saint Thomas d'Aquin que la doctrine aristotélicienne fut acceptée par les papes.

Saint Thomas d'Aquin, théologien, permit de redécouvrir, par le monde arabe, les textes d'Aristote et des autres philosophes grecs, qu'il étudia à Naples, à l'université dominicaine. Cependant, il est surtout connu pour son principe dit de l'autonomie respective de la raison et de la foi. Saint Thomas d'Aquin fut en effet le premier théologien à distinguer, dans sa Somme théologique (1266-1273) la raison (faculté naturelle de penser, propre à l'homme) et la foi (adhésion au dogme de la Révélation). Celle-ci est indémontrable, alors que la science est explicable par l'étude des phénomènes et des causes. L'une et l'autre enfin ne peuvent s’éclairer mutuellement.

Guillaume d'Occam (v. 1285- v. 1349) permit une avancée sur le plan de la méthode. En énonçant son principe de parcimonie, appelé aussi rasoir d'Occam, il procure à la science un cadre épistémologique fondé sur l'économie des arguments. Empiriste avant l'heure, Occam postule que :

« Entia non sunt multiplicanda praeter necessitatem », littéralement « Les entités ne doivent pas être multipliées par-delà ce qui est nécessaire ». Il explique par là qu'il est inutile d'avancer sans preuves et de forger des concepts illusoires permettant de justifier n'importe quoi.

Renaissance et la « science classique »

Renaissance et la « science classique » L'Homme de Vitruve de Leonardo Da Vinci, représentatif de

L'Homme de Vitruve de Leonardo Da Vinci, représentatif de la Renaissance italienne

La Renaissance est une période qui se situe en Europe à la fin du Moyen Âge et au début des Temps modernes. Dans le courant du XVe siècle et au XVIe siècle, cette période permit à l'Europe de se

lancer dans des expéditions maritimes d'envergure mondiale, connues sous le nom de grandes découvertes ; de nombreuses innovations furent popularisées, comme la boussole ou le sextant ; la cartographie se développa, ainsi que la médecine, grâce notamment au courant de l'humanisme. Selon l'historien anglais John Hale, ce fut à cette époque que le mot Europe entra dans le langage courant et fut doté d'un cadre de référence solidement appuyé sur des cartes et d'un ensemble d'images affirmant son identité visuelle et culturelle. La science comme discipline de la connaissance acquit ainsi son autonomie et ses premiers grands systèmes théoriques à tel point que Michel Blay parle du « chantier de la science classique ». Cette période est abondante en descriptions, inventions, applications et en représentations du monde, qu'il importe de décomposer afin de rendre une image fidèle de cette phase historique.

Naissance de la méthode scientifique : Francis Bacon

Naissance de la méthode scientifique : Francis Bacon Francis Bacon Francis Bacon (1561 - 1626) est

Francis Bacon

Francis Bacon (1561 - 1626) est le père de l'empirisme. Il pose le premier les fondements de la science et de ses méthodes. Dans son étude des faux raisonnements, sa meilleure contribution a été dans la doctrine des idoles. D'ailleurs, il écrit dans le Novum Organum (ou « nouvelle logique » par opposition à celle d’Aristote) que la connaissance nous vient sous forme d'objets de la nature, mais que l'on impose nos propres interprétations sur ces objets.

D'après Bacon, nos théories scientifiques sont construites en fonction de la façon dont nous voyons

les objets ; l'être humain est donc biaisé dans sa déclaration d'hypothèses. Pour Bacon, « la science véritable est la science des causes ». S’opposant à la logique aristotélicienne qui établit un lien entre les principes généraux et les faits particuliers, il abandonne la pensée déductive, qui procède à partir des principes admis par l’autorité des Anciens, au profit de l’« interprétation de la nature », où l’expérience enrichit réellement le savoir. En somme, Bacon préconise un raisonnement et une méthode fondés sur le raisonnement expérimental : « L'empirique, semblable à la fourmi, se contente d'amasser et de consommer ensuite ses provisions. Le dogmatique, telle l'araignée ourdit des toiles dont la matière est extraite de sa propre substance. L'abeille garde le milieu ; elle tire la matière première des fleurs des champs, puis, par un art qui lui est propre, elle la travaille et la

digère. (

de ses deux facultés : l'expérimentale et la rationnelle, union qui n'a point encore été formée ».

)

Notre plus grande ressource, celle dont nous devons tout espérer, c'est l'étroite alliance

Pour Bacon, comme plus tard pour les scientifiques, la science améliore la condition humaine. Il expose ainsi une utopie scientifique, dans la Nouvelle Atlantide (1627), qui repose sur une société dirigée par « un collège universel » composé de savants et de praticiens.

De « l’imago mundi » à l’astronomie

de praticiens. De « l’imago mundi » à l’astronomie Représentation de la mécanique céleste au sein

Représentation de la mécanique céleste au sein du système de Nicolas Copernic

Directement permise par les mathématiques de la Renaissance, l'astronomie s’émancipe de la mécanique aristotélicienne, retravaillée par Hipparque et Ptolémée. La théologie médiévale se fonde quant à elle, d'une part sur le modèle d'Aristote, d'autre part sur le dogme de la création biblique du monde. C'est surtout Nicolas Copernic, avec son ouvrage De revolutionibus (1543) qui met fin au

modèle aristotélicien de l'immuabilité de la Terre. Sa doctrine a permis l'instauration de l'héliocentrisme : « avec Copernic, et avec lui seul, s’amorce un bouleversement dont sortiront l'astronomie et la physique modernes » explique Jean-Pierre Verdet, Docteur ès sciences. Repris et développé par Georg Joachim Rheticus, l'héliocentrisme sera confirmé par des observations, en particulier celles des phases de Vénus et de Jupiter par Galilée (1564 - 1642), qui met par ailleurs au point une des premières lunettes astronomiques, qu'il nomme « télescope ». Dans cette période, et avant que Galilée n'intervienne, la théorie de Copernic reste confinée à quelques spécialistes, de sorte qu'elle ne rencontre que des oppositions ponctuelles de la part des théologiens, les astronomes restant le plus souvent favorables à la thèse géocentrique. Néanmoins, en 1616, le Saint-Office publie un décret condamnant le système de Copernic et mettant son ouvrage à l'index. En dépit de cette interdiction, « Galilée adoptera donc la cosmologie de Copernic et construira une nouvelle physique avec le succès et les conséquences que l'on sait », c'est-à-dire qu'il permettra la diffusion des thèses héliocentriques. Kepler dégagera les lois empiriques des mouvements célestes alors que Huygens décrira la force centrifuge. Newton unifiera ces approches en découvrant la gravitation universelle.

ces approches en découvrant la gravitation universelle . Portrait de Galilée Le danois Tycho Brahe observera

Portrait de Galilée

Le danois Tycho Brahe observera de nombreux phénomènes astronomiques comme une nova et fondera le premier observatoire astronomique, « Uraniborg ». Il y fit l'observation d'une comète en 1577. Johannes Kepler, l'élève de Brahe qu'il rencontre en 1600, va, quant à lui, amorcer les premiers calculs à des fins astronomiques, en prévoyant précisément un lever de Terre sur la Lune et en

énonçant ses « trois lois » publiées en 1609 et 16l9. Avec Huygens la géométrie devient la partie centrale de la science astronomique, faisant écho aux mots de Galilée se paraphrasant par l'expression : « le livre du monde est écrit en mathématique ».

Avec tous ces astronomes, et en l'espace d'un siècle et demi (jusqu'aux Principia de Newton en 1687), la représentation de l'univers passe d'un « monde clos à un monde infini » selon l'expression d'Alexandre Koyré.

De l’alchimie à la chimie Art ésotérique depuis l'Antiquité, l'alchimie est l'ancêtre de la physique au sens d'observation de la matière. Selon Serge Hutin, docteur ès Lettres spécialiste de l'alchimie, les « rêveries des occultistes » bloquèrent néanmoins le progrès scientifique, surtout au XVIe siècle et au XVIIe siècle. Il retient néanmoins que ces mirages qui nourrirent l'allégorie alchimique ont considérablement influencé la pensée scientifique. L'expérimentation doit ainsi beaucoup aux laboratoires des alchimistes, qui découvrirent de nombreux corps que répertoriés plus tard par la chimie : l'antimoine, l'acide sulfurique ou le phosphore par exemple. Les instruments des alchimistes furent ceux des chimistes modernes, l'alambic par exemple. Selon Serge Hutin, c'est surtout sur la médecine que l'alchimie eut une influence notable, par l'apport de médications minérales et par l'élargissement de la pharmacopée.

En dépit de ces faits historiques, le passage de l'alchimie à la chimie demeure complexe. Pour le chimiste Jean- Baptiste Dumas : « La chimie pratique a pris naissance dans les ateliers du forgeron,

du potier, du verrier et dans la boutique du parfumeur ». « L'alchimie n'a donc pas joué le rôle unique dans la formation de la chimie ; il n'en reste pas moins que ce rôle a été capital ». Pour la conscience populaire, ce sont les premiers chimistes modernes comme Antoine Laurent de Lavoisier surtout, au XVIIIe siècle, qui pèse et mesure les éléments chimiques qui consomment le divorce entre chimie et alchimie. De nombreux philosophes et savants sont ainsi soit à l'origine des alchimistes (Roger Bacon ou Paracelse), soit s’y intéressent, tels Francis Bacon et même, plus tard Isaac Newton. Or, « c'est une erreur de confondre l'alchimie avec la chimie. La chimie moderne est une science qui s’occupe uniquement des formes extérieures dans lesquelles l'élément de la matière

se manifeste [alors que] (

elle est davantage comparable à la botanique. En somme, bien que les deux disciplines soient liées,

par l'histoire et leurs acteurs, la différence réside dans la représentation de la matière : combinaisons chimiques pour la chimie, manifestations du monde inanimé comme phénomènes biologiques pour l'alchimie. Pour Bernard Vidal, l'alchimie a surtout « permis d'amasser une connaissance

L'alchimie ne mélange ou ne compose rien » selon F. Hartmann, pour qui

)

manipulatoire, pratique, de l'objet chimique (

champ d'expériences qui sera nécessaire aux chimistes des siècles futurs ».

)

L'alchimiste a ainsi commencé à débroussailler le

La chimie naît ainsi comme discipline scientifique avec Andreas Libavius (1550 - 1616) qui publie le premier recueil de chimie, en lien avec la médecine et la pharmacie (il classifie les composés chimiques et donne les méthodes pour les préparer) alors que plus tard Nicolas Lémery (1645 - 1715) publiera le premier traité de chimie faisant autorité avec son Cours de chimie, contenant la manière de faire les opérations qui sont en usage dans la médecine, par une méthode facile, avec des raisonnements sur chaque opération, pour l’instruction de ceux qui veulent s’appliquer à cette science en 1675. Johann Rudolph Glauber (1604 - 1668) ou Robert Boyle apportent quant à eux de considérables expérimentations portant sur les éléments chimiques.

Emergence de la physiologie moderne Les découvertes médicales et les progrès effectués dans la connaissance de l’anatomie, en particulier après la première traduction de nombreuses œuvres antiques d’Hippocrate et de Galien aux XVe siècle et XVIe siècle permettent des avancées en matière d'hygiène et de lutte contre la mortalité. André Vésale jette ainsi les bases de l'anatomie moderne alors que le fonctionnement de la

circulation sanguine est découvert par Michel Servet et les premières ligatures des artères sont réalisées par Ambroise Paré.

Diffusion du savoir Le domaine des techniques progresse considérablement grâce à l’invention de l’imprimerie par Johannes Gutenberg au XVe siècle, invention qui bouleverse la transmission du savoir. Le nombre de livres publiés devient ainsi exponentiel, la scolarisation de masse est possible, par ailleurs les savants peuvent débattre par l'intermédiaire des comptes rendus de leurs expérimentations. La science devient ainsi une communauté de savants. Les académies des sciences surgissent, à Londres, Paris, Saint-Pétersbourg et Berlin.

Les journaux et périodiques prolifèrent, tels le Journal des sçavans, Acta Eruditorum, Mémoires de Trevoux etc. mais les domaines du savoir y sont encore mêlés et ne constituent pas encore totalement des disciplines. La science, bien que s’institutionnalisant, fait encore partie du champ de l'investigation philosophique. Michel Blay dit ainsi : « il est très surprenant et finalement très anachronique de séparer, pour la période classique, l'histoire des sciences de l'histoire de la philosophie, et aussi de ce que l'on appelle l'histoire littéraire. »

Finalement la Renaissance permet, pour les disciplines scientifiques de la matière, la création de disciplines et d'épistémologies distinctes mais réunies par la scientificité, elle-même permise par les mathématiques, car, selon l'expression de Pascal Brioist : « la mathématisation d’une pratique conduit à lui donner le titre spécifique de science ». Michel Blay voit ainsi dans les débats autour de concepts clés, comme ceux d'absolu ou de mouvement, de temps et d'espace, les éléments d'une science classique.

, de temps et d' espace , les éléments d'une science classique. Galileo and Viviani, par

Galileo and Viviani, par Tito Lessi (1892)

Les « Lumières » et les grands systèmes scientifiques Au XVIIe siècle, la « révolution scientifique » est permise par la mathématisation de la science. Les universités occidentales avaient commencé à apparaître au XIe siècle, mais ce n'est qu'au cours du XVIIe siècle qu'apparaissent les autres institutions scientifiques, notamment l'Accademia dei Lincei, fondée en 1603 (ancêtre de l'Académie pontificale des sciences), les académies des sciences, les sociétés savantes. Les sciences naturelles et la médecine surtout se développèrent durant cette période.

L’encyclopédie Un second changement important dans le mouvement des Lumières par rapport au siècle précédent trouve son origine en France, avec les Encyclopédistes. Ce mouvement intellectuel défend l’idée qu’il existe une architecture scientifique et morale du savoir. Le philosophe Denis Diderot et le mathématicien d’Alembert publient en 1751 l’Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers qui permet de faire le point sur l'état du savoir de l'époque. L'Encyclopédie devient ainsi un hymne au progrès scientifique.

Avec l'Encyclopédie naît également la conception classique que la science doit son apparition à la découverte de la méthode expérimentale. Jean le Rond D'Alembert explique ainsi, dans le Discours

préliminaire de l'Encyclopédie (1759) que : « Ce n'est point par des hypothèses vagues et arbitraires

que nous pouvons espérer de connaître la nature, c'est (

possible, un grand nombre de phénomènes à un seul qui puisse en être regardé comme le principe

Cette réduction constitue le véritable esprit systématique, qu'il faut bien se garder de prendre pour l'esprit de système »

(

)

par l'art de réduire autant qu'il sera

).

La Planche 1-143 de l'Encyclopédie représentant l'anatomie humaine

Rationalisme et science moderne La période dite des Lumières initia la montée du courant rationaliste, provenant de René Descartes puis des philosophes anglais, comme Thomas Hobbes et David Hume, qui adoptèrent une démarche empirique, mettant l’accent sur les sens et l’expérience dans l’acquisition des connaissances, au détriment de la raison pure. Des penseurs, également scientifiques (comme Gottfried Wilhelm von Leibniz, qui développa les mathématiques et le calcul infinitésimal, ou Emmanuel Kant, le baron d'Holbach, dans son Système de la nature, dans lequel il soutient l’athéisme contre toute conception religieuse ou déiste, le matérialisme et le fatalisme c'est-à-dire le déterminisme scientifique, ou encore Pierre Bayle avec ses Pensées diverses sur la comète) firent de la Raison (avec une majuscule) un culte au progrès et au développement social. Les découvertes d'Isaac Newton, sa capacité à confronter et à assembler les preuves axiomatiques et les observations physiques en un système cohérent donnèrent le ton de tout ce qui allait suivre son exemplaire Philosophiae Naturalis Principia Mathematica. En énonçant en effet la théorie de la gravitation universelle, Newton inaugura l'idée d'une science comme discours tendant à expliquer le monde, considéré comme rationnel car ordonné par des lois reproductibles.

L'avènement du sujet pensant, en tant qu'individu qui peut décider par son raisonnement propre et non plus sous le seul joug des us et coutumes, avec John Locke, permet la naissance des sciences humaines, comme l'économie, la démographie, la géographie ou encore la psychologie.

Naissance des grandes disciplines scientifiques

Naissance des grandes disciplines scientifiques Carl Von Linné La majorité des disciplines majeures de la science

Carl Von Linné

La majorité des disciplines majeures de la science se consolident, dans leurs épistémologies et leurs méthodes, au XVIIIe siècle. La botanique apparaît avec Carl von Linné qui publie en 1753 Species plantarum, point du départ du système du binôme linnéen et de la nomenclature botanique. La chimie naît par ailleurs avec Antoine Laurent de Lavoisier qui énonce en 1778 la loi de conservation de la matière, identifie et baptise l'oxygène. Les sciences de la terre font aussi leur apparition. Comme discipline, la médecine progresse également avec la constitution des examens cliniques et les premières classification des maladies par William Cullen et François Boissier de Sauvages de Lacroix.

XIXe siècle La biologie connaît au XIXe siècle de profonds bouleversements avec la naissance de la génétique, à la suite des travaux de Gregor Mendel, le développement de la physiologie, l'abandon du vitalisme à la suite de la synthèse de l'urée qui démontre que les composés organiques obéissent aux mêmes lois physico-chimique que les composés inorganiques. L'opposition entre science et religion se renforce avec la parution de L'Origine des espèces en 1859 de Charles Darwin. Les sciences humaines naissent, la sociologie avec Auguste Comte, la psychologie avec Charcot et Wilhelm Maximilian Wundt.

Claude Bernard et la méthode expérimentale

Wundt . Claude Bernard et la méthode expérimentale Claude Bernard Claude Bernard (1813-1878) est un médecin

Claude Bernard

Claude Bernard (1813-1878) est un médecin et physiologiste, connu pour l'étude du syndrome de Claude Bernard-Horner. Il est considéré comme le fondateur de la médecine expérimentale. Il rédige la première méthode expérimentale, considérée comme le modèle à suivre de la pratique scientifique. Il énonce ainsi les axiomes de la méthode médicale dans son Introduction à l'étude de la médecine expérimentale (1865) et en premier lieu l'idée que l'observation doit réfuter ou valider la théorie : « La théorie est l’hypothèse vérifiée après qu’elle a été soumise au contrôle du raisonnement et de la critique. Une théorie, pour rester bonne, doit toujours se modifier avec le progrès de la science et demeurer constamment soumise à la vérification et la critique des faits nouveaux qui apparaissent. Si l’on considérait une théorie comme parfaite, et si on cessait de la vérifier par l’expérience scientifique, elle deviendrait une doctrine. »

Révolution industrielle

Révolution industrielle Un des premiers microscopes Les Première et Seconde Révolutions Industrielles sont marquées

Un des premiers microscopes

Les Première et Seconde Révolutions Industrielles sont marquées par de profonds bouleversements économiques et sociaux, permis par les innovations et découvertes scientifiques et techniques. La vapeur, puis l'électricité comptent parmi ces progrès notables qui ont permis l'amélioration des transports et de la production. Les instruments scientifiques sont plus nombreux et plus sûrs, tels le

microscope (à l'aide duquel Louis Pasteur découvre les microbes) ou le télescope se perfectionnent. La physique acquiert ses principales lois, notamment avec James Clerk Maxwell qui, énonce les principes de la théorie cinétique des gaz ainsi que l'équation d'onde fondant l'électromagnétisme. Ces deux découvertes permirent d'importants travaux ultérieurs notamment en relativité restreinte et en mécanique quantique. Il esquisse ainsi les fondements des sciences du XXe siècle, notamment les principes de la physique des particules, à propos de la nature de la lumière.

Une science post-industrielle Tout comme le XIXe siècle, le XXe siècle connaît une accélération importante des découvertes scientifiques. On note l'amélioration de la précision des instruments, qui eux-mêmes reposent sur les avancées les plus récentes de la science ; l'informatique qui se développe à partir des années 1950 et permet un meilleur traitement d'une masse d'informations toujours plus importante et aboutit à révolutionner la pratique de la recherche, est un de ces instruments.

Les échanges internationaux des connaissances scientifiques sont de plus en plus rapides et faciles (ce qui se traduit par des enjeux linguistiques) ; toutefois, les découvertes les plus connues du XXe siècle précèdent la véritable mondialisation et l'uniformisation linguistique des publications scientifiques. En 1971 la firme Intel met au point le premier micro-processeur et en 1976 Apple commercialise le premier ordinateur de bureau. Dans La Société post-industrielle. Naissance d'une société d'Alain Touraine, le sociologue présente les caractéristiques d'une science au service de l'économie et de la prospérité matérielle.

Complexification des sciences De « révolutions scientifiques » en révolutions scientifiques, la science vit ses disciplines se spécialiser. La complexification des sciences explosa au XXe siècle, conjointement à la multiplication des champs d'étude. Parallèlement, les sciences viennent à se rapprocher voire à travailler ensemble. C'est ainsi que, par exemple, la biologie fait appel à la chimie et à la physique, tandis que cette dernière utilise l'astronomie pour confirmer ou infirmer ses théories (c'est l'astrophysique). Les mathématiques deviennent le « langage » commun des sciences ; les applications étant multiples. Le cas de la biologie est exemplaire. Elle s’est divisée en effet en de nombreuses branches : en biologie moléculaire, biochimie, biologie génétique, agrobiologie, etc.

L'informatique, l'innovation majeure du XXe siècle , a apporté une précieuse assistance aux travaux de

L'informatique, l'innovation majeure du XXe siècle, a apporté une précieuse assistance aux travaux de recherche

La somme des connaissances devient telle qu'il est impossible pour un scientifique de connaître parfaitement plusieurs branches de la science. C'est ainsi qu'ils se spécialisent de plus en plus et pour contrebalancer cela, le travail en équipe devient la norme. Cette complexification rend la science de plus en plus abstraite pour ceux qui ne participent pas aux découvertes scientifiques, en dépit de programmes nationaux et internationaux (sous l'égide de l'ONU, avec l'UNESCO - pour United Nations Educational, Scientific and Cultural Organization) de vulgarisation des savoirs.

Développement des sciences humaines Le siècle est également marqué par le développement des sciences humaines. Institutionnalisées dans la séparation que l'université française fait entre les facultés de sciences et médecine d'une part, et celles de lettres, droit et sciences humaines d'autre part, les sciences humaines comportent de nombreuses disciplines comme l'anthropologie, la sociologie, l'ethnologie, l'histoire, la psychologie, la psychanalyse, la linguistique, la morale, l'archéologie, l'économie entre autres.

Ethique et science : l’avenir de la science au XXIe siècle Le XXIe siècle est caractérisé par une accélération des découvertes de pointe, comme la nanotechnologie. Par ailleurs, au sein des sciences naturelles, la génétique promet des changements

sociaux ou biologiques sans précédents. L'informatique est par ailleurs à la fois une science et un instrument de recherche puisque la simulation informatique permet d'expérimenter des modèles toujours plus complexes et gourmands en termes de puissance de calcul. La science se démocratise d'une part : des projets internationaux voient le jour (lutte contre le SIDA et le cancer, programme SETI, astronomie, détecteurs de particules etc.) ; d'autre part la vulgarisation scientifique permet de faire accéder toujours plus de personnes au raisonnement et à la curiosité scientifique.

personnes au raisonnement et à la curiosité scientifique. Une application nanotechnologique L' éthique devient

Une application nanotechnologique

L'éthique devient une notion concomitante à celle de science. Les nanotechnologies et la génétique surtout posent les problèmes de société futurs, à savoir, respectivement, les dangers des innovations pour la santé, et la manipulation du patrimoine héréditaire de l'homme. Les pays avancés technologiquement créent ainsi des organes institutionnels chargé d'examiner le bien-fondé des applications scientifiques. Par exemple, des lois bioéthiques se mettent en place à travers le monde, mais pas partout de la même manière, étant très liées aux droits locaux. En France, le Comité Consultatif National d'Éthique est chargé de donner un cadre légal aux découvertes scientifiques.

Disciplines scientifiques

La science peut être organisée en grandes disciplines scientifiques, notamment : mathématiques, chimie, biologie, physique, mécanique, psychologie, optique, pharmacie, médecine, astronomie, archéologie, économie, sociologie, anthropologie, linguistique. Les disciplines ne se distinguent pas seulement par leurs méthodes ou leurs objets, mais aussi par leurs institutions : revues, sociétés savantes, chaires d'enseignement, ou même leurs diplômes.

Classification des sciences

Plusieurs axes de classification des disciplines existent et sont présentées dans cette section :

axe de la finalité : sciences fondamentales (ex : l'astronomie) / sciences appliquées (ex : le clonage)

axe par nature (catégories). Après un classement par 2, puis par 3 dans l'histoire des sciences, la pratique retient maintenant quatre catégories :

o

les sciences formelles (ou sciences logicoformelles) ;

o

les sciences physico-chimiques ;

o

les sciences du vivant ;

o

les sciences humaines et sociales.

axe méthodologique.

L'anthropocentrisme historique a toujours donné aux sciences humaines une position privilégiée.

On distingue les sciences humaines et sociales des sciences de la nature. Les premières, comme la sociologie, portent sur l'étude des phénomènes liés à l'action humaine, les secondes, comme la physique, portent sur l'étude des phénomènes naturels. Plus récemment, quelques auteurs, comme Herbert Simon, ont évoqué l'apparition d'une catégorie intermédiaire, celle des sciences de l'artificiel, qui portent sur l'étude de systèmes créés par l'homme - artificiels - mais qui présentent un comportement indépendant ou relativement de l'action humaine. Il s’agit par exemple des sciences de l'ingénieur. On peut également distinguer les sciences empiriques, qui portent sur l'étude des phénomènes accessibles par l'observation et l'expérimentation, des sciences logico-formelles, comme la logique ou les mathématiques, qui portent sur des entités purement abstraites. Une autre manière de catégoriser les sciences consiste à distinguer les sciences fondamentales, dont le but premier est de produire des connaissances, des sciences appliquées, qui visent avant tout à appliquer ces connaissances à la résolution de problèmes concrets. D'autres catégorisations existent, notamment la notion de science exacte ou de science dure. Ces dernières catégorisations, bien que très courantes, sont beaucoup plus discutables que les autres, car elles sont porteuses d'un jugement (certaines sciences seraient plus exactes que d'autres, certaines sciences seraient « molles », c'est-à- dire sans véritable consistance…). Il existe aussi une Classification des sciences en poupées russes.

De manière générale, aucune catégorisation n'est complètement exacte ni entièrement justifiable, et les zones

De manière générale, aucune catégorisation n'est complètement exacte ni entièrement justifiable, et les zones épistémologiques entre elles demeurent floues. Pour Robert Nadeau : « on reconnaît

généralement qu’on peut classer [les sciences] selon leur objet ( leur but ».

),

selon leur méthode (

),

et selon

Sciences fondamentales et appliquées Les « sciences fondamentales » visent prioritairement l'acquisition de connaissances nouvelles. Cette classification première repose sur la notion d'utilité : certaines sciences produisent des connaissances en sorte d’agir sur le monde (les sciences appliquées), c’est-à-dire dans la perspective d’un objectif pratique, tandis que d'autres (les sciences fondamentales) visent prioritairement l’acquisition de connaissances nouvelles abstraites. Néanmoins, cette limite est floue. Les mathématiques, la physique ou la biologie peuvent ainsi aussi bien être fondamentales qu'appliquées, selon le contexte. Les sciences appliquées (qu'il ne faut pas confondre avec la technique en tant qu'application de connaissances empiriques) produisent des connaissances en sorte d'agir sur le monde, c'est-à-dire dans la perspective d'un objectif pratique, économique ou industriel.

Un groupe de chercheurs travaillant sur une expérience Certaines disciplines restent cependant plus ancrées dans

Un groupe de chercheurs travaillant sur une expérience

Certaines disciplines restent cependant plus ancrées dans un domaine que dans un autre. La cosmologie est par exemple une science exclusivement fondamentale. L'astronomie est également une discipline qui relève dans une grande mesure de la science fondamentale. La médecine, la pédagogie ou l'ingénierie sont au contraire des sciences essentiellement appliquées (mais pas exclusivement). Sciences appliquées et sciences fondamentales ne sont pas cloisonnées. Les découvertes issues de la science fondamentale trouvent des fins utiles (exemple : le laser et son application au son numérique sur CDROM). De même, certains problèmes techniques mènent parfois à de nouvelles découvertes en science fondamentale. Ainsi, les laboratoires de recherche et les chercheurs peuvent faire parallèlement de la recherche appliquée et de la recherche fondamentale. Par ailleurs, la recherche en sciences fondamentales utilise les technologies issues de la science appliquée, comme la microscopie, les possibilités de calcul des ordinateurs par la simulation numérique, par exemple.

Par ailleurs, les mathématiques sont souvent considérées comme autre chose qu'une science, en partie parce que la vérité mathématique n'a rien à voir avec la vérité des autres sciences. L'objet des mathématiques est en effet interne à cette discipline. Ainsi, sur cette base, les mathématiques appliquées souvent perçus davantage comme une branche mathématique au service d'autres sciences (comme le démontrent les travaux du mathématicien Jacques-Louis Lions qui explique : « Ce que j'aime dans les mathématiques appliquées, c'est qu'elles ont pour ambition de donner du monde des systèmes une représentation qui permette de comprendre et d'agir ») seraient bien plutôt sans finalité pratique. A contrario, les mathématiques possèdent un nombre important de branches, d'abord abstraites, s’étant développées au contact avec d'autres disciplines comme les statistiques, la théorie des jeux, la logique combinatoire, la théorie de l'information, la théorie des graphes entre autres exemples, autant de branches qui ne sont pas catalogués dans les mathématiques appliquées mais qui pourtant irriguent d'autres branches scientifiques.

Sciences nomothétiques et idiographiques Un classement des sciences peut s’appuyer sur les méthodes mise en œuvre. Une première

distinction de cet ordre peut être faite entre les sciences nomothétiques et les sciences idiographiques :

les sciences nomothétiques cherchent à établir des lois générales pour des phénomènes susceptibles de se reproduire. On y retrouve la physique et la biologie, mais également des sciences humaines ou sociales comme l'économie, la psychologie ou même la sociologie.

les sciences idiographiques s’occupent au contraire du singulier, de l'unique, du non récurrent. L'exemple de l'histoire montre qu'il n'est pas absurde de considérer que le singulier peut être justiciable d'une approche scientifique.

Wilhelm Windelband C'est à Wilhelm Windelband , philosophe allemand du XIXe siècle , que l'on

Wilhelm Windelband

C'est à Wilhelm Windelband, philosophe allemand du XIXe siècle, que l'on doit la première ébauche de cette distinction, la réflexion de Windelband portant sur la nature des sciences sociales. Dans son Histoire et science de la nature (1894), il soutient que l'opposition entre sciences de la nature et de l'esprit repose sur une distinction de méthode et de « formes d'objectivation ». Jean Piaget

reprendra le vocable de nomothétique pour désigner les disciplines cherchant à dégager des lois ou des relations quantitatives en utilisant des méthodes d'expérimentation stricte ou systématique. Il cite la psychologie scientifique, la sociologie, la linguistique, l'économie et la démographie. Il distingue ces disciplines des sciences historiques, juridiques et philosophiques.

Sciences empiriques et logico-formelles Une catégorisation a été proposée par l'épistémologie, distinguant les « sciences empiriques » et les « sciences logico-formelles ». Leur point commun reste les mathématiques et leur usage dans les disciplines liées ; cependant, selon les mots de Gilles-Gaston Granger, « la réalité n'est pas aussi simple. Car, d'une part, c'est souvent à propos de questions posées par l'observation empirique que des concepts mathématiques ont été dégagés ; d'autre part, si la mathématique n'est pas une science de la nature, elle n'en a pas moins de véritables objets ». Selon Léna Soler, dans son Introduction à l’épistémologie, distingue d’une part les sciences formelles des sciences empiriques, d’autre part les sciences de la natures des sciences humaines et sociale.

les sciences dites empiriques portent sur le monde empiriquement accessible, sensible (accessible par les sens donc). Elles regroupent : les sciences de la nature, qui ont pour objet d'étude les phénomènes naturels ; les sciences humaines, qui ont pour objet d'étude l'Homme et ses comportements individuels et collectifs, passés et présents ;

de leur côté, les sciences logico-formelles (ou sciences formelles) explorent par la déduction, selon des règles de formation et de démonstration, des systèmes axiomatiques. Il s’agit par exemple des mathématiques ou de la logique.

Sciences de la nature et sciences humaines et sociales Selon Gilles-Gaston Granger, il existe une autre sorte d'opposition épistémologique, distinguant d'une part les sciences de la nature, qui ont des objets émanant du monde sensible, mesurables et classables ; d'autre part les sciences de l'homme aussi dites sciences humaines, pour lesquelles l'objet est abstrait. Gilles-Gaston Granger récuse par ailleurs de faire de l'étude du phénomène humain une science proprement dite.

les sciences humaines et sociales sont celles qui ont pour objet d'étude les hommes, les sociétés, leur histoire, leurs cultures, leurs réalisations et leurs comportements,

les sciences de la nature, ou sciences naturelles (« Natural science » en anglais) ont pour objet le monde naturel, la Terre et l'Univers.

Le sens commun associe une discipline à un objet. Par exemple la sociologie s’occupe de la société, la psychologie de la pensée, la physique s’occupe de phénomènes mécaniques, thermiques, la chimie s’occupe des réactions de la matière. La recherche moderne montre néanmoins l’absence de frontière et la nécessité de développer des transversalités ; par exemple, pour certaines disciplines on parle de « physico-chimique » ou de « chimiobiologique », expressions qui permettent de montrer les liens forts des spécialités entre elles. Une discipline est finalement définie par l’ensemble des référentiels qu’elle utilise pour étudier un ensemble d’objets, ce qui forme sa scientificité. Néanmoins, ce critère n'est pas absolu.

Pour le sociologue Raymond Boudon, il n'existe pas une scientificité unique et transdisciplinaire. Il s’appuie ainsi sur la notion d’« airs de famille », notion déjà théorisée par le philosophe Ludwig Wittgenstein selon laquelle il n'existe que des ressemblances formelles entre les sciences, sans pour autant en tirer une règle générale permettant de dire ce qu'est « la science ». Raymond Boudon, dans L’art de se persuader des idées douteuses, fragiles ou fausses explique que le relativisme « s’il est une idée reçue bien installée […], repose sur des bases fragiles » et que, contrairement à ce que prêche Feyerabend, « il n'y a pas lieu de congédier la raison ».

Raisonnement scientifique

Type formel pur Selon Emmanuel Kant, la logique formelle est « science qui expose dans le détail et prouve de manière stricte, uniquement les règles formelles de toute pensée ». Les mathématiques et la logique formalisées composent ce type de raisonnement. Cette classe se fonde par ailleurs sur deux principes constitutifs des systèmes formels : l'axiome et les règles de déduction ainsi que sur la notion de syllogisme, exprimée par Aristote le premier et liée au « raisonnement déductif » (on parle aussi de raisonnement « hypothético-déductif »), qu'il expose dans ses Topiques et dans son traité sur la logique : Les Analytiques. Il s’agit également du type qui est le plus adéquat à la réalité, celui qui a fait le plus ses preuves, par la technique notamment. Le maître-mot du type formel pur est la démonstration logique et non-contradictoire (entendu comme la démonstration qu'on ne pourra dériver dans le système étudié n'importe quelle proposition). En d'autres termes, il ne s’agit pas à proprement parler d'un raisonnement sur l'objet mais bien plutôt d'une méthode pour traiter les faits au sein des démonstrations scientifiques et portant sur les propositions et les postulats.

On distingue ainsi dans ce type deux disciplines fondamentales :

1. la logique de la déduction naturelle ;

2. la logique combinatoire.

Le type formel fut particulièrement développée au XXe siècle, avec le logicisme et la philosophie analytique. Bertrand Russell développe en effet une « méthode atomique » (ou atomisme logique) qui s’efforce de diviser le langage en ses parties élémentaires, ses structures minimales, la phrase simple en somme. Wittgenstein projetait en effet d’élaborer un langage formel commun à toutes les sciences permettant d'éviter le recours au langage naturel, et dont le calcul propositionnel représente l'aboutissement. Cependant, en dépit d'une stabilité épistémologique propre, a contrario des autres types, le type formel pur est également largement tributaire de l'historicité des sciences.

Type empirico-formel

Le modèle de ce type, fondé sur l'empirisme, est la physique. L'objet est ici concret et extérieur, non construit par la discipline (comme dans le cas du type formel pur). Ce type est en fait la réunion de deux composantes :

d'une part il se fonde sur la théorique formelle, les mathématiques (la physique fondamentale par exemple) ;

d'autre part la dimension expérimentale est complémentaire (la méthode scientifique).

Le type empirico-formel progresse ainsi de la théorie donnée comme a priori à l'empirie, puis revient sur la première via un raisonnement circulaire destiné à confirmer ou réfuter les axiomes. Le « modèle » est alors l'intermédiaire entre la théorie et la pratique. Il s’agit d'une schématisation permettant d'éprouver ponctuellement la théorie. La notion de « théorie » est depuis longtemps centrale en philosophie des sciences, mais elle est remplacée, sous l'impulsion empiriste, par celle de modèle, dès le milieu du XXe siècle. L'expérience (au sens de mise en pratique) est ici centrale, selon l'expression de Karl Popper : « Un système faisant partie de la science empirique doit pouvoir être réfuté par l'expérience ».

Expérience démontrant la viscosité du bitume

Expérience démontrant la viscosité du bitume

Parmi les sciences empiriques, on distingue deux grandes familles de sciences : les sciences de la nature et les sciences humaines. Néanmoins, l'empirisme seul ne permet pas, en se coupant de l'imagination, d'élaborer des théories novatrices, fondées sur l'intuition du scientifique, permettant de dépasser des contradictions que la simple observation des faits ne pourrait résoudre.

Il existe néanmoins des débats quant à la nature empirique de certaines sciences humaines, comme l'économie ou l'histoire, qui ne reposent pas sur une méthode totalement empirique, l'objet étant virtuel dans les deux disciplines.

Type herméneutique

pas sur une méthode totalement empirique, l'objet étant virtuel dans les deux disciplines. Type herméneutique

Wilhelm Dilthey

À la conception de l’unité de la science postulée par le positivisme tout un courant de pensée va, à la suite de Wilhelm Dilthey (1833-1911), affirmer l’existence d’une coupure radicale entre les sciences de la nature et les sciences de l’esprit. Les sciences de la nature ne cherchent qu'à expliquer leur objet, tandis que les sciences de l'homme, et l'histoire en particulier, demandent également à comprendre de l'intérieur et donc à prendre en considération le vécu. Ces dernières ne doivent pas adopter la méthode en usage dans les sciences de la nature car elles ont un objet qui lui est totalement différent. Les sciences sociales doivent être l'objet d'une introspection, ce que Wilhelm Dilthey appelle une « démarche herméneutique », c’est-à-dire une démarche d’interprétation des manifestations concrètes de l’esprit humain. Le type herméneutique marque le XXe siècle, avec des auteurs comme Hans-Georg Gadamer qui publia en 1960, Vérité et Méthode qui, s’opposant à l'empirisme tout-puissant, affirme que « la méthode ne suffit pas ».

Scientificité

La connaissance acquise ne peut être qualifié de scientifique que si la scientificité des processus d'obtention a été démontrée.

La « méthode scientifique » (grec ancien méthodos, « poursuite, recherche, plan ») est « l'ensemble des procédés raisonnés pour atteindre un but ; celui-ci peut être de conduire un raisonnement selon des règles de rectitude logique, de résoudre un problème de mathématique, de mener une

expérimentation pour tester une hypothèse scientifique. ». Elle est étroitement liée au but recherché et à l'histoire des sciences. La méthode scientifique suit par ailleurs cinq opérations distinctes :

Expérimentation,

Observation,

Théorie et modèle,

Simulation,

Publication et validation.

La scientificité ne se limite pas à l'observation La scientificité est la qualité des pratiques

La scientificité ne se limite pas à l'observation

La scientificité est la qualité des pratiques et des théories qui cherchent à établir des régularités reproductibles, mesurables et réfutables dans les phénomènes par le moyen de la mesure expérimentale, et à en fournir une représentation explicite.

Plus généralement, c'est le « caractère de ce qui répond aux critères de la science ». De manière générale à toutes les sciences, la méthode scientifique repose sur quatre critères :

1. elle est systématique (le protocole doit s’appliquer à tous les cas, de la même façon) ;

2. elle fait preuve d'objectivité (c'est le principe du « double-aveugle » : les données doivent être contrôlées par des collègues chercheurs - c'est le rôle de la publication) ;

3. elle est rigoureuse, testable (par l'expérimentation et les modèles scientifiques) ;

4. et enfin, elle doit être cohérente (les théories ne doivent pas se contredire, dans une même discipline).

Néanmoins, chacun de ces points est problématique, et les questionnements de l'épistémologie portent principalement sur les critères de scientificité. Ainsi, concernant la cohérence interne aux disciplines, l'épistémologue Thomas Samuel Kuhn bat en brèche ce critère de scientificité, en posant que les paradigmes subissent des « révolutions scientifiques » : un modèle n'est valable tant qu'il n'est pas remis en cause. Le principe d'objectivité, qui est souvent présenté comme l'apanage de la science, est, de même, source d'interrogations, surtout au sein des sciences humaines.

Pour le sociologue de la science Roberto Miguelez : « Il semble bien que l'idée de la science suppose, premièrement, celle d'une logique de l'activité scientifique ; deuxièmement, celle d'une syntaxe du discours scientifique. En d'autres termes, il semble bien que, pour pouvoir parler de la science, il faut

postuler l'existence d'un ensemble de règles - et d'un seul - pour le traitement des problèmes scientifiques - ce qu'on appellera alors « la méthode scientifique » -, et d'un ensemble de règles - et d'un seul - pour la construction d'un discours scientifique ». La sociologie des sciences étudie en effet de plus en plus les critères de scientificité, au sein de l'espace social scientifique, passant d'une vision interne, celle de l'épistémologie, à une vision davantage globale.

Objectifs Les objectifs étant extraordinairement variés, concentrons-nous sur la physique.

Recherche d’un corpus fini et évolution permanente L’histoire de la physique semble montrer qu’il est illusoire de penser que l’on finira par trouver un corpus fini d’équations qu’on ne pourra jamais contredire par expérience. Chaque théorie acceptée à une époque finit par révéler ses limites et est intégrée dans une théorie plus large. La théorie newtonienne de la gravitation est valide dans des conditions où les vitesses sont petites et que les masses mises en jeu sont faibles, mais lorsque les vitesses approchent la vitesse de la lumière ou que les masses (ou de façon équivalente en relativité, les énergies) deviennent importantes, elle doit céder la place à la relativité générale. Par ailleurs, celle-ci est incompatible avec la mécanique quantique lorsque l’échelle d’étude est microscopique et dans des conditions d’énergie exceptionnellement grandes (par exemple au moment du big bang ou au voisinage d’une singularité à l’intérieur d’un trou noir).

La physique théorique trouve donc ses limites dans la mesure où son renouveau permanent vient de l’impossibilité d’atteindre un état de connaissance parfait et sans faille du réel. De nombreux philosophes, dont Emmanuel Kant, ont mis en garde contre toute croyance que la connaissance humaine des phénomènes peut coïncider avec le réel, s’il existe. La physique ne décrit pas le monde, ses conclusions ne portent pas sur le monde lui-même, mais sur le modèle qu’on déduit de quelques paramètres étudiés. Elle est une science exacte en ce que la base des hypothèses et des paramètres considérés conduisent de façon exacte aux conclusions tirées.

La conception moderne de la physique, en particulier depuis la découverte de la mécanique quantique, ne se donne généralement plus comme objectif ultime de déterminer les causes premières des lois physiques, mais seulement d’en expliquer le comment dans une approche positiviste. On pourra aussi retenir l’idée d’Albert Einstein sur le travail du physicien : faire de la physique, c’est comme émettre des théories sur le fonctionnement d’une montre sans jamais pouvoir l’ouvrir.

Recherche de la simplification et l’unification des théories La physique possède une dimension esthétique. En effet, les théoriciens recherchent presque systématiquement à simplifier, unifier et symétriser les théories. Cela se fait par la réduction du nombre de constantes fondamentales (la constante G de la gravitation a intégré sous un même univers gravitationnel les mondes sublunaire et supralunaire), par la réduction de cadres conceptuels auparavant distincts (la théorie de Maxwell a unifié magnétisme et électricité, l’interaction électrofaible a unifié l’électrodynamique quantique avec l’interaction faible et ainsi de suite jusqu’à construction du Modèle Standard de la physique des particules) et enfin par la recherche de structures et représentations appropriées, c’est-à-dire d’objets mathématiques dont les propriétés sont semblables aux propriétés des grandeurs a modélisés, ainsi le formalisme relativiste est nettement plus simple et plus élégant dans le formalisme tensoriel que dans le formalisme qui

sépare explicitement les différentes composantes de l’espace et du temps. La recherche des symétries dans la théorie, outre le fait que par le théorème de Noether elles produisent spontanément des constantes du mouvement (comme l’énergie se conserve quand les équations sont invariantes par une modification de la coordonnée du temps), est un vecteur de beauté des équations et de motivation des physiciens et, depuis le XXe siècle, le moteur principal des développements en physique théorique.

Du point de vue expérimental, la simplification est un principe de pragmatisme. En effet, la mise au point d’une expérience requiert de maîtriser un grand nombre de paramètres physiques afin de créer des conditions expérimentales précisément fixées. La plupart des situations se présentant spontanément dans la nature sont très confuses et irrégulières. Outre des figures exceptionnelles comme l’arc-en-ciel, qui cause un fort étonnement chez le profane, le monde à notre échelle mêle de nombreux principes et théories appartenant à des domaines disjoints du corpus. Les concepts de la physique sont longs à acquérir par les physiciens eux-mêmes. Une certaine préparation du dispositif expérimental permet donc la manifestation d’un phénomène aussi épurée que possible. En sommes, un arc-en-ciel bien contrasté et net, pour prendre une image poétique. Cette exigence expérimentale donne malheureusement un aspect artificiel à la physique, en particulier lors de son enseignement à un jeune public. Paradoxalement, rien ne semble aussi éloigné du cours de la nature qu’une expérience de physique, seule la simplification y est pourtant recherchée. De nombreux efforts ont lieu à notre époque pour mieux étudier et appréhender les phénomènes naturels dans toute leur richesse et leur complexité. Mais les outils et les théories utilisés dans ce but nécessitent d’abord un passage obligé par une approche plus simple et mieux structurée.

Au cours de l’histoire, des théories complexes et peu élégantes d’un point de vue mathématique peuvent être très efficaces et dominer des théories beaucoup plus simple. L’Almageste de Ptolémée, basé sur une figure géométrique simple, le cercle, comportait un grand nombre de constantes dont dépendait la théorie, tout en ayant permis avec peu d’erreur de comprendre le ciel pendant plus de mille ans. Le Modèle Standard décrivant les particules élémentaires comporte également une trentaine de paramètres arbitraires et pourtant jamais aucune théorie n’a été vérifiée expérimentalement aussi précisément. Toutefois, tout le monde s’accorde chez les physiciens pour penser que cette théorie sera sublimée et intégrée un jour dans une théorie plus simple et plus élégante, comme le système ptoléméen a disparu au profit de la théorie keplerienne, puis newtonienne.

Le connu et l’inconnu Les théories physiques modernes ont atteint un haut niveau tant qualitativement en décrivant autant le microscopique que le macroscopique et l’ensemble des phénomènes physiques connus que quantitativement avec une précision exceptionnelle. Toutes les théories macroscopiques, thermodynamique, chimie, physique du solide, mécanique des fluides, etc. reposent sur des fondements microscopiques, la physique quantique, et la physique statistique.

Cela ne signifie pas, évidemment, qu’il n’y ait plus rien à découvrir en physique des solides ou en chimie, par exemple, mais plutôt que l’on s’attend à ne rencontrer que des applications nouvelles ou des effets non encore détectés qui ne remettront pas en question le soubassement microscopique, ni ses lois fondamentales. Citons par exemple dans les découvertes récentes où la recherche est très

active : la supraconductivité haute température, les nanotubes de carbones et le graphène. Dans ces domaines, que l’on qualifiera de connus en ce sens, les problèmes constituent apparemment une extension « horizontale » sans approfondissement essentiel. La liaison directe entre ces problèmes et les fondements est d’ailleurs souvent rendue très difficile par la complexité des questions que l’on se pose, ce qui rend parfois une analyse théorique à partir des fondements pratiquement irréalisable et bien souvent de peu d’intérêt.

Quelles sont donc les frontières actuelles de l’inconnu qui soient clairement marquées ? Il semble

que la liste des principales (pas du tout exhaustive), outres diverses questions comme celles relative à la supraconductivité haute température, se présente ainsi :

Peut-on unifier l’ensemble des interactions électrofaibles et fortes en une seule interaction unitaire ? Peut-on les unifier avec la relativité générale, c’est-à-dire la structure même de l’espace-temps ?

Il demeure des problèmes très difficiles dans les fondements de l’électrodynamique :

) qui semble n’être qu’un électron plus lourd

pourquoi existe-il une particule (le muon, ou

que l’autre ? Peut-on calculer la charge de l’électron ?

Peut-on concilier dans le détail la relativité générale et la mécanique quantique ? Faut-il quantifier la relativité générale, et comment ?

Peut-on, en particulier, comprendre l’univers dans son ensemble à partir des lois actuellement connues de la physique ? En d’autres termes, peut-on reconstituer l’histoire de l’univers (matières, galaxies) à partir d’hypothèses simples et constituer une théorie vérifiable ? Comment se comporte l’univers au tout début du big bang, près de la singularité prédite par la relativité générale ?

Les fondements de la mécanique statistique à partir de la mécanique quantique ne sont pas encore entièrement satisfaisants. En particulier, les phénomènes thermodynamiques irréversibles ouvrent un vaste champ à la recherche. La théorie de la décohérence faisant également le pont entre le monde quantique et le monde classique n’en est encore qu’à ses balbutiements. L’étude de ces questions à profondément renouvelé, ces dernières années, la notion même de déterminisme en mécanique classique.

Il est apparu récemment que notre conception de la mécanique classique, bien que correcte dans ses fondements, avait été trop marquée par les exemples analytiquement calculables et que la plupart des systèmes très complexes développent au cours du temps un comportement quasi aléatoire qui marque le rôle de courbes limites singulières, les attracteurs étranges, qui n’ont pas en général de dimension spatiale entière. Cela en fait des objets qui ne sont ni des courbes, ni des surfaces, ni des volumes, dont une des manifestations la plus remarquable pourrait être le phénomène de la turbulence.

L’accumulation des données nouvelles en astrophysique, essentiellement grâce à l’essor important des instruments scientifiques placés dans des satellites et le développement des techniques adaptatives et interférométriques, multiplie à l’heure actuelle les questions ouvertes. L’une des plus notables étant l’accélération constatée de l’expansion de l’univers.

Enfin, et c’est là le plus grand problème, comment la vie s’insère-t-elle dans le cadre de la physique ?

III. La méthode scientifique

III.1. La méthode

Théorie et expérience

Les physiciens observent, mesurent et modélisent les comportements et les interactions de la matière à travers l’espace et le temps de façon à faire émerger des lois générales quantitatives. Le temps, défini par la durée, l’intervalle et la construction corrélative d’échelles, et l’espace, ensemble des lieux où s’opère le mouvement et l’être ou l’amas matériel, c’est-à-dire la particule, la molécule ou le grain, le corps de matière,… ou encore l’opérateur se positionnent à un instant donné, sont des faits réels constatés, transformés en entités mathématiques abstraites et physiques mesurables pour être intégrées logiquement dans le schéma scientifique. Ce n’est qu’à partir de ces constructions qu’il est possible d’élaborer des notions secondaires à valeurs explicatives. Ainsi l’énergie, une description d’états abstraite, un champ de force ou une dimension fractale peuvent caractériser des « phénomènes physiques » variés. La métrologie est ainsi une branche intermédiaire capitale de la physique, que nous verrons plus loin.

Une théorie ou un modèle, appelé schéma une fois patiemment étayé par de solides expériences et vérifié jusqu’en ses ultimes conséquences logiques, est un ensemble conceptuel formalisé mathématiquement, dans lequel des paramètres physiques qu’on suppose indépendants (charge électrique, énergie et temps, par exemple) sont exprimés sous forme de variables (q, E et t) et mesurés avec des unités appropriées (coulomb, joule et seconde). La théorie relie ces variables par

une ou plusieurs équations (par exemple, quantitative le résultat d’expériences.

). Ces relations permettent de prédire de façon

Une expérience est un protocole matériel permettant de mesurer certains phénomènes dont la théorie donne une représentation conceptuelle. Il est illusoire d’isoler une expérience de la théorie associée. Le physicien ne mesure évidemment pas les choses au hasard. Il faut qu’il ait à l’esprit l’univers conceptuel d’une théorie. Aristote n’a jamais pensé calculer le temps que met une pierre lâchée pour atteindre le sol, simplement parce que sa conception du monde sublunaire n’envisageait pas une telle quantification. Cette expérience a dû attendre Galilée pour être faite. Un autre exemple d’expérience dictée nettement par un cadre conceptuel théorique est la découverte des quarks dans le cadre de la physique des particules. Le physicien des particules Gell-Mann a remarqué que les particules soumises à l’interaction forte se répartissaient suivant une structure mathématique élégante (ou plutôt, ce sont certaines de leurs propriétés qui se répartissaient comme tel), mais que trois positions fondamentales (au sens mathématique de la théorie des représentations) de cette structure n’étaient pas réalisés. Il postula donc l’existence de particules plus fondamentales (au sens physique) que les protons et les neutrons. Des expériences permirent par la suite, en suivant cette théorie, de mettre en évidence leur existence. Parmi la multitude infinie des possibilités expérimentales, il est toujours utile de pouvoir suivre un guide.

Bien entendu, des expériences sont également menées pour d’autres raisons. Par exemple, l’étude des propriétés d’un nouveau matériau original récemment synthétisé. L’observation attentive d’un phénomène physique jusque-là négligé ou récemment mis en évidence. Etc.

Inversement, des expériences fines ou nouvelles ne coïncident pas toujours avec la théorie. Elles peuvent :

Soit remettre en cause la théorie, comme ce fut le cas du corps noir et des représentations de la lumière qui provoquent l’avènement de la mécanique quantique et des relativités restreinte et générale, de façon analogue à l’ébranlement des fondements du vitalisme en chimie par la synthèse de matière organique directement à partir de substances minérales ou l’effondrement de la génération spontanée en biologie suite aux expériences de Pasteur.

Ou bien ne pas s’intégrer dans les théories acceptées. L’exemple de la découverte de Neptune est éclairant à ce titre. Les astronomes pouvaient mesurer la trajectoire d’Uranus mais la théorie de Newton donnait une trajectoire différente de celle constatée. Pour maintenir la théorie, Urbain Le Verrier et, indépendamment, John Adams postulèrent l’existence d’une nouvelle planète et, d’après cette hypothèse et en utilisant la théorie, prédirent sa position. L’astronome allemand Johann Gottfried Galle vérifia en septembre 1846 que les calculs de Le Verrier et Adams étaient bons en observant Neptune à l’endroit prédit. Il est clair que l’interprétation de la première expérience est tributaire de la théorie et la seconde n’aurait jamais pu avoir lieu sans cette même théorie et son calcul. Un autre exemple est l’existence du neutrino, supposée par Pauli pour expliquer le spectre continu de la désintégration bêta, ainsi que l’apparente non-conservation du moment cinétique.

Il n’est pas non plus exclu que l’expérience révèle des phénomènes nouveaux qui n’étaient tout simplement pas pris en compte dans la théorie. Cela peut mener soit à une amélioration de la théorie, comme cela s’est produit progressivement avec les théories de l’électricité et du magnétisme au fur et à mesure de l’étude des divers phénomènes électriques et magnétiques, soit conduire à une toute nouvelle théorie, complémentaire de ce qui était déjà connu, comme cela fut le cas avec la naissance de la physique nucléaire qui fit suite à la découverte fortuite de la radioactivité lors de l’études de phénomènes de fluorescences.

La recherche La culture de la recherche en physique présente une différence notable avec celle des autres sciences en ce qui concerne la séparation entre théorie et expérience. Depuis le XXe siècle, la majorité des physiciens sont spécialisés soit en physique théorique, soit en physique expérimentale. En revanche, presque tous les théoriciens renommés en chimie ou en biologie sont également des expérimentateurs.

Il y a bien entendu une étroite collaboration entre théoriciens et expérimentateurs dans la mesure où l’un ne peut se développer sans l’autre. La théorie a besoin d’informations et de vérification et l’expérience a besoin d’objectifs et de guides.

La simulation numérique occupe une place très importante dans la recherche en physique et ce depuis les débuts de l’informatique. Elle permet en effet la résolution approchée de problèmes mathématiques qui ne peuvent pas être traités analytiquement. Beaucoup de théoriciens sont aussi des numériciens. Cette approche a aussi son utilité pour simuler des modèles difficiles à expérimenter. Deux exemples sont, à ce titre, assez significatifs. L’étude de la génération du champ magnétique terrestre par le phénomène dynamo dans son noyau métallique liquide est complexe et difficile à résoudre analytiquement. Mais elle est aussi difficile à expérimenter, avec la Terre car il est

évidemment difficile d’aller voir ce qui se passe en son sein, mais aussi en laboratoire car la fabrication d’un dispositif sphérique en rotation avec une force d’attraction centrale est difficilement réalisable. Les modèles numériques sont alors d’un grand secours. Un autre exemple est celui de la recherche sur les explosions thermonucléaires qui ne peut plus se réaliser expérimentalement en raison des traités internationaux interdisant de tels essais. La simulation ici aussi peut palier en partie à ce manque.

La méthode en physique

Dans la présentation de la méthode par laquelle les lois de la physique sont généralement découvertes et établies, on laissera de côté les aspects méthodologiques qui permettent de la codifier ou de l’appliquer. Les progrès du XXe siècle, qui ont souvent abouti à construire des théories très éloignées de l’intuition commune, ont permis de clarifier les processus de la découverte et de la vérification et, en particulier, de rejeter la notion d’induction sur laquelle on avait cru pouvoir se fonder au XIXe siècle, époque où les phénomènes étudiés étaient plus immédiatement représentables.

L’établissement d’une loi passe en général par quatre étapes :

La réunion de données empiriques, le plus souvent quantitatives, grâce à l’expérience. Elles sont parfois reliées par des règles empiriques qui expriment certaines relations entre les données.

L’invention d’un schéma, c’est-à-dire, le plus souvent, d’un objet mathématique qui implique entre les données les relations qui sont observées par l’expérience. A ce stade, il s’agit de la formation d’une hypothèse.

L’analyse détaillée du schéma mathématique conduite de manière à prédire, dans la mesure du possible, de nouvelles relations. En d’autres termes, on détermine les prédictions contenues dans l’hypothèse.

La vérification par l’expérience de ces prédictions. Elle est considérée comme d’autant plus satisfaisante que celles-ci sont en plus grand nombre, d’avantage indépendantes les unes des autres et plus précises.

Ces diverses étapes sont plus ou moins marquées selon le cas, et certaines peuvent parfois être ramenées à l’évidence ou à la banalité, mais l’élaboration des théories complexes ou nouvelles, comme la mécanique quantique ou la relativité restreinte, est clairement passée par tous ces stades. Le temps et l’effort nécessaires à la réalisation de ce travail peuvent varier considérablement selon les questions considérées.

Il est possible, à ce sujet, de faire un certain nombre de remarques. Il semblerait que la méthode indiquée ici soit, dans ses grands traits et même dans des cas élémentaires, très proche de l’acte psychologique qui consiste à « comprendre ». Dans la vie pratique cependant, les schémas mis en jeu sont rarement mathématiques, ils sont plutôt logiques ou consistent en une représentation spatiale.

Dans le même ordre d’idées, le rôle des mathématiques en physique est celui d’une représentation et, très souvent, ces dernières apparaissent donc comme une forme privilégiée du langage.

On désigne parfois le schéma mathématique sous le nom de modèle. Cette expression à l’avantage de souligner son rôle de représentation, mais elle suggère une vulnérabilité qu’il n’est pas toujours utile de faire apparaitre. Il semble préférable de réserver ce terme à un schéma mathématique adéquat qui représente approximativement un nombre limité de faits, et de ne pas l’appliquer aux lois fondamentales. Ainsi, l’électrodynamique quantique recèle tous les aspects connus de la lumière, mais, dans certains cas, il est commun de représenter les effets que l’on discute par le modèle des particules (photons) ou par celui des ondes (champ électromagnétique). Dans une branche de la physique non encore totalement éclaircie, comme celle des particules élémentaires, un modèle est une organisation de certaines données partielles.

Malgré toutes les vérifications, il ne peut y avoir de certitude absolue sur la validité des lois, bien que le nombre énorme, la précision et la diversité des conséquences de la mécanique quantique, par exemple, ne puisse laisser au doute qu’une place minime, et ce d’autant que le formalisme de la mécanique quantique est d’une généralité telle qu’elle peut englober énormément de comportements possibles (ce qui ne signifie pas que d’autres formulations, d’autres interprétations ou bien un nouvel approfondissement soient inconcevables). Il n’existe pas, semble-t-il, d’analyse satisfaisante de ce que peut être le degré de validité (de vérité ?) d’une loi, compte tenu des vérifications faites.

Contrairement aux trois autres, la deuxième étape, celle de l’invention de l’hypothèse, n’est ni rationnelle ni codifiable. Etymologiquement, elle constitue l’acte de génie, c’est-à-dire de génération.

Les seules hypothèses qui apparaissent dans les traités de physique ou qui sortent du cercle des spécialistes sont celles qui en général ont été vérifiées. On connait des exemples d’hypothèses, parfois extrêmement brillantes, qui ont réussi à « expliquer » un grand nombre de données indépendantes, de manière quantitative, et qui ont dû être rejetées au stade de la vérification. Cela comporte deux leçons : tout d’abord qu’il est absolument nécessaire de vérifier une hypothèse par l’examen de conséquences indépendantes des données initiales. Ensuite que la capacité d’imagination de l’homme est très grande. Pour employer un langage actuellement répandu, l’homme est aisément disposé à découvrir des structures dans les faits, et cela de plusieurs manières. La pratique de la physique apprend que, même lorsque les données quantitatives imposent à l’imagination des contraintes particulièrement fortes, il est possible de construire des structures qui sont à première vue satisfaisantes, bien qu’en réalité incorrectes. L’histoire ne garde pas toujours trace de ces errements, mais la physique et même la recherche en général est un jeu de cache-cache où l’on peut errer longtemps dans le labyrinthe des connaissances avant d’émerger à la lumière.

Description détaillée

Entrons d’abord plus en détail dans la méthode scientifique. Il est utile et même important de voir comment s’élabore une théorie scientifique et comment on est arrivé à cette manière de procéder.

Méthode scientifique La méthode scientifique désigne l’ensemble des canons guidant ou devant guider le processus de production des connaissances scientifiques, qu’il s’agisse d’observations, d’expériences, de raisonnements, ou de calculs théoriques. Très souvent, le terme de « méthode » engage l’idée implicite de son unicité, tant auprès du grand public que de certains chercheurs, qui de surcroit la confondent parfois avec la seule méthode hypotético-déductive. L’étude des pratiques des

chercheurs révèle cependant une si grande diversité des démarches et de disciplines scientifiques que l’idée d’une unité de la méthode est rendue très problématique.

Ce constat ne doit cependant pas être entendu comme une forme d’anarchisme épistémologique. Si la question de l’unité de la méthode est problématique (et ce problème sera abordé plus en détail ci- dessous), cela ne remet pas en question l’existence d’une pluralité des canons méthodologiques qui s’imposent aux chercheurs dans leurs pratiques scientifiques.

Découverte et théorie Cette brève introduction situe le processus de base de la méthode scientifique au cours du passage d’une théorie vers une autre. Ce scénario est détaillé dans la Structure des révolutions scientifiques de Thomas Kuhn.

Dans le cadre d’une théorie établie, un chercheur peut observer une anomalie ou explorer de nouvelles conditions expérimentales, par exemple en employant d’autres instruments. Il réalise ses propres expériences et les répète d’abord pour les valider lui-même, puis pour les documenter et les publier. Chacune de ces publications scientifiques constitue un constat élémentaire. C’est la méthode expérimentale, le début d’une découverte scientifique.

expérimentale, le début d’ une découverte scientifique. Lorsque plusieurs chercheurs ont répété des expériences

Lorsque plusieurs chercheurs ont répété des expériences sur un même phénomène avec diverses variations (de conditions expérimentales, d’instruments de mesure, de types de preuves,…) ces constats élémentaires se confirment mutuellement sans qu’il n’y ait de limite précise ni de moment particulier qui les valident, c’est l’appréciation de plusieurs chercheurs qui conduit à un consensus progressif. Les expériences et constats élémentaires forment alors un corps confirmé de preuves de l’existence du phénomène.

A la suite de cette découverte scientifique, ou parallèlement, les chercheurs tentent d’expliquer le phénomène par des hypothèses. Une hypothèse, pour être scientifiquement admissible, doit être

réfutable, c’est-à-dire doit permettre des expérimentations qui la corroborent (la confirment) ou la réfutent (l’infirment).

Ce sont les preuves répétées et confirmées par d’autres chercheurs, diverses et variées, qui confortent une hypothèse. C’est son acceptation par de nombreux chercheurs qui conduit à un consensus sur l’explication du phénomène. L’acceptation de l’hypothèse peut se manifester par la citation de travaux précédents qui servent souvent de repères de validation. Elle devient ainsi la nouvelle théorie consensuelle sur le phénomène considéré et enrichit ou remplace une théorie précédemment admise (ou plusieurs, ou en partie).

Evolution de la notion La méthode scientifique, c’est-à-dire la façon d’accéder à la connaissance, est l’objet de l’attention des philosophes depuis l’Antiquité. Il s’agit, le plus souvent, de décider de la bonne méthode scientifique, qui devient dès lors une notion normative.

Il convient de distinguer ces réflexions philosophiques des pratiques effectives des scientifiques. Cependant, les unes ne sont pas toujours sans influence sur les autres. Les canons édictés par Aristote furent ainsi pendant des siècles au cœur de la « démarche » scientifique (si l’on accepte l’anachronisme que soulignent les guillemets).

Aristote Aristote (384 avant J.C., 332 avant J.C.) est le premier à réfléchir sur l’élaboration d’une méthode scientifique : « Nous estimons posséder la science d’une chose de manière absolue, écrit-il, quand nous croyons que nous connaissons la cause par laquelle la chose est, que nous savons que cette cause est celle de la chose, et qu’en outre il n’est pas possible que la chose soit autre qu’elle n’est. » (Seconds Analytiques I, 2, 71b, 9-11). S’il privilégie l’idée d’une science déductive, il reconnait une place à l’induction : « Ce qui ne veut pas dire que par l’observation répétée de cet événement, nous ne puissions, en poursuivant l’universel, arriver à une démonstration, car c’est d’une pluralité de cas particuliers que se dégage l’universel. » (Seconds Analytiques I, 31, 88a, 4).

Ibn Al Haytham Ibn Al Haytham (965 1039), de son nom latinisé Alhazen, savant musulman considéré comme le père de la méthode scientifique moderne et le premier des scientifiques, crée la science expérimentale en faisant de l’expérience la seule source de connaissance scientifique.

Roger Bacon Roger Bacon (1214 1294), savant anglais réputé, reprend les travaux et la méthodologie d’Alhazen.

René Descartes et Francis Bacon En 1637, Descartes publia le Discours de la méthode qui contient son explication de la méthode scientifique, c’est-à-dire, une démarche à suivre par étapes afin de parvenir à une vérité. En interprétant sa démarche, elle peut être divisée en quatre étapes :

1. Objet évident (sujet de l’étude, problème à résoudre et hypothèses).

2. Diviser un problème le plus possible.

3. Recomposer les résultats.

Il croyait que toutes les connaissances qu’il avait acquises lors de son éducation n’étaient pas

Il croyait que toutes les connaissances qu’il avait acquises lors de son éducation n’étaient pas toutes claires, sûres et utiles. Il prétendait donc que sa méthode, mettant l’accent sur l’approche rationnelle, permettait d’arriver à des connaissances ayant ces caractéristiques. En d’autres mots, arriver à une vérité absolue (expliquer un phénomène, comprendre son fonctionnement, etc.) Le Discours de la méthode fut l’un des ouvrages majeurs de la Renaissance.

Conventionnalisme Le conventionnalisme est une doctrine stipulant une séparation fondamentale entre les données de

Conventionnalisme Le conventionnalisme est une doctrine stipulant une séparation fondamentale entre les données de l’intuition et des sens, et les constructions intellectuelles permettant de fonder les théories scientifiques ou mathématiques.

Cette notion a été créée d’abord par H. Poincaré, puis développée par Pierre Duhem et Edouard Le Roy, sous des formes assez différentes, à la frontière du XIXe et du XXe siècle (bien qu’aucun de ces

auteurs n’aie employé le terme de « conventionnalisme »). Elle trouve son origine profonde dans la séparation kantienne entre intuition et concept.

Vérificationnisme Le vérificationnisme est une doctrine qui affirme la validité d’une hypothèse ou d’une théorie après que celle-ci aie put être vérifiée par l’expérience sous sa forme native ou sous la forme de ses conséquences directes.

Réfutationnisme Le réfutationnisme (ou falsificationnisme, ou faillibilisme) est présenté par Karl Popper dans son livre La logique de la découverte scientifique. Il y critique l’inductivisme et le vérificationnisme, qui selon lui ne sont valides ni d’un point de vue logique ni d’un point de vue épistémologique pour produire des connaissances scientifiques fiables.

Il n’est pas dans ses intentions premières de critiquer l’idée reçue de la connaissance scientifique comme connaissance irréfutable, mais sa position revient à renverser ce lieu commun.

Selon Popper, plutôt que de rechercher des propositions vérifiables, le scientifique doit produire des énoncés réfutables. C’est cette réfutabilité qui doit constituer le critère de démarcation entre une hypothèse scientifique et une pseudo-hypothèse. C’est en s’appuyant sur un tel critère que Popper critique le marxisme ou la psychanalyse, qui selon lui ne répondent pas à cette exigence de réfutabilité, ces théories reposant sur des hypothèses ad hoc qui les immuniseraient contre toute critique.

Il remarque ainsi que dans la théorie freudienne, l’opposition entre le principe de plaisir-déplaisir, de réalité, et le principe de compulsion, de répétition, fait qu’aucun comportement humain ne peut être exclu de la théorie, la rendant ainsi irréfutable par quelque moyen d’investigation futur.

C’est sur cette base que Popper développe sa méthode critique, qui consiste à éprouver de toutes les manières possibles les systèmes théoriques.

Pluralisme scientifique Dans Scientific pluralism, Stephen Kellert, Helen Longino et Kenneth Waters expliquent que le pluralisme scientifique est une nouvelle approche qui se définit tout d’abord comme un scepticisme, ou un agnosticisme, à l’égard du monisme scientifique (auquel adhérait, par exemple, le Cercle de Vienne), qui soutient que :

1. Le but de la science est d’établir une description unique, complète et exhaustive du monde naturel qui serait fondée sur un ensemble unique de principes.

2. La nature du monde est telle que, tout au moins en principe, l’on peut le décrire et l’expliquer au moyen de cette description.

3. Il existe, au moins en principe, des méthodes de recherche qui permettent de produire cette description.

4. Les méthodes de recherche doivent être évaluées à l’aune de leur capacité à produire une telle description.

Qu’il n’y ait pas (nécessairement) une seule méthode scientifique et une seule théorie pour accéder à un ensemble unique de principes ne signifie pas qu’il y ait, contrairement à ce que le relativisme radicale avance, autant d’approches et de vérités qu’il y a de points de vue. Le pluralisme scientifique considère qu’il y a des contraintes qui limitent le nombre de schémas de classification et d’explication. (p. xiii).

Contextes de justification et de découverte Hans Reichenbach, qui était proche du positivisme logique, distinguait entre contexte de justification et contexte de découverte. Le contexte de découverte se rapporte à la démarche qui aboutit à proposer un résultat théorique, tandis que le contexte de justification concerne la vérification de la vérité d’une théorie ou d’une hypothèse donnée, indépendamment de la façon dont elle a été obtenue.

Reichenbach écrit qu’il « n’existe pas de règles logiques en termes desquelles une ‘machine à découverte’ pourrait être construite, qui se charge de la fonction créative de génie », signifiant ainsi que seul le contexte de justification peut être justiciable d’une analyse méthodologique, tandis que le contexte de découverte reste hors de portée d’une telle investigation.

Le philosophe des sciences Dominique Lecourt ajoute ainsi « qu’il n’y a pas de méthode scientifique, du moins considérée abstraitement comme un ensemble de règles fixes et universelles régissant l’ensemble de l’activité scientifique » (Lecourt, 1999, article « méthode »).

Cette question de l’unité profonde de la méthode, et donc de la science, est encore aujourd’hui l’objet de discussions. Mais chacun s’accorde à reconnaitre, tant parmi les analystes que les acteurs de la science, qu’il n’existe aucune « recette » générale que suivraient ou devraient suivre les chercheurs pour produire de nouvelles connaissances.

On peut cependant repérer dans l’activité scientifique différentes méthodes applicables selon les situations, tant dans le contexte de justification que dans le contexte de découverte.

Il faut également souligner que la distinction même entre contexte de découverte et contexte de justification est l’objet de critiques. Il offre cependant un cadre conceptuel permettant de penser la méthode scientifique.

Méthodes dans le contexte de justification Les méthodes dans le contexte de justification concernent la distinction du vrai et du faux. La logique retenue est celle de l’implication, dont on peut extraire trois façons dans l’étude du raisonnement : la déduction, l’induction et l’abduction. Nous reviendrons sur ces méthodes.

Méthodes dans le contexte de découverte Les principales méthodes mobilisées dans le contexte de la découverte sont l’expérimentation, la modélisation et aujourd’hui la simulation numérique, qui se retrouvent à des degrés divers dans la plupart des disciplines scientifiques. A ces méthodes générales s’ajoutent des méthodes plus singulières, propres à une pratique scientifique particulière.

Observation L’observation est l’action de suivi attentif des phénomènes, sans volonté de les modifier, à l’aide de moyens d’enquête et d’études appropriés. Les scientifiques y ont recours principalement lorsqu’ils suivent une méthode empirique. C’est par exemple le cas en astronomie ou en physique. Il s’agit d’observer le phénomène ou l’objet sans le dénaturer, l’influencer, ou même interférer avec sa réalité. Certaines sciences prennent en compte l’observation comme un paradigme explicatif à part car influençant le comportement de l’objet observé comme en physique quantique.

L’astronomie est l’une des disciplines scientifiques où l’observation est centrale.

Expérimentation Dans Leviathan et la pompe à air, Hobbes et Boyle entre science et politique (1985, 1989), Shapin et Shaffer analysent la naissance de la méthode expérimentale.

L’expérimentation est également un instrument au service de la découverte. Certaines expériences, dites cruciales, permettent, selon Francis Bacon, d’infirmer ou de confirmer une hypothèse (Novum Organum, livre II, aphorisme 36). Selon cette méthode expérimentale, on imagine une hypothèse avant l’expérience proprement dite, puis on met celle-ci à l’épreuve, afin de la vérifier ou de l’infirmer.

Issue de la physique, étendue à la chimie et d’autres sciences expérimentales, cette méthode a fait l’objet d’un essai d’adaptation à la médecine par Claude Bernard (1866). Or, en ce qui concerne les sciences de la vie, notamment la biologie et la médecine, celles-ci se heurtent au défi d’une multitude de paramètres qu’il est difficile d’isoler, et dont, de surcroît, l’isolation même nous éloigne de la réalité naturelle. Dans toutes les sciences expérimentales, le laboratoire joue en effet un rôle de purification de l’expérience : l’expérimentation se distingue ainsi de l’expérience, en ce que si celle-ci est naturelle (donnant ainsi lieu, en termes de philosophie de la connaissance, aux doctrines empiristes), celle-là est artificielle, ou construite (voir par exemple les expériences de Galilée sur la chute des corps). L’expérimentation requiert une théorie préalable qui puisse permettre de formuler celle-ci.

Ainsi, avant l’expérience proprement dite, on cherche une hypothèse qui pourrait expliquer un phénomène déterminé. On élabore ensuite le protocole expérimental qui permet d’effectuer l’expérience scientifique qui pourra valider, ou non, cette hypothèse. En fonction des résultats de cette expérience, on validera, ou non, l’hypothèse.

Ce schéma, apparemment simple, est demeuré en vigueur dans les sciences expérimentales de Bacon jusqu’au XXe siècle, date à laquelle certains l’ont remis en cause (Pierre Duhem en 1906. En effet, selon l’article célèbre de Quine, Les deux dogmes de l’empirisme, il n’existe aucune « expérience cruciale », qui puisse permettre de confirmer, ou non, un énoncé scientifique. Quine soutient en effet une position holiste, qui ne dénie pas tout rôle à l’expérience, mais considère que celle-ci ne se rapporte pas à un énoncé scientifique, ou hypothèse, en particulier, mais à l’ensemble de la théorie scientifique. Ainsi, à chaque fois qu’une expérience semble apporter un démenti à l’une de nos hypothèses, nous avons en fait toujours le choix entre abandonner cette hypothèse, ou la conserver, et modifier, à la place, un autre de nos énoncés scientifiques. L’expérience ne permet pas,

ainsi, d’infirmer ou de confirmer une hypothèse déterminée mais impose un réajustement de la théorie, dans son ensemble. Et nous avons toujours le choix de procéder au réajustement que nous préférons :

« On peut toujours préserver la vérité de n’importe quel énoncé, quelles que soient les circonstances. Il suffit d’effectuer des réajustements énergiques dans d’autres régions du système. On peut même en cas d’expérience récalcitrante préserver la vérité d’un énoncé situé près de la périphérie, en alléguant une hallucination, ou en modifiant certains des énoncés qu’on appelle lois logiques. Réciproquement […], aucun énoncé n’est à tout jamais à l’abri de la révision. On a été jusqu’à proposer de réviser la loi logique du tiers exclu, pour simplifier la mécanique quantique. »

Précisions que le tiers exclu est un axiome habituellement (mais pas toujours) adopté en logique selon lequel une proposition est soit vraie ou soit fausse.

Modélisation Beaucoup de sciences de la nature (physique, chimie), de la Terre et de l’Univers (notamment :

astrophysique, sismologie, météorologie) reposent en grande partie sur l’utilisation et/ou sur l’élaboration de modèles suivi de leur confrontation avec des observations de phénomènes. L’activité de modélisation consiste à simplifier une réalité complexe pour la décrire et pouvoir utiliser les lois sur les éléments ainsi modélisés. Par exemple, la chute d’une pomme peut être décrite en modélisant la pomme par un point matériel. Il s’agit d’une importante simplification qui élimine le fait que la pomme a une forme, une couleur, une composition chimique, etc., autant d’informations qui ne peuvent être intégrées dans les lois de Newton.

En science de la Terre, la modélisation physique peut consister à utiliser un autre phénomène physique que celui observé, mais qui lui correspondrait suffisamment pour que l’application des lois sur le phénomène modèle décrive avec suffisamment de pertinence le phénomène étudié. Par exemple la chute d’une météorite sur une planète peut être modélisée par la chute d’une bille sur une surface appropriée tel que, par exemple, du sable.

Le modèle n’est pas seulement ce qu’utilise le scientifique, c’est aussi ce que produit le scientifique. Les modèles ne sont pas dans la nature, ils sont construits.

Simulation numérique La simulation est la « reproduction artificielle du fonctionnement d’un appareil, d’une machine, d’un système, d’un phénomène, à l’aide d’une maquette ou d’un programme informatique, à des fins d’étude, de démonstration ou d’explication ». La simulation numérique utilise un programme spécifique ou éventuellement un progiciel plus général, qui génère d’avantage de souplesse et de puissance de calcul. Les simulateurs de vol d’avions par exemple permettent d’entraîner les pilotes. En recherche fondamentale les simulations que l’on nomme aussi modélisations numériques permettent de reproduire des phénomènes complexes, souvent invisibles ou trop ténus, comme la collision de particules.

Analogie l faut entendre « analogie » au sens strict de proportion (A est à B ce que C est à D) ou au sens large de ressemblance, similarité entre êtres ou événements, entre propriétés ou relations ou lois. Certains épistémologues (Hanson) soutiennent que Kepler a fait de grandes découvertes

astronomiques par analogie. Mars a une orbite ellipsoïdale, Mars est une planète typique (on peut observer depuis la Terre ses rétrogradations et son mouvement), donc toutes les planètes font probablement des ellipses. Il y aurait là, non pas une généralisation, mais une analogie : l’hypothèse reliant A (Mars) et les B (planètes) sera du même type que celle reliant les C et les D du fait que les C sont D (Hanson, « La logique de la découverte »).

En effet, une analogie entre plusieurs grandeurs physiques permet de réutiliser les résultats d’un champ scientifique déjà exploré.

Trouver les bonnes analogies n’est en soit rien d’évident car cela nécessite des hypothèses sur le caractère commun de certaines propriétés ou certaines lois. De plus, l’analogie ne porte habituellement que sur une partie des propriétés des analogues et on risque toujours d’aller au-delà et de comparer ce qui n’est pas comparable.

D’une manière générale l’imagination et l’intuition sont utiles. Toutefois il faut prendre garde à deux choses :

Notre intuition est basée sur un certain acquis culturel et scientifique. Pour le profane, cela se résume habituellement à une intuition aristotélicienne ou newtonienne basée sur les comportements observés au quotidien. Or ce quotidien n’est qu’un infime échantillon de l’univers, de l’échelle des grandeurs et des possibilités. Or de ce champ connu, les comportements et les lois sont souvent contre intuitives. Il faut donc être méfiant et toujours accepter que la Nature puisse se comporter différemment de ce à quoi on pourrait s’attendre de bonne foi.

L’imagination ne peut jamais se substituer à l’expérience et l’intuition à la rigueur des raisonnements (généralement mathématiques). Elles peuvent servir de guide dans l’immense foisonnement des données expérimentales, des phénomènes, des lois et des modèles. C’est là que peut se nicher le génie. Mais au final, c’est toujours l’expérience et les raisonnements rigoureux qui doivent avoir le dernier mot en indiquant si l’on est sur la bonne voie ou si on s’est laissé emporter par ses rêves.

Complémentarité entre méthodes analytiques et synthétiques L’étude et la compréhension des phénomènes nécessitent l’utilisation de différentes méthodes de recherche et de réflexion. Les deux grandes méthodes scientifiques, complémentaires, sont l’analyse réductionniste et la synthèse transdisciplinaire systémique.

Analyse réductionniste L’analyse réductionniste consiste à décomposer les systèmes en niveaux d’organisation et en unités élémentaires, les plus petites et les plus simples possibles (c’est du réductionnisme, par décomposition en : structures mécaniques, matériaux, structures cristallines, molécules, atomes, particules élémentaires,…). Puis à chaque niveau d’organisation, chacune de ces unités élémentaires est étudiée en détail par une discipline spécialisée (respectivement, par exemple, la mécanique, la résistance des matériaux, la cristallographie, la chimie, la physique atomique, la physique fondamentale,… Mais d’autres disciplines existent pour ces mêmes niveaux), afin de comprendre sa structure et son fonctionnement. Cette méthode est utilisée dans la plupart des laboratoires scientifiques.

Synthèse transdisciplinaire systémique La synthèse transdisciplinaire systémique consiste à rassembler les données provenant des différentes disciplines et des différents niveaux d’analyse, puis à réaliser une synthèse de toutes ces informations afin d’élaborer des modèles généraux du fonctionnement des systèmes. L’objectif de la synthèse transdisciplinaire systémique est d’aboutir à une compréhension globale du système étudié. Il serait toutefois faux de croire que tout se déroule aussi nettement en deux phases. Souvent, il y a plusieurs étapes et des échanges continuels.

Cette méthode systématique est encore peu utilisée et son développement reste plus théorique que pratique. Actuellement, ces différents niveaux échangent surtout de manière informelle ou à travers des publications, une synthèse globale et organisée ne se réalisant que dans certains grands projets complexes comme, par exemple, le projet ITER de construction d’un réacteur de démonstration de fusion thermonucléaire.

Universalité La méthode évolue dans le temps. Elle évolue également dans l’espace.

Les activités exercées dans les différentes sciences expérimentales sont tellement diverses qu’il

serait vain de chercher à les modéliser. En revanche, les démarches scientifiques, censées créer des connaissances, ont des caractères communs et universels qu’il est possible d’exhiber. Le modèle de la démarche expérimentale comporte deux descriptions complémentaires et indissociables :

La démarche expérimentale passe obligatoirement par trois étapes. Ce sont :

o

Une phase de questionnement.

o

Une phase de recherche de réponse à la question posée.

o

Une phase de validation de la réponse trouvée.

Les champs de validité des réponses trouvées étant limités, la validation ne peut pas se

faire par une confirmation directe, mais par une succession de non-infirmations.

La démarche expérimentale fait obligatoirement intervenir trois domaines :

o

Le domaine « réel » : pour la physique, il s’identifie au monde matériel qui comporte des « objets » participants à des événements dont on veut décrire l’évolution.

o

Le domaine théorique comporte les outils intellectuels forgés pour répondre aux questions : théories, concepts, etc.

o

Le domaine technique comporte les dispositifs expérimentaux, appareils de mesures, etc. Les mesures ou les déterminations d’indicateurs mesurables font partie intégrante de la démarche.

III.2. La philosophie

Physique et réalité

Le degré de raffinement auquel la physique est déjà parvenue, tout autant que l’étendue considérable des connaissances qu’elle recouvre, pose de manière aiguë le problème de la réalité, ou, si l’on préfère, celui de la signification même des connaissances. Comment se fait-il que l’on ait jamais buté contre une contradiction sans la résoudre, que l’on ait jamais rencontré les limites du rationnel, que l’évolution de la physique, malgré la multiplication de ses objets et de ses découvertes, se soit toujours traduite par une synthèse fondée sur des lois moins nombreuses, plus

riches d’applications et plus cohérentes ? Comment se fait-il que le raisonnement mathématique ait tant à dire sur les faits naturels ? Nous présenterons rapidement les réponses qui ont été proposées à ces questions ou plutôt les attitudes auxquelles elles ont donné lieu. Il est naturel de situer cette discussion dans un exposé relatif à la physique, car c’est sans doute là que les questions se posent de la manière la plus nette avec le plus de données.

Parmi les physiciens et les spécialistes de la philosophie des sciences, il semble qu’on puisse distinguer trois positions principales que l’on désignera comme pragmatique, néo-positiviste et réaliste. Bien entendu tout n’est pas toujours aussi tranché et certains physiciens peuvent avoir des idées qui recouvrent partiellement ces différents points de vue.

L’attitude pragmatique

On peut résumer l’attitude pragmatique par la formule bien connue : « la science est l’ensemble des recettes qui réussissent toujours », ce qui revient à rejeter le problème. Cette attitude, que l’on confond quelque fois abusivement avec celle de l’empirisme critique, n’est pas étrangère, aujourd’hui encore, à grand nombre de physiciens, et peut-être à une majorité, qui la font leur comme allant de soi.

Il semblerait pourtant que ce point de vue soit étroitement associé à l’état de la science au XIXe siècle, pré-relativiste et pré-quantique. A l’époque où l’on pouvait, avec Lord Kelvin, représenter tous les phénomènes physiques à l’aide de modèles mécaniques simples, il n’y avait pas de différence essentielle entre le problème de la réalité tel qu’il se pose dans le cadre de la science et tel qu’il apparait dans l’interprétation de l’expérience quotidienne. Ramenant ainsi le premier problème au second, on revenait à une question philosophique, et d’ailleurs métaphysique, très classique. La méfiance étant très grande à l’époque pour ce genre de spéculations, on préférait la rejeter purement et simplement.

Lorsqu’on tient compte des progrès de la connaissance accompli au XXe siècle, et cela au prix d’un éloignement certain des représentations intuitives communes, on voit que les questions posées plus haut ont pris une acuité beaucoup plus vive, alors que la réponse pragmatique simplifiante demeure très en deçà.

L’attitude néo-positiviste

L’attitude néo-positiviste a surtout été soutenue par des philosophes, au premier rang desquels il convient de citer, avec des nuances diverses, Bertrand Russel, Ludwig Wittgenstein et Rudolf Carnap. Elle partage au premier abord un point de vue qui a été longuement développé dans la physique contemporaine, laquelle insiste tout particulièrement sur le rôle de l’observateur, tant en relativité qu’en mécanique quantique. Dans le cas de la relativité, parler de l’observateur revient en fait à spécifier un système de référence particulier, de telle sorte que son rôle n’est qu’apparent. En mécanique quantique, par contre, la description des systèmes étant faite en termes de probabilités, il peut se poser réellement des problèmes selon que l’observateur a ou non reçu une information lui donnant le résultat d’une expérience déjà faite (c’est la source d’un problème classique, souvent qualifié de paradoxe, qui fut proposé par Einstein, Boris Podolsky et Nathan Rosen). Cependant, il semble bien que ce problème soit, à l’intérieur de la mécanique quantique, beaucoup moins essentiel que celui qui se pose à l’ « observateur » envisagé par les néo-positivistes.

En analysant le processus d’acquisition des connaissances et en insistant sur les conditions de rigueur, ces auteurs arrivent à une position de stricte réserve quant à la nature de la réalité. Tout savoir se formule soit en propositions qui se réfèrent à l’expérience (« Nous nous faisons des tableaux de la réalité », Wittgenstein), soit en propositions tautologiques. Ces propositions ne sauraient échapper au langage.

Et ce sont les conditions de rigueur logique dans lesquelles celui-ci se déploie qui feront, en lieu et place de la métaphysique, l’objet de la philosophie. Il semble que l’on puisse résumer cette attitude en disant que, comme elle exige la rigueur, qui est une qualité du raisonnement logique ou mathématique (donc une qualité d’une partie seulement de la démarche physique), elle aboutit à une critique de la notion même de connaissance dans le domaine des sciences de la nature. Les tenants de ce point de vue sont trop bons logiciens pour qu’on les trouve en faute. C’est au mépris de leur attitude que le savant se verra contraint de franchir les frontières de la rigueur s’il veut passer des formulations de la science à un discours sur la réalité.

L’attitude réaliste

L’attitude réaliste consiste à postuler l’existence objective d’un univers ordonné qui obéit à des lois fixes. Cette hypothèse constitue précisément la discontinuité dans la rigueur qu’il faut dépasser pour échapper à l’« autisme » néo-positiviste. Cette attitude est rarement présente chez les spécialistes de la philosophie des sciences, lesquels insistent surtout sur les exigences de rigueur. On la trouve exprimée, par exemple, chez Einstein et chez plusieurs autres fondateurs de la physique contemporaine.

Ce point de vue est souvent, et tout naturellement, considéré comme évident, mais il pose à l’analyse des problèmes qui n’ont été que très peu explorés. En effet, il n’a jamais été établi qu’il soit cohérent. Le problème se présenterait ainsi : si l’univers est ordonné et soumis à des lois, peut-il y avoir, en accord avec ces lois, des êtres pensants qui le comprennent ? En d’autres termes, on sait depuis Alan M. Turing, qu’une machine peut effectuer toutes les opérations logiques, on peut donc se poser la question de bâtir un modèle d’univers (au sens d’un modèle mathématique, éventuellement très simplifié) qui engendrerait en son sein une machine du type de Turing munie de moyens de perception. Les résultats de l’analyse logique de cette machine seraient alors en correspondance (toujours au sens mathématique) avec les processus ayant lieu dans le modèle d’univers. Si un tel modèle, quelque peu réaliste, pouvait être construit, il permettrait peut-être un progrès décisif de la philosophie des sciences et pourrait éclairer profondément le mécanisme de la conscience.

L’approche réaliste, au prix d’un postulat, aboutit à poser ses propres problèmes de cohérence en des termes scientifiques. On notera au passage que de tels problèmes, ramenant une étude de cohérence « métaphysique » à un problème mathématique, s’inspirent des méthodes par lesquelles on justifie l’emploi de certains méta-modèles en logique et dans l’étude des fondements des mathématiques. Cette analogie et ce type nouveau de problèmes ne semblent avoir reçu encore que très peu d’attention.

Le principe d’objectivité

Quelle que soit l’attitude face à la réalité et la manière d’acquérir les connaissances, il reste un substrat commun qui se dégage très simplement.

On admet qu’il existe une certaine réalité physique, à laquelle nous accédons par le biais de l’expérience et du raisonnement et cette réalité est commune à tous. C’est-à-dire qu’une expérience et ses résultats sont accessibles à tout un chacun et toute déduction correcte qui peut en être faite à valeur de vérité commune. C’est le principe d’objectivité.

Ce principe d’objectivité est un principe philosophique sans lequel la science ne saurait se faire car elle en perdrait toute substance. Par exemple si l’on imagine qu’il n’existe aucune réalité tangible, que tout n’est qu’illusion, que rien n’existe ou si l’on imagine qu’il existe une multitude de réalités indépendantes, sans aucun liens, et que chaque individu a sa réalité (de son point de vue, dans sa réalité, l’existence des autres devient une illusion) alors il n’est plus possible d’avoir une base commune pour le savoir et des échanges scientifiques. Même l’attitude pragmatique devient douteuse.

Notons que ces idées sont par essence non réfutables.

Le principe d’objectivité est donc adopté non seulement à cause de l’impossibilité de le réfuter mais aussi, et surtout, parce qu’on ne peut rien faire sans lui ! Une fois admis en tant que tel, la science n’a plus besoin d’une justification philosophique, elle est admise en soi.

Avant ces investigations, la science était conçue comme un corpus de connaissances et de méthodes, objet d’étude de la Philosophie des sciences, qui étudiait le discours scientifique relativement à des postulats ontologiques ou philosophiques, c'est-à-dire non-autonomes en soi. L'épistémologie permettra la reconnaissance de la science et des sciences comme disciplines autonomes par rapport à la philosophie. Les analyses de la science (l'expression de « métascience » est parfois employée) ont tout d’abord porté sur la science comme corpus de connaissance, et ont longtemps relevé de la philosophie. C'est le cas d'Aristote, de Francis Bacon, de René Descartes, de Gaston Bachelard, du cercle de Vienne, puis de Popper, Quine, Lakatos enfin, parmi les plus importants. L’épistémologie, au contraire, s’appuie sur l'analyse de chaque discipline particulière relevant des épistémologies dites « régionales ». Aurel David explique ainsi que « La science est parvenue à se fermer chez elle. Elle aborde ses nouvelles difficultés par ses propres moyens et ne s’aide en rien des productions les plus élevées et les plus récentes de la pensée métascientifique ».

L’attitude des scientifiques vis-à-vis de la philosophie peut même être encore plus dure. Pour le prix Nobel de physique Steven Weinberg, auteur de Le Rêve d'une théorie ultime (1997), la philosophie des sciences est inutile car elle n'a jamais aidé la connaissance scientifique à avancer.

L’accroissement des connaissances

On trouvera dans le figure ci-après, un résumé graphique de l’historique des découvertes.

Il été obtenu en portant le nombre de découvertes dans le tableau des découvertes plus

Il été obtenu en portant le nombre de découvertes dans le tableau des découvertes plus haut en fonction du temps. La courbe a été lissée. Pour préciser la signification de ce graphique, il faut donner les sources utilisées : de 1600 à 1900, les histoires de la physique, de 1900 à nos jours, la liste des conférences Nobel de physique, ainsi que les biographies et les références qui y sont données, la liste des prix Nobel de chimie et, enfin, une analyse de la revue Scientific American pour les découvertes effectuées depuis 1950 environ, qui ne sont pas connues de première main. On s’est efforcé de retenir les mêmes critères au cours des siècles : signaler les découvertes significatives et laisser de côté leur exploitation systématique.

Quelques caractères nets, apparaissant sur cette courbe, sont : une naissance de la physique vers 1600, suivie de deux siècles de progrès réguliers. Entre 1780 et 1800, s’amorce une montée très nette qui aboutit à un nouveau palier pendant la seconde moitié du XIXe siècle. Puis on assiste à l’explosion conceptuelle du début du siècle, associée à la découverte de la mécanique quantique et de ses applications. Le reste de l’histogramme est difficile à analyser : on y voir vraisemblablement une retombée. Celle qui semble marquer il y a une trentaine d’années n’est peut-être qu’un effet de perspective, bien qu’elle puisse aussi marquer un certain achèvement dans l’exploitation des résultats de la mécanique quantique. On remarquera toutefois que le rythme des découvertes reste soutenu.

Il est clair que, contrairement à une opinion très répandue, il n’y a pas actuellement une explosion des connaissances nouvelles en physique. Celle-ci a eu lieu dans les années vingt, tout au moins en ce qui concerne les fondements de la physique, et la période présente marque, au mieux, un palier après une nette décroissance, pour la première fois dans l’histoire de la physique.

Malgré cette décroissance et contrairement à une autre opinion contraire à la précédente et assez répandue aussi, la physique n’est pas morte comme le montre clairement aussi ce graphique. Le rythme des découvertes et des acquisitions de nouvelles connaissances restant plus élevé qu’avant

l’explosion conceptuelle du début du vingtième siècle. La baisse qui a suivi l’explosion des découvertes des années vingt doit être relativisée à l’aulne de cette explosion justement particulièrement exceptionnelle.

L’interprétation de la figure suggère un certain nombre de remarques :

On peut y distinguer trois stades successifs correspondant chacun à l’élaboration de conceptions nouvelles et à leur exploitation. La différence marquée entre le temps qu’il a fallu pour exploiter les conséquences de la mécanique newtonienne et celle de la mécanique quantique serait alors due au nombre beaucoup plus considérable de chercheurs travaillant sur ces questions. Le facteur technologique qui dépend lui-même des avancées de la science, favorise l’exploitation des connaissances, il ne faut donc pas le négliger. La science construit, si l’on peut-dire, ses propres moyens d’accélérer son exploitation. On a par exemple souvent constaté que des découvertes étaient liées à l’amélioration de la qualité et de la précision des instruments de mesure. Amélioration qui découle autant de facteurs sociaux que

d’apports scientifiques permettant le perfectionnement des appareils.

La stabilisation actuelle des connaissances fondamentales devrait amener un effort pédagogique pour les inculquer plus tôt et mieux.

Le nombre des applications pratiques et l’accumulation des données de l’observation ne suivent pas une courbe analogue, mais vont nettement en croissant.

L’explosion des connaissances se poursuit ailleurs, et tout particulièrement en biologie.

Finalement, on peut s’interroger sur l’avenir : y aura-t-il une autre résurgence de la physique ou bien, comme le suggère Eugène Wigner, le sujet deviendra-t-il de plus en plus difficile d’accès, la somme des connaissances qui sont nécessaires pour aborder les problèmes fondamentaux devenant de plus en plus considérable ? Une autre difficulté pourrait être celle des équipements technologiques de plus en plus complexes et couteux pour aborder certains secteurs de la recherche (accélérateurs de particules de plus en plus puissants, déploiement de flottilles de satellites d’observation,…). Ou bien y aura-t-il un changement total de point de vue, qui posera de nouveaux problèmes qu’on ne sait même pas encore formuler ou même imaginer ? Bien que la question se pose certainement, elle n’a pas dépassé jusqu’à présent le stade des spéculations. Même si certains secteurs de la recherche théorique posent des problèmes qui focalisent les efforts actuels et qui feront certainement progresser la recherche, bien malin celui qui pourra prédire l’avenir sans boule de cristal.

Une science exacte

La physique est l’archétype de la science exacte. Il faut voir là une hypothèse fondamentale, qui peut être énoncée de la manière suivante : les phénomènes naturels obéissent à des lois fixes. Plus précisément, il apparait que la réalité peut être décrite et ses processus prédits à l’aide de représentations mathématiques. De telles représentations sont constituées par un objet mathématique plus ou moins complexe qui est mis en correspondance avec la réalité. Ainsi, pour bâtir la dynamique, Newton fait correspondre le mouvement d’un mobile à une représentation

analytique de sa position en fonction du temps

fonction (continuité, dérivabilité). De même, il postule qu’il existe une cause à l’origine du

mouvement, représentée par un vecteur mathématique et appelée force. Au système réel dynamique est ainsi associé un objet mathématique relativement complexe, constitué par

l’ensemble de

( ) et il propose des hypothèses simples sur cette

(

) et de

. A l’intérieur de la représentation mathématique adéquate, les lois de la

physique prennent l’aspect de relations ou d’équations qui gouvernent l’objet mathématique : ainsi

en dynamique on posera

dérivations (peu nous importe la signification exacte de tout cela car ce qui compte ici est le principe

et la façon de procéder). C’est l’existence de telles relations qui donne son importance à la représentation mathématique. De telles représentations font partie de la logique propre du langage, même si elles n’atteignent pas le stade de la formulation mathématique. C’est précisément cette dernière étape qui fait de la physique une science exacte, car elle est capable de prédictions et de vérifications quantitatives.

, où l’accélération est obtenue à partir de

(

) par des

On peut se demander ce qui justifie une telle hypothèse. Il n’est pas du tout évident, a priori, qu’un domaine de la connaissance soit représentable mathématiquement d’une manière féconde. Les raisons de croire en la validité de cette adéquation entre la réalité physique et la représentation mathématique sont les suivantes :

Elle peut être vérifiée avec une précision égale à celle de nos meilleurs instruments, c’est-à- dire, fréquemment, avec des incertitudes relatives inférieures au millionième.

Elle a été confirmée dans des millions d’expériences qui couvrent pratiquement toutes les propriétés de la matière inerte et aucune expérience ne semble, jusqu’à présent, l’avoir contredite.

Les conséquences tirées de l’analyse mathématique de la représentation ont très souvent conduits à la prédiction d’effets inconnus, vérifiés par la suite.

En outre, au cours de l’histoire de la physique, ces représentations ont toujours tendus à s’approfondir. On entend par là, faute d’une meilleure expression, que des aspects nouveaux apparaissent, signes de l’évolution de nos connaissances. Ainsi, un grand nombre de lois couvrant un domaine partiel ont été déduites des lois d’un autre domaine, ce qui a révélé souvent une identité de nature entre les deux : c’est le cas des règles de l’optique qui ont été dérivées des équations de Maxwell, lesquelles gouvernent l’électrodynamique, ce qui a révélé que la lumière était en fait due à un phénomène de vibration du champ électromagnétique. De même, beaucoup de lois empiriques ont pu être reliées à un petit nombre de lois dites fondamentales, et souvent démontrées à partir d’elles. Enfin, à diverses reprises, l’édifice des connaissances a été remis en question (avènement de la relativité, de la mécanique quantique) et, à chaque fois, la représentation mathématique nouvelle ne rejetait pas complètement la précédente, mais elle l’admettait comme une limite bien définie au sens mathématique, valable dans des conditions bien précises. Ainsi, la mécanique newtonienne est la limite de celle de la relativité restreinte lorsque les vitesses mises en jeu sont « petites » par rapport à la vitesse de la lumière.

III.3. Les modes de raisonnement

III.3.1. Déduction

La déduction est un processus de raisonnement qui, partant d’hypothèses, aboutit à des conclusions en suivant un schéma strict d’inférences logiques.

L’archétype de ce type de raisonnement est le syllogisme d’Aristote :

Tous les hommes sont mortels.

Socrate est un homme.

Donc, Socrate est mortel.

La logique formelle a codifié ces règles et a abouti après un développement considérable à considérer de nombreuses logiques différentes (logique « orthodoxe », logique floue, logique modale, logique quantique,…) Si ces différentes logiques peuvent avoir une importance dans certains domaines, en particulier en mathématique, à quelques exceptions près la logique utilisée en physique est relativement simple et orthodoxe. Elle suit des raisonnements du type des syllogismes, des raisonnements du premier et second ordre (utilisant des variables et des quantificateurs du genre « pour tout » ou « il existe »), et quelques raisonnements mathématiques courant tels que le raisonnement par récurrence ou le raisonnement par l’absurde.

En général, un raisonnement en physique, s’il est absolument rigoureux, ne pose pas de difficulté de principe ou de contestation.

On part d’un phénomène pour lequel on essaie d’élaborer une théorie. Dans ce but on imagine un certain nombre d’hypothèses plausibles (sur des considérations physiques, intuitives, analogiques,…) et on applique un raisonnement déductif pour obtenir des conséquences, irréfutables si les hypothèses le sont, que l’on peut confronter à l’expérience.

Notons que si le résultat est faux, l’hypothèse (ou au moins une des hypothèses) est réfutée. Par contre, si le résultat est correct, alors l’hypothèse s’en trouve renforcée mais non pas prouvée. Un grand nombre de vérifications indépendantes tant par plusieurs chercheurs que dans des domaines variés et concernant de nombreuses conséquences, rendent l’hypothèse d’autant plus plausible jusqu’à un certain consensus dont on sait qu’il n’a de validité que « jusqu’à preuve du contraire ».

III.3.2. Induction

L’induction est une généralisation d’une observation ou d’un raisonnement établis à partir de cas singuliers.

Cette méthode de raisonnement est naturelle et difficilement contournable en physique. Ainsi, en observant la chute d’une pomme, le mouvement des planètes, le lancer d’un boulet de canon, peut- on en déduire, comme l’a fait Newton, une loi décrivant l’action de la gravitation. La généralisation de cette loi à l’ensemble des corps massifs, y compris ceux n’ayant pas encore fait l’objet d’une observation, est une induction qui confère à la loi un statut d’universalité. Cette loi étant alors considérées comme valide en toute circonstance jusqu’à preuve, expérimentale, du contraire.

L’induction a ses limites. Un exemple bien connu est celui de l’éther luminifère postulé au XVIIIe siècle. Tous les phénomènes vibratoires connus à cette époque (son, vagues, cordes) étaient des vibrations de nature mécanique d’un milieu sujet à ces vibrations. La lumière ayant des caractères communs avec les vibrations (caractère ondulatoire), il était naturel de postuler l’existence d’un tel milieu appelé alors éther. Comme toujours il est plus difficile de prouver l’inexistence de quelque chose que de prouver son existence. Il fallut près de deux siècles avant de se rendre compte que non seulement l’expérience conduisait à des propriétés contradictoires pour cet hypothétique éther mais

également que les propriétés de la lumière ne nécessitaient pas son existence. La relativité restreinte d’Einstein fut le coup de grâce de l’éther luminifère.

Notons toutefois que l’on ne peut pas considérer l’hypothèse de l’éther comme d’un profond échec de la science dans la mesure où le progrès fonctionne naturellement par échecs et réussites, et d’autre part cette hypothèse a conduit à un très grand nombre d’expériences ayant permis de grandes avancées dans la compréhension de nombreux phénomènes physiques.

La méthode inductive est une méthode probabiliste du type raisonnement bayésien. Plus l’événement, le phénomène ou la propriété considérés se répètent et plus il est probable qu’ils puissent être universel. Cela reste toutefois un jugement subjectif car on n’est jamais à même de calculer la probabilité d’universalité car l’ensemble des lieux, objets, phénomènes ou une réfutation pourrait se nicher est justement l’inconnu auquel s’applique l’induction.

Les exemples de répétitions sont innombrables en physique. Ainsi, les propriétés des atomes étudiées à travers leur spectre se limita initialement aux substances terrestres observées en laboratoire puis s’étendit au Soleil, aux étoiles et jusqu’aux galaxies les plus lointaines. Un autre exemple déjà cité est la gravité où la simple observation de la chute des pommes permet difficilement d’en déduire une loi universelle. Ce n’est que la comparaison avec les autres mouvements : boulets, planètes,… qui permet alors d’en induire une loi générale.

L’étude et la découverte des exceptions doit toujours être gardé à l’esprit lorsque l’on établit une loi sensée être universelle. Par exemple si on observe de nombreux oiseaux, on peut être amenés à en induire la loi « les oiseaux volent »… jusqu’à ce qu’on découvre les manchots et les autruches. De même, l’étude des mouvements de Uranus et de Mercure ont très vite manifestés des écarts aux prédictions issues de la gravitation newtonienne. Les mouvements d’Uranus conduisirent à postuler l’existence d’une planète dont la découverte confirma la validité de l’hypothèse (Neptune). Mercure résista à cette procédure, l’existence de l’hypothétique planète Vulcain ayant échappé aux observations. Cette fois, cette exception s’avéra véritable et conduisit à la relativité générale d’Einstein.

Ces exceptions ne remettent pas nécessairement en cause une théorie ou l’induction qui la soutient mais limite plutôt son caractère d’universalité. On dira : « les oiseaux volent sauf… » ou « la théorie de la gravitation universelle de Newton est valide sauf… [dans certaines conditions] ». Le maintien de l’ancienne théorie se justifiant par des raisons pratiques : il est infiniment plus facile de calculer la trajectoire d’un boulet de canon avec la théorie de Newton qu’avec la relativité générale.

L’expérience a montré que vouloir bâtir la physique uniquement sur le mode de l’induction était insuffisant, les méthodes de déductions partant d’hypothèses plausibles sont aussi nécessaires. La recherche des lois physiques et la construction des théories doit utiliser l’ensemble des méthodes qui sont à notre disposition. Cet idéal basé sur l’induction était surtout propre à la science au XIXe siècle mais l’utilisation exclusive de l’induction dû être abandonné.

La déduction et l’induction se marient très bien. Les résultats issus de la déduction peuvent eux- mêmes subir un induction si on les considère universellement valides jusqu’à preuve du contraire. Et

Une induction peut servir d’hypothèse à un raisonnement déductif, de même que l’étude des exceptions, comme dans l’exemple de Neptune et de Mercure. La pratique scientifique et le raisonnement d’un chercheur passe donc aisément de l’un à l’autre sans même souvent y prêter attention pour peu, bien entendu, qu’il procède de manière prudente (pas d’induction sauvage, voir un ballon rouge ne signifie pas que tous les ballons sont rouges) et rigoureuse (déductions mathématiques).

III.3.3. Abduction

On peut décrire l’abduction comme suit. Supposons que l’on ait un phénomène physique A dont on connait une cause B. L’abduction est une hypothèse qui consiste à supposer que la cause de A est B. C’est l’inférence de recherche de la meilleure explication.

C’est un renversement de l’implication. En effet, il n’est pas exclu que A puisse être provoqué par une autre cause, en l’absence de B. C’est donc à nouveau l’expérience future qui invalidera, confirmera avec une relative certitude ou complètera cette hypothèse. Il n’est pas non plus exclu que l’on découvre que la cause B se produise sans que le phénomène A ne s’ensuive.

C’est donc une hypothèse de relation de cause à effet entre plusieurs phénomènes physiques. Elle est habituellement considérée comme la seule ou la principale source de créativité. Selon le sémioticien et philosophe Charles Sanders Pierce, l’abduction est même le seul mode de raisonnement par lequel on peut aboutir à des connaissances nouvelles. Nous serons plus modérés en notant que l’induction, par l’examen d’un ensemble de phénomènes ou la déduction par le choix d’hypothèses appropriées nécessitent aussi un certain « savoir-faire », une certaine intuition.

Tout processus de recherche procède par abduction, induction et déduction.

Liste des méthodes

Il ne s’agit pas tant ici de décrire un ensemble cohérent et fixe de règles d’élaboration de la

connaissance scientifique, une « recette », que de décrire les différents canons méthodologiques qui participent à cette élaboration. Nous n’entrerons pas ici dans le détail de ces méthodes.

Méthode axiomatique.

o

Méthode critique.

o

Méthode déductive : méthode qui consiste à partir du général pour arriver au particulier.

Méthodes inductives.

o

Méthodes de Mill.

Méthode des différences.

Méthode des variations concomitantes.

Méthode des résidus.

Méthode négative de concordance.

Méthode positive de concordance.

Méthode réunie de concordance et de différence.

o

Méthode inductive-déductive d’Aristote.

Méthodes de test.

o Méthode expérimentale.

Méthodes par hypothèse.

o

Méthode hypothético-déductive.

o

Modèle D-