Vous êtes sur la page 1sur 18

exposé :

1 personne présente l’oeuvre de l’auteur


1 personne présente le texte
1 répondant : 3 questions concernant soit le texte soit l’oeuvre

libido sciendi : désir de connaissance


Le désir de connaissance, que l’on retrouve déjà dans les Vedas, a pris plusieurs
formes au cours de l’histoire : une interrogation du pourquoi des choses, qui engendre des
réponses de plusieurs types, religieux, mythologiques et métaphysiques (en termes donc de
principes). Après la question du pourquoi s’impose alors une autre question, celle du
comment, qui initie la recherche des causes : Vere scire est per causes scire écrivait
Spinoza. Toute idée qui est vraie doit montrer comment quelque chose existe ou s’est
produit, c’est un principe aristotélicien qui enjoint à remonter à la cause première. A la
Renaissance, la science s’émancipe de ses racines métaphysiques avec l’émergence
presque brutale d’une approche mécaniste et expérimentale, et c’est ainsi que la théorie de
la chute des corps de Galilée a succédé à la théorie animiste du mouvement aristotélicien et
de la théorie des quatre éléments. A l’aube de l’ère moderne, notamment avec l’apparition
de la logique moderne et de la linguistique, va se produire une diversification des sciences :
une distinction se crée entre les sciences formelles, les mathématiques et la logique, la
cybernétique, les sciences informatiques, qui sont des sciences qui ne reposent que sur leur
forme et jamais sur l’expérience, et les sciences empiriques telles que la physique, la
chimie, la biologie, la géographie, l’astronomie, et enfin les sciences de l’homme et de la
société, avec la sociologie, la psychologie, la linguistique, l’économie, les sciences
politiques, etc. Progressivement, la science va prendre conscience d’elle-même, de ses
principes, de ses méthodes, et c’est à ce moment-là que l’épistémologie apparaît comme
une étude des sciences qui se distingue sur la gnoséologie et des théories de la
connaissance. Va s’imposer la définition du fait scientifique, la caractérisation des diverses
méthodes scientifiques, des théories et des différentes modalités de raisonnement, avec le
raisonnement déductif, inductif, abductif etc. La déduction se fonde sur des axiomes et ne
produit que des résultats tautologiques, déjà contenus dans les définitions. L’induction, à
l’inverse, part de phénomènes particuliers afin d’arriver à des règles générales, ce qui est la
vision la plus communément adoptée de la démarche scientifique. On la dit synthétique car
elle permet d’accroître la connaissance, là où la déduction est dite analytique. Le
raisonnement abductif consiste à inférer des causes probables à un fait observé : il s’agit
d’établir une cause la plus vraisemblable à un fait et puis d’affirmer à titre d’hypothèse que le
fait en question relève probablement de cette cause, c’est le raisonnement que l’on utilise en
médecine. La réflexion philosophique sur l’épistémologie a pour objet de comprendre la
spécificité de la recherche scientifique.
Qu’est-ce que l’épistémologie ? L’épistémologie renvoie à un domaine vaste de la
connaissance : si l’on suit sa composition, epistémè (savoir constitué) et logos (discours
rationnel), il pourrait ainsi renvoyer au projet d’expliquer la nature, l’étendue et les limites de
la connaissance humaine dans son ensemble ou alors à une interrogation sur la
connaissance scientifique en particulier, selon les deux acceptions d'épistémé. Et de fait, en
dépit de la jeunesse du terme épistémologie, les usages faits du terme sont parfois ambigus
et vont varier en fonction du contexte théorique. Il a été introduit en anglais en 1854, d’une
traduction de Ferrier d’un terme allemand Wissenschaflere, doctrine de la science, qui était
un terme technique lié à des questions sur le sujet connaissant issu de l’idéalisme allemand.
En français, il est introduit par une traduction d’une œuvre de Bertrand Russell en 1901 et
en traduction de Meyerson, mais son emploi ne permet pas d’en former une définition
précise. C’est en 1926 que André Lalande traite l’usage anglais de manière condescendante
en disant que l’usage anglais ne respecte pas la langue grecque en mettant sous le terme
d’epistemology les théories de la connaissance. Selon lui, le vocable devrait être réservé à
l’étude philosophique des sciences et de leur histoire, et c’est là que commencent à se
dessiner les deux courants de l’épistémologie. C’est à une époque où la distinction entre
science et philosophie s’affirme que l’épistémologie commence à naître. Au cours du XIXe
siècle, les réflexions sur la science vont elles-mêmes être considérées donc scientifiques. Le
développement rapide des sciences particulières et les révolutions techniques et
industrielles permises par ce développement vont permettre de mettre au jour des tensions :
d’un côté, un contraste violent entre d’un côté le développement des sciences et des
techniques et de l’autre le sentiment largement partagé que les grandes questions
philosophiques ne sont pas en réel progrès, que la philosophie stagne. Dans le même
temps, certaines écoles commencent à affirmer haut et fort que la philosophie permet
l’accès à des connaissances impossibles aux sciences particulières, d’où l’intérêt de
consacrer une réflexion philosophique à la science en gardant la méthode philosophique. De
plus, la conscience de plus en plus aiguë qu’une compréhension plus générale de la
connaissance scientifique ne peut plus faire l’économie d’une étude précise des disciplines
scientifiques proprement dites. L’un dans l’autre, ces ambiguïtés en termes de terminologie
traduisent une diversité d’approche.
De quoi traite l’épistémologie ? On distingue deux acceptions majeures qui vont
revenir à l’entendre dans un sens large ou dans un sens strict. Lato sensu, l’épistémologie
apparaît comme une interrogation sur ce que signifie connaître en général : en quoi notre
connaissance du monde consiste-t-elle ? comment est-elle possible ?, ces questions
renvoient donc majoritairement à l’acception anglo-saxonne, qui englobe les théories de la
connaissance sous ce terme. En ce sens, on peut considérer que cette discipline va
s'inscrire dans la continuité de démarches philosophiques classiques en se caractérisant par
une méthode et un style de pensée qui vont la distinguer de la métaphysique pour la
rapprocher davantage de la philosophie analytique. Stricto sensu, l’épistémologie se
distingue de la gnoséologie pour se concentrer spécifiquement sur la démarche scientifique
et c’est ainsi qu’on la comprend principalement en France où la discipline s’est imposée
d’emblée comme une recherche sur l’histoire des sciences et l’évolution de leurs méthodes.
L’épistémologie apparaît alors comme une approche philosophique de la science et donc
comme une partie de la philosophie des sciences. De nombreux philosophes ont réfléchi sur
la science afin d’interpréter au regard de leur conception personnelle, liée à des thèmes de
philosophie générale, comme quand Bergson s’emploie à élaborer une interprétation
philosophique des théories scientifiques, et ce travail est considéré comme appartenant à la
philosophie des sciences mais pas de l’épistémologie, car l’enjeu majeur est de trouver des
arguments pour confirmer ou infirmer ses idées personnelles sur l’expérience de la durée et
l’évolution créatrice. L’approche de ses objets d’étude est subordonnée à une métaphysique
ou à des considérations autres que celle de la recherche scientifique : on parle de
philosophie des sciences et non pas d’épistémologie, donc. A contrario, l’épistémologie va
témoigner d’une prise de distance à l’égard de tout présupposé métaphysique et va
accorder à la science un statut privilégié parmi les autres objets de réflexion. “L’unification
de la pensée et de ses objets dans une perspective philosophique apparaît aux yeux de
l’épistémologue comme un postulat dont il convient de se débarrasser” (Popelard et Vernant,
Les grands courants de la philosophie des sciences, 1997) : l’épistémologie porte sur une
interrogation sur la connaissance scientifique dans son rapport à la connaissance en
général.
L’épistémologie peut-elle se fondre dans la science ? Peut-elle donc se détacher de
toute philosophie ? Les sciences ne sont-elles pas en elles-mêmes capables d’effectuer ce
type de considérations ? Il convient néanmoins de séparer les deux démarches car elles ont
des objectifs qui diffèrent : l’objectif de la science et celui de l’épistémologie ne sont pas les
mêmes. Une science vise à construire des hypothèses et des théories afin de progresser
vers une connaissance rigoureuse de certains phénomènes, et, à rebours, l’épistémologie
n’a pas pour objectif d’étendre la connaissance scientifique, mais constitue un discours
réflexif et critique sur les sciences : critique dans la mesure où elle ne décrit pas la
connaissance scientifique mais s’efforce de porter un jugement sur la valeur de la science,
le fondement, les limites de celle-ci et elle prend pour objet des éléments déjà constitués,
donc elle est réflexive.
L’épistémologie continentale se distingue d’une recherche sur la connaissance en
général pour se focaliser sur la connaissance scientifique : toute réflexion philosophique sur
la science ne s’inscrit donc pas automatiquement dans l’épistémologie. Prise de distance
avec tout présupposé métaphysique, la science a une place privilégiée.
L’épistémologie se situe au carrefour de plusieurs champs conceptuels. Elle est
tributaire de l’histoire des sciences : cela lui permet d’user d’exemples concrets pour
appuyer ses analyses méthodologiques et de se poser la question de comment les sciences
évoluent à travers les siècles. Elle fait intervenir des questionnements empruntés à la
philosophie de la connaissance. En ce qu’elle requiert l’analyse de discours complexes qui
prétendent à une vérité objective, l’épistémologie est intimement liée à la logique, entendue
comme étude formelle du raisonnement valide. En effet, le respect des règles d’inférence
qui permettent d’éviter toute contradiction va dicter la clarté du discours produit par la
science : Karl Popper parle à ce propos de l’épistémologie comme une logique de la
découverte scientifique. On y trouve aussi des éléments de philosophie du langage :
l’analyse critique qui lui est inhérente va notamment relever du symbolisme ; la
mathématisation des données et la formalisation des discours sont des symbolismes et vont
faire de la science une pratique éminemment symbolique, qui met en jeu des langages
spécifiques (Condillac : “la science n’est rien d’autre qu’une langue bien faite”). Enfin, le
développement des sciences humaines va permettre de peindre la science elle-même
comme sujet d’étude : elle est comprise comme une institution, une pratique sociale ; la
sociologie va permettre d’appréhender la manière dont sont produits ou diffusés les discours
scientifiques.
Sur la question de l’unité des sciences : il revient à l’épistémologie de mettre en
relation différents champs du savoir. Toutes les sciences partagent-elles les mêmes
exigences méthodologiques, d’une part, ou faut-il les distinguer en opérant une classification
stricte entre différents types de sciences ? A titre illustratif, dans La désunité de la médecine,
Maël Lemoine établit tous les types de discours médicaux existants, et notamment leurs
différentes exigences méthodologiques et structurelles : l’explication historique dominante
en biologie de l’évolution, l’explication fonctionnelle en physiologie, l’explication inductive
statistique épidémiologique (son explanandum est un cas, son explanans n’est pas une loi
mais une probabilité), l’explication clinique, la seule qui semble appartenir en propre à la
médecine, et qui se définit par les techniques de l’EBM (evidence based medicine),
l’explication pharmacologique, originale en ce qu’elle ne vise pas à expliquer des effets
(ensemble des processus engendrés dans l’organisme) mais les actions (seulement effet
visé par intention thérapeutique) d’un médicament, l’explication mécanique et enfin
l’explication biologique, qui du point de vue de la philosophie de la biologie ne présente
aucune particularité quant au domaine médical, elle est simplement importée de la
philosophie de la biologie, et elle se divise elle-même en plusieurs types d’explication (bioch,
biocell, etc). Est-il donc légitime de parler de la science au singulier ? Ces questions sont
décisives dans la mesure où elle ouvre sur deux approches distinctes de l’épistémologie :
elles doivent être envisagées selon si l’on considère que les sciences relèvent d’une
méthode unique ou d’une multiplicité irréductible.
- épistémologie générale
on s’interroge sur le concept de science. va viser à définir ce qui constitue un discours
proprement scientifique et à produire des critères normatifs de scientificité / présuppose la
thèse de l’unité de la science / nombreux détracteurs : considérations philosophiques
abstraites plutôt qu’étude concrète de la formation des sciences
- épistémologie régionale ou interne
s’emploie à comprendre la science selon une approche plus concrète et se concentre sur
une discipline en particulier. s’appuie sur des observations détaillées de la pratique
scientifique en elle-même et la prétention normative est relativement limitée car elle est
toujours effectuée par un spécialiste de la discipline qu’elle étudie (François Jacob, La
logique du vivant, 1970, Prix nobel de physiologie et épistémologue)
Alan Chalmers, 1976, Qu’est-ce que la science ? : “Rien ne nous autorise à intégrer
ou à rejeter des connaissances en raison d’une conformité avec un quelconque critère de
scientificité”. Paul Feyerabend, anarchisme épistémologique : il n’y a pas de supériorité du
discours scientifique, il n’a pas plus de fondement que la croyance religieuse par ex.
1. La science est d’abord un ensemble de connaissances. En d’autres termes, on va
distinguer les sciences des croyances ou des préjugés, de toutes formes de
représentation mythologique. On ne peut pas prétendre que toute vérité soit
scientifique, mais un discours ne peut se déclarer scientifique qu’à condition de
posséder une valeur épistémique.
2. Les connaissances scientifiques doivent être jugées à l’aune de normes de
vérification qui sont déterminées. Il est essentiel aux sciences de fixer des normes en
vertu desquelles une théorie, une interprétation, etc, devra être considérée comme
valable ou bien être rejetée.
3. Exigence de rigueur et d’exactitude de la connaissance scientifique qui requiert un
langage artificiel. Gilles-Gaston Granger, La science et les sciences, 1993, l’usage
d’un système symbolique n’est pas un trait accessoire et secondaire à la
connaissance scientifique, mais il constitue au contraire l’un de ses aspects les plus
fondamentaux.
4. Une science se caractérise par un objet d’étude qui lui est propre et qui va la
distinguer d’autres disciplines. L'histoire des sciences peut nous montrer que l’objet
d’une science ou son domaine de recherche, de même que ses méthodes, peut
évoluer et voir sa définition se modifier. Certaines sciences peuvent porter sur
plusieurs objets, mais il n’en reste que la délimitation du domaine et de l’objet
d’étude est fondamentale à la définition d’une science.

Qu’est-ce que la science ? Comment classifier les sciences ?


Auguste Comte propose une classification des sciences telle que l’étude rationnelle
de chacune soit fondée sur la connaissance des lois principales de la science qui la
précède. Cet ordre serait défini par des degrés de simplicité ou de généralité des
phénomènes de chaque discipline et par conséquent la facilité plus ou moins grande de leur
étude : mathématiques à la sociologie en passant par l’astronomie, la physique, la chimie et
la biologie. Cette classification n’est plus à jour au vu du développement des sciences. Au
demeurant, il est rare qu’une classification des sciences soit satisfaisante, car les sciences
évoluent plus rapidement et connaissent une diversification de leur méthode et de leur
étude, et elles deviennent de plus en plus interdisciplinaires, ce qui mettrait en péril ce
système de classification.
Deux grandes manières de classer les disciplines scientifiques, dans le but de faire
de l’épistémologie
1. distinction sciences formelles / empiriques
2. distinction au sein des sciences empiriques entre les sciences de la nature et les
sciences de l’homme : sciences de la nature visent à formuler des lois pour rendre
compte de tous les phénomènes qui ne dépendent pas intrinsèquement soit de
représentations symboliques soit de comportements sociaux (physique, chimie,
biologie ⇒ fonctionnement interne de la nature animée ou inanimée) / sciences de
l’homme s’attachent à comprendre l’être humain en tant qu’être culturel, visent à
expliciter la signification des comportements individuels ou collectifs et à mettre au
jour les structures sociales constitutives (psychologie, sociologie, économie,
linguistique, droit, histoire), elles étudient des valeurs, des symboles, des
représentations, à travers l’observation de comportements humains ⇒ dans quelle
mesure peut-on obtenir une connaissance objective ? sont-elles vraiment des
sciences ? peuvent-elles employer les mêmes méthodes que les sciences de la
nature ?

Partie I : Les théories modernes de la connaissance

I. Francis Bacon et l’idée de science expérimentale

II. La conception cartésienne de la science

III. L’empirisme de Newton

Les principes de Newton sont une réfutation des principes de Descartes. Toutes les
spéculations logiques ou métaphysiques sont étrangères à la considération des
phénomènes et doivent donc être rejetées. “Tout ce qui ne se déduit point des phénomènes
est une hypothèse”. La méthode inductive comme elle est appliquée strictement par Newton
va être contraire à la métaphysique.

IV. L’analyse humienne de la relation cause à effet

Hume analyse la relation nécessaire de la cause à l’effet : du point de vue de


l’expérience, selon lui, ce principe ne traduit qu’une conjonction constante entre deux faits,
dont la nécessité serait en réalité supposée. L’attente de l’effet après une cause relève de la
coutume, c’est une manière de sentir plus forte que les autres, mais rien de plus. Toutes ces
analyses soulignent la précarité de la méthode expérimentale, caractéristique de la méthode
scientifique, et cela pousse à aboutir à un certain scepticisme. L’enjeu de la partie IV de
l’EEH est double : il souhaite disqualifier la possibilité de démontrer des faits par la simple
raison, sans passer par l’expérience et mettre en cause l’impression de certitude que l’on
associe à la plupart de nos inférences quotidiennes ; il trace ainsi une distinction entre les
relations d’idées (vérités mathématiques par ex) et les faits, qui sont connus par expérience.
Si les relations qui sont établies entre les idées sont soumises au principe de
non-contradiction et ne sont donc pas contestables, il n’en est pas de même pour les faits
car un fait et son contraire peuvent tout aussi bien être considérés par l’entendement, car les
faits ne sont pas démontrés par la logique. Hume ne nous livre pas de solution : il analyse
ce qui nous amène à faire une inférence inductive, à imputer une cause à un effet, et le
ramener à l’habitude. Une expérience incomplète d’un objet ne peut donner les causes et
les effets, qui sont en réalité étranger à l’objet en lui-même : nul objet ne laisse par
l’observation simple “découvrir aucune de ses causes, aucun de ses effets”. Pour Hume,
l’idée de lien causal, connexion nécessaire entre des événements distincts, a pour origine
de nombreux cas semblables où va se présenter la conjonction constante entre deux objets
similaires : cette relation tient à la simple habitude, elle est produite par la répétition de cas
semblables et est purement subjective. C’est une connexion “que nous sentons en notre
esprit”, “elle est une transition coutumière de l’imagination d’un objet à celui qui
l’accompagne habituellement”. Pour Hume, “une cause n'est qu’un objet suivi d’un autre et
dont l’apparition conduit toujours la pensée à l’idée de cet autre objet” : lorsque nous allons
sentir la vibration d’une corde accompagnée d’un son, on n’est pas en raison fondée
d’établir une relation nécessaire entre la vibration et le son, on traduit seulement la manière
dont notre esprit a été habitué à leur conjonction, “de la manière dont il va devancer les sens
en formant immédiatement l’idée du son à l’apparition de la vibration ou de sa simple idée”.
Dans la mesure où l’idée de connexion nécessaire paraît indispensable pour
formuler des lois scientifiques, l’empirisme de Hume conduit naturellement à un scepticisme
qui pourrait mettre en péril le progrès de la science, ce qui n’était pas son objectif. Son
analyse critique de l’idée de causalité visait essentiellement à débarrasser les sciences de
faits de toute prétendue fondation métaphysique afin de montrer que l’expérience, par
opposition à la simple raison, constituait leur seule origine.

Partie II : Le fondement de l’inférence inductive

Une des questions récurrentes, vis-à-vis de la nature de la connaissance


scientifique, est de se demander comment le chercheur, à partir d’expérimentations
singulières, peut-il aboutir à des conclusions qui se voudront générales ou universelles ? La
science se caractérise par des énoncés applicables à un grand nombre de cas dont on n’a
pas nécessairement fait l’expérience, ils n’ont pas tous fait l’objet d’un constat empirique.
Dès lors, comment est-il possible d’inférer, à partir de cas dont nous avons l’expérience, des
vérités qui vont porter sur des cas dont nous n’avons pas fait l’expérience ? Comment
peut-on aboutir de façon rigoureuse à des lois scientifiques alors que tout ce dont nous
pouvons avoir l’expérience est forcément par définition particulier ? Cette question fait
directement écho à la critique de l’inférence causale de Hume, mais elle ne se limite pas
cette fois-ci au concept simple de causalité. La notion d’induction s’applique à tout
raisonnement par lequel on passe d’expérience singulière pour en tirer des lois générales,
telles que sont les hypothèses ou les théories scientifiques. De la même manière, il peut
sembler que la mise en place de procédure inductive soit manifestement essentielle non
seulement à la démarche scientifique, mais aussi à la vie quotidienne. L’inférence inductive
est donc particulièrement difficile à combattre en ce qu’elle nous semble aller de soi,
néanmoins, elle ne saurait être tenue comme une évidence logique : l’induction ne nous
permet pas d’aboutir à des conclusions certaines, contrairement à la déduction, elle laisse
toujours une place à l’erreur, car il est toujours possible qu’à l’observation d’un grand
nombre de cas, on finisse tout de même par observer un cas contraire. À quelle condition
les inférences inductives sont-elles nécessaires et légitimes ? Peut-on autoriser une sorte de
principe d’induction, qui établirait que l’observation d’un grand nombre de cas permet d’en
tirer une conclusion générale, et comment pourrait-on s’assurer de la vérité d’un tel principe,
qui semble par nature contingent, et donc improuvable par la déduction ? Enfin, faut-il
admettre l’inférence inductive sans lui apporter de justification rationnelle ? L’inférence
inductive est-elle vraiment indispensable au développement des sciences ?

I. Les origines de la notion d’induction

Ces notions, aujourd’hui classiques, sont abordées dès l’antiquité, et l’on va trouver,
dans les écrits d’Aristote, une méthodologie de la science, qui va formuler une première
théorie de l’induction qui sera intimement liée à celle du syllogisme. Dans l’Organon, Aristote
définit le syllogisme comme un “discours dans lequel, certaines choses étant posées,
quelque chose d’autre que ces données en découle nécessairement par le seul fait de ces
données”. Il s’agit d’admettre la vérité de deux propositions, les prémisses, et d’en déduire la
vérité d’une troisième, qui sera la conclusion. On va pouvoir inférer, à partir des prémisses
“tous les hommes sont mortels” d’une part, “tous les Grecs sont des hommes” de l’autre, la
conclusion “tous les Grecs sont mortels”. Le raisonnement syllogistique doit sa validité à un
moyen terme : ici, mortels est le grand terme, homme est le moyen terme et Grecs est le
petit terme. Le moyen terme, homme, permet d’établir la relation entre le grand et le petit
terme : le moyen terme n’apparaît donc pas dans la conclusion. Ce syllogisme là est un
syllogisme démonstratif qui procède par déduction.

Seconds Analytiques, Aristote : “La démonstration se fait à partir de principes


universels et l’induction de cas particuliers mais il est impossible d’acquérir la connaissance
des universels autrement que par induction”
En un sens, dans le syllogisme déductif, notre pensée va suivre l’ordre de la nature,
en partant de la nature pour arriver aux phénomènes. Dans le syllogisme inductif, on suit un
ordre inverse pour remonter de la sensation, de la perception d’un phénomène jusqu’à sa
cause. Le syllogisme ne se limite pas à la déduction. L’exemple de raisonnement inductif
que nous donne Aristote est le suivant : l’homme, le cheval et le mulet vivent longtemps.
L’homme, le cheval et le mulet sont sans fiel. Donc, tous les animaux sans fiel vivent
longtemps. A partir de ce raisonnement inductif, on pourra tirer un raisonnement déductif
valable : tous les animaux sans fiel vivent longtemps. L’homme, le cheval et le mulet sont
sans fiel. Donc l’homme, le cheval et le mulet vivent longtemps. La validité du syllogisme
inductif ne peut être assurée qu’à certaines conditions, en particulier, il est indispensable
que l’énumération qui est effectuée dans la seconde prémisse soit complète : l’homme, le
cheval et le mulet doivent constituer l’intégralité des animaux sans fiel. Aristote évoque de
surcroît une inférence inductive qui permet de passer de l’individu à l’espèce et dans
laquelle il reconnaît une démarche spontanée de l’esprit humain et qui relève selon lui moins
du raisonnement que de l’intuition : la thèse aristotélicienne revient à affirmer que la
sensation provoque naturellement en nous l’universel, et ce, à travers un processus dont on
trouve déjà la trace chez les bêtes. Toute science s’enracine dans la perception et à cette
perception va s’ajouter le souvenir. Une perception répétée, accompagnée par le souvenir
des perceptions antérieures, crée l’expérience. “L’universel tout entier en repos dans l’âme”.
La répétition dans l’âme humaine d’une multiplicité de cas va nous permettre de saisir ce
que tous ces cas ont en commun, et par là d’accéder à un jugement universel : “la
perception produit ainsi en nous l’universel”. C’est cela qu'Aristote nomme induction,
l’épagogè, et il va affirmer que c’est par induction que l’on arrive aux principes du
raisonnement.
Bacon va définir l’induction vraie et proposer de l’appliquer à tous les niveaux de la
science. L’inférence inductive doit permettre d’établir les lois de la nature, ce qu’il appelle les
axiomes de la science, mais aussi ses notions.

Dans quelles conditions les inférences inductives sont-elles légitimes ?


2 conditions : énumération de la seconde prémisse est complète + énumération représente
la totalité des parties de l’ensemble (donc avoir fait l’expérience de la totalité de l’ensemble)
ce qui va garantir l’induction chez Aristote est l’intuition car dans l’inférence inductive
Aristote voit une démarche spontanée de l’esprit humain car l’expérience est la perception à
laquelle s’ajoute le souvenir : par l’expérience, la sensation va permettre de provoquer
naturellement en nous l’universel / la répétition dans l’âme d’une multiplicité de cas va
permettre de saisir ce que ces cas ont en commun et donc accéder à un jugement universel

II. Les critiques philosophiques du raisonnement inductif

Dans le cas de l’induction, la principale difficulté va venir du fait que l’intérêt


épistémique du raisonnement inductif réside dans son caractère ampliatif, c’est-à-dire qui
agrandit, sous-entendu le champ des connaissances, contrairement au raisonnement
déductif qui ne permet pas de produire de nouveaux savoirs. Cependant, l’induction ne
pourra être rigoureuse logiquement qu’à la condition de renoncer à ce caractère ampliatif. Si
on reprenait le raisonnement d’Aristote : “les Grecs sont mortels. Les Grecs sont des
hommes, donc les hommes sont mortels”, on ne peut pas considérer ce raisonnement
comme valide, malgré le fait qu’il soit vrai. Un syllogisme inductif visant à étendre un
jugement d’observation à une classe qui soit plus large que celle des individus observés ne
peut pas être tenue pour valide d’un point de vue logique, même si son contenu est vrai, car
rien n’interdit qu’il se présente un cas qui ne corresponde pas à la conclusion. Or, l’intérêt
que l’on peut avoir à retenir l’induction est de pouvoir élargir le champ des connaissances.
Il ne sera pas plus valide que le raisonnement suivant : les poissons sont des animaux
aquatiques. Les poissons ne sont pas des mammifères. Donc les mammifères ne sont pas
des animaux aquatiques. Rien n’interdit jamais que se présente un cas qui ne corresponde
pas au contenu de la conclusion. Quand on se fie à un raisonnement inductif, on s’attend à
ce que les cas généraux que l’on n’a pas observés présentent des similitudes avec les cas
observés. Dans l’induction, on va supposer que l’on peut étendre un jugement d’observation
qui va porter sur quelques cas à un grand nombre de cas qui n’ont pas encore fait l’objet
d’une observation. Cela repose sur un présupposé fondamental qui est la régularité
intrinsèque des phénomènes. “Ce n’est pas le raisonnement qui nous engage à supposer
que le passé ressemble au futur et à attendre des effets semblables de causes qui sont en
apparence semblables” (Hume).
L’ouvrage de Goodman, Faits, fictions et prédictions, aujourd’hui classique en
philosophie analytique, est un ouvrage dans lequel Goodman renouvelle le problème de
l’induction en le déplaçant quelque peu. La difficulté n’est pas de garantir la validité de
l’inférence inductive, mais plutôt de la définir de manière précise. En s’efforçant de définir
l’induction, Goodman va poser la question centrale de savoir comment est-ce qu’on peut
distinguer entre d’une part des propriétés que nous pouvons projeter de manière inductive
d’un échantillon à une population, et d’autre part des propriétés qui seraient par nature
réfractaires à une telle projection. Il reprend le vieux problème de Hume : pour Hume, les
jugements qui sont portés sur des évènements futurs n’appartiennent ni à des comptes
rendus d’événements qui se sont passés et ne sont ni des conséquences logiques
d’événements. Il n’existe de fait aucune liaison logique nécessaire entre les faits. Goodman,
en reprenant ce problème, reproche à Hume de nous renseigner sur l’origine des prédictions
mais pas sur leur légitimité or remonter aux origines d’un phénomène n’est pas établir sa
validité. Le problème, tel qu’il est exposé par Hume, n’est pas résolu et possiblement
insoluble. Tous les auteurs qui ont tenté d’apporter une réponse à ce problème ont adopté la
même démarche : ils font valoir qu’il faut trouver un moyen de justifier les prédictions, donc
pour se faire il va falloir proclamer l’uniformité de la nature par une sorte de loi universelle,
ils vont se demander comment est-ce que l’on peut justifier ce principe à titre de supposition
indispensable et enfin ils vont apporter des solutions qui sont insatisfaisantes. Il n’y a aucun
intérêt, selon Goodman, donc de recourir à une hypothèse qui soit douteuse car on n’a
aucune idée de la forme que pourrait prendre la justification du principe d’uniformité de la
nature.
Goodman va chercher à nous dire que, tout comme il y a des règles de la pratique
déductive, il pourrait y avoir des règles de la pratique inductive : dans le cas de la déduction,
on a des règles générales qui vont déterminer si la déduction peut être considérée comme
légitime, de sorte que si l’argument se conforme aux règles établies, il va être justifié et
valide en dépit de la fausseté éventuel de sa conclusion et si l’argument déroge à l’une de
ces règles, il sera considéré comme faux, même si la conclusion sera vraie. Dans la pratique
déductive, il y a un réajustement mutuel entre la règle et l’argument, on va donc modifier une
règle si elle engendre un raisonnement que l’on n’est pas prêt à accepter et on va rejeter
une inférence si elle viole une règle que nous ne sommes pas prêts à modifier. Ceci étant
posé, Goodman dit que le problème de l’induction n’est pas un problème de démonstration
mais un problème de distinction entre des prédictions qui seraient valides ou non valides et
donc un problème de distinction entre des énoncés que l’on pourrait projeter ou non.
Goodman transfère ce raisonnement à la pratique inductive en le nommant théorie de la
confirmation. Il va comparer ce processus d’ajustement mutuel à la définition d’un terme :
formuler des règles qui vont permettre de distinguer entre une inférence inductive valide ou
non valide va revenir à peu près à définir un terme dont le sens a déjà été établi par l’usage.
Il y a un va et vient, pour les termes entre la définition et l’usage, et un même va et vient
pour l’induction : on va faire l’expérience d’induction qui fonctionnent, d’autres qui ne
fonctionnent pas, et cela va nous permettre d’orienter la définition. “Le va et vient déjà
observé entre les règles de l’induction et les inférences inductives particulières est
simplement un exemple de l’ajustement mutuel entre définition et usage …” : il ne peut y
avoir la confirmation d’une hypothèse que par un exemple. Si le critère qui va nous
permettre de distinguer entre un énoncé nomologique (qui peut être projeté) ou non, s’il ne
repose pas sur la syntaxe, sur quoi repose-t-il ? Goodman introduit donc le problème de la
projection avec les émeraudes vleues. Pour quelle raison est-ce que l’on devrait préférer le
prédicat vert au prédicat vleu ? On n’est pas capables de distinguer entre un énoncé à
valeur nomologique et un énoncé accidentel, donc. Comment peut-on légitimement
différencier ces énoncés ? Les énoncés accidentels introduisent des restrictions spatiales ou
temporelles alors que les hypothèses nomologiques contiennent des prédicats que l’on
pourrait considérer comme purement qualitatifs. Cependant, on peut tout à fait définir le
prédicat vert de façon temporelle en introduisant le prédicat blert, qui désigne tout ce qui est
bleu avant l’instant t et vert après l’instant t et on définit alors le vert comme tout ce qui est
vleu avant l’instant t et blert après l’instant t, de sorte que le prédicat vert n’est pas purement
qualitatif. Toutes les prédictions qui sont fondées sur des régularités ne sont pas toutes
valides : il y a donc pour Goodman une nouvelle énigme de l’induction, puisque le caractère
nomologique d’un énoncé va se voir irréductible à des critères qui reposent sur des
propriétés syntaxiques ni sur le caractère qualitatif. Un prédicat sera plus ou moins
projectible, en réalité, non selon ce type de critère mais selon son degré d’implantation
(entrenchment) dans une culture, ce qui explique que l’on préfère vert à vleu et que ce n’est
pas en raison de propriétés épistémologiques qui puissent être déterminées de façon
objective.

Partie III : La méthode scientifique et la formulation des hypothèses

En tant que l’épistémologie est une réflexion philosophique qui va prendre pour objet
d’investigation principale la connaissance scientifique, il paraît évident qu’elle accorde un
intérêt vif aux questions de méthode : il n’y a en effet pas de sciences sans méthodes et les
critères pour parler d’une science contiennent la méthode. En mathématiques, la méthode
axiomatique moderne va encore reposer sur cette double démarche d’induction et de
déduction et même si les mathématiciens modernes sont habitués à procéder de façon
différente pour atteindre un résultat et vont considérer comme méthode d’autres procédés,
ce que l’on remarque c’est que ces méthodes ont besoin elles-mêmes d’être fondées de
façon axiomatique, de sorte que les procédés d’analyse et de synthèse gardent l’importance
qu’ils avaient déjà. Dans les sciences empiriques, on peut se demander ce qu’il en est
puisque ces sciences vont se proposer d’expliquer des phénomènes qui se produisent d’une
part dans l’expérience et d’autre part, si possible, de les prévoir. Si on considère que ces
sciences ne sont que l’application des mathématiques, ou même de la géométrie, alors les
mêmes procédés valent dans toutes les sciences. Descartes mentionnait dans sa méthodes
les règles d’analyse qui étaient de ramener l’inconnu au connu et les règles de synthèse, de
déduction du plus simple au plus complexe : ces deux règles sont encadrées par la règle
d’évidence, imposée au principe premier, et par le dénombrement de tous les cas d’un
même genre. Le problème qui se posait était qu’il existait dans le premier cas des évidences
trompeuses, et dans le deuxième cas, la nature ne se prête pas à “des revues si générales
que l’on soit assuré de ne rien omettre”. L’utilisation de méthodes mathématiques pour la
physique moderne est essentielle mais en tant que l’intuition de la physique moderne
consiste en la faculté de saisir les concepts physiques fondamentaux, elle diffère de
l’intuition mathématique, et de fait, on va bien considérer que Newton et Galilée ont dépassé
Descartes. Une attitude va consister à nier cette différence entre ces deux intuitions et va
prétendre que le contenu qui n'est pas strictement mathématique des théories physiques est
obtenu par induction à partir de la connaissance sensible. Dans la connaissance commune,
on procède de cette façon-là avec un grand succès. Pour des penseurs comme Bacon, les
sciences empiriques vont reposer sur des démarches inductives qui vont se distinguer de
celle de la connaissance commune que par davantage de rigueur et de méthode. Dans son
Novum organon, Bacon proposait de classer les faits par l’établissement de tables de
présence, d’absence et de degré. Dans les faits, il est difficile de trouver une seule
connaissance scientifique qui ait été trouvée en suivant des règles aussi abstraites : des
penseurs ont tenté d’affiner cette méthode pour permettre à l’expérimentation scientifique de
suivre une démarche inductive ; Stuart Mill propose par exemple la méthode de résidus, de
concordance, de différence, et celle des variations concomitantes. Ces méthodes décrivent
bien une pratique expérimentale qui soit soucieuse de rigueur mais elles servent davantage
à tester une hypothèse plutôt qu’à en formuler une. Comment, dans les faits, une hypothèse
scientifique est-elle constituée d’un point de vue méthodologique ? Comment la science
parvient-elle à formuler des lois correspondant aux phénomènes naturels et à effectuer des
prédictions ? On se demandera dans quelle mesure la démarche inductive peut être tenue
pour suffisante, et s’il est réellement possible de formuler une méthode par laquelle on
pourrait formuler des hypothèses pertinentes.

I. Les limites d’une conception strictement inductiviste de la recherche scientifique :


l’inductivisme naïf

Le paradoxe de Goodman met en question le fait que notre langage, par les
prédicats qu’il nous fournit, révèle la part d’interprétation contenue dans les données
empiriques de l’expérience. Les descriptions et les prédictions induites, loin d’être neutres,
même dans le discours scientifique, sont toujours tributaires de l’enracinement dans une
culture des prédicats, en vertu desquels vont être construites les classifications, par
exemple, sur lesquelles s’appuient les chercheurs. L’idéal inductiviste de la découverte
scientifique semble dès lors, en raison de la part d'interprétation logée dans les prédicats
que l’on va utiliser, victime d’une représentation fallacieuse d’après laquelle les données de
l'expérience pourraient être décrites et intégrées au discours scientifique de façon directe et
donc purement objective. On va retrouver dans les Eléments d'épistémologie de Hempel
une critique de ce que l’auteur va appeler “la conception étroitement inductiviste de la
recherche scientifique”, ce qui correspond à une certaine compréhension de l’idéal
newtonien, qui était notamment de ne pas imaginer d’hypothèses : la science partirait de
l’observer de faits pour en tirer des lois et des théories qui permettraient ensuite de déduire
des prédictions et donc des explications de faits nouveaux. Hempel note quatre étapes dans
la méthode de la conception inductiviste : observation et enregistrement de tous les faits,
analyse et classification de ces faits, dérivation d’énoncés généraux par induction à partir
des faits, contrôles supplémentaires des énoncés généraux. Selon cette démarche il
importerait de ne faire aucune supposition au cours des deux premières étapes, sur la façon
dont les faits observés pourraient être reliés les uns aux autres, l’idée étant d’éviter
qu’interviennent des idées reçues ou des opinions au sein d’une démarche scientifique qui
vise à l’objectivité. Ce que remarque Hempel, c’est que force est de constater que la
démarche scientifique, si elle suivait de telles contraintes, ne pourrait jamais avancer. Il ne
suffit que de retenir les faits qui sont significatifs : comment déterminer qu’un fait est
significatif sans interpréter le moindre fait observé ? Hempel souligne qu’un fait va être
significatif par rapport à un problème mais surtout par rapport à une solution qui sera
susceptible d’être apportée. “Le genre de données qu’il convient de recueillir n’est pas
déterminé par le problème auquel on est aux prises, mais plutôt par la solution provisoire
que le chercheur tente de lui apporter, sous forme d’une conjecture ou d’une hypothèse”
(chapitre I, ibid). La maxime d’après laquelle il faudrait d’abord rassembler des données
sans hypothèse préalable se détruit elle-même, puisqu’il est impossible de déterminer la
signification d’un fait sans idée préalable de la solution que l’on souhaite apporter. Au
moment de faire des recherches en science, il est impossible de suivre une démarche
strictement inductiviste, sans avoir au préalable une hypothèse concernant la solution au
problème. Il va être beaucoup plus intéressant, en science, de produire des hypothèses de
façon hasardeuse pour donner à la recherche une direction, pour sélectionner les faits qui
seront significatifs dans l’expérience qui servira à éprouver cette hypothèse. De la même
manière, la deuxième étape, d’analyse et de classification, semble ignorer qu'une
classification va toujours mettre en jeu des critères qui sont extérieurs à la simple
observation, qui seront déterminés par les prédicats de notre langage et par des hypothèses
qui seront relatives à l’explication des phénomènes observés. Le simple fait d’effectuer une
classification revient à regrouper des phénomènes ou des objets selon des critères
préalablement choisis. Si on a pas déterminé par avance ces critères, un même objet pourra
intégrer plusieurs classes différentes. L’induction n’est pas la simple application d’une
procédure mécanique qui pourrait être rendue automatique. Les hypothèses et théories
scientifiques sont exprimées par des termes qui ne figurent pas du tout dans le descriptions
des découvertes empiriques sur lesquelles elles reposent et qu’elles expliquent. Il est
nécessaire d’avoir des termes qui constituent un appareil conceptuel pour traduire les
expériences dans le langage de la science. La force d’une hypothèse ne vient donc pas de
l’application mécanique du raisonnement inductif : sa formulation résulte d’une investigation
qui analyse la valeur épistémique de différentes conceptions en les mettant à l'épreuve.
Selon Hempel, pour passer des données à la théorie, il faut un travail créateur de
l’imagination. Les hypothèses ne sont pas dérivées des faits scientifiques mais inventées
pour en rendre raison. Elles constituent des conjectures portant sur des liens entre les
phénomènes, sur ce que leur cours peut avoir à l'arrière plan d’uniforme et sur les modèles
qui peuvent lui être sous-jacent.
Une hypothèse peut-elle ne résulter que d’une simple opinion ? Peut-elle être créée
selon notre imagination ? Selon Bachelard, le progrès de la connaissance scientifique est
une marche vers l’abstraction. Il s’intéresse aux conditions psychologiques des progrès de la
science : on rencontre divers obstacles épistémologiques qui s’appliquent à des causes de
lenteur qui apparaissent dans l’acte même de connaître. Il existe une rupture dans notre
rapport au réel, on connaît contre une connaissance antérieure, en détruisant des
connaissances mal faites. L’esprit n’est pas capable de faire une table rase des
représentations quotidienne de la réalité. Lorsqu’il se présente à la culture scientifique,
l'esprit humain est vieux, il a l’âge de ses préjugés. Ceci représente une entrave face à la
connaissance objective. L’accès à la science nécessite un rajeunissement spirituel. Il faut
détruire tous nos jugements immédiats pour construire une connaissance rationnelle. Ceci
se traduit alors en une lutte contre jugement immédiats. Cela nécessite la formulation
préalable d’un problème pour faire progresser l’esprit vers une solution. Ainsi, la science
s’oppose à l’opinion : l’opinion pense mal et traduit des objets immédiats en connaissance et
ceci est le premier obstacle à surmonter. Rien n’est donné, tout est construit. L’opinion est
un rapport pragmatique aux choses, un préjugé. De la rationalisation discursive et complexe,
l’esprit fait une catharsis intellectuelle et affective. Un tel projet épistémologique implique
une psychanalyse de la connaissance. Le chercheur doit se débarrasser de tout ce qui peut
lui faire commettre des erreurs. Une hypothèse ne résulte pas d’une opinion car elle doit
formuler des problèmes au lieu de se fier à des données faussement évidentes. Ainsi, le
rationalisme appliqué exorcise l’inconscient de l'opinion pour lui préférer la mise en forme
rationnelle de l’expérience que détermine la position d’un problème. Dans une enquête
policière, par exemple, “l’investigation associe rigueur et créativité en suivant une véritable
méthode et en laissant place à la possibilité de l'inattendu”. Dès lors, peut-on envisager une
épistémologie de l’abduction ?
“Lorsque l’esprit se présente à la connaissance, il n’est pas jeune, il est très vieux,
parce qu’il a l’âge de ses préjugés”. Même si les préjugés peuvent être utiles dans la vie
courante, Bachelard estime qu’ils constituent des entraves à la connaissance scientifique et
l’accès à la science va permettre un rajeunissement de l’esprit en détruisant les préjugés. Le
processus d’accès à la connaissance scientifique est donc une lutte contre nos jugements
immédiats et donc cette inconscience de soi, d’où son désir de psychanalyse de la
connaissance. D’un point de vue pratique, ce qui distingue la science de l’opinion de
manière radicale est cette démarche de formulation qui va aboutir à formuler un problème
en vue de progresser vers une solution dans une démarche rationnelle. L’esprit scientifique
est ainsi formé selon Bachelard. “La science, dans son besoin d’achèvement comme dans
son principe, s’oppose absolument à l’opinion. S’il lui arrive, sur un point particulier, de
légitimer l’opinion, c’est pour d’autres raisons que celles qui fondent l’opinion ; de sorte que
l’opinion a, en droit, toujours tort”. L’opinion traduit un rapport pragmatique aux objets, elle
ne peut donc pas permettre de formuler d’hypothèses quant à ces objets par nature. Nous
en venons donc à comprendre la recherche scientifique comme une enquête médicale ou
policière. La démarche par laquelle on en vient à formuler une hypothèse est irréductible à
l’application d’une méthode inductiviste et qu'elle ne peut pas non plus être hasardeuse et
résulter de l’opinion.

II. Vers une épistémologie de l’abduction

Si les hypothèses dont le chercheur va chercher à découvrir des implications qui sont
vérifiables ne dérivent pas de la simple induction ou de l’opinion, comment à partir de
l’observation d’un cas peut-on formuler une hypothèse qui soit susceptible d’en constituer
l'explication rationnelle qui soit la plus plausible ? Pour Charles Sanders Peirce, cette
démarche intellectuelle n'est pas réductible au raisonnement inductif ni à la simple
déduction, mais qui va faire jouer les deux opérations afin de produire une idée nouvelle :
cette opération va être nommée abduction. De manière globale, elle va consister en
l’observation d’un fait surprenant et la recherche d’explications susceptibles de rendre
compte de ce fait. De quelle manière est faite cette recherche ? Ce processus inférentiel va
s’appuyer sur une procédure d'enquête qui va consister à imaginer plusieurs hypothèses en
vue de l’explication causale d’un fait surprenant avant de mettre ces hypothèses à l’épreuve
de l’expérience. Ce type de raisonnement abductif est doté de caractéristiques singulières
car d’un point de vue logique il a une forme définie mais en même temps il relève d’une
forme de divination (guessing). Une abduction prendra généralement la forme suivante : un
fait surprenant B est observé, une hypothèse A est émise selon laquelle si A était vrai alors
B s’en suivrait, et enfin, il y a de bonnes raisons de supposer que A sera vrai. Par exemple,
j’observe que la route est mouillée, j’émets l’hypothèse que s’il avait plu, la route serait
mouillée, donc j’ai de bonnes raisons de soupçonner qu’il a plu. Du point de vue formel, ce
raisonnement n’est pas valide, puisque de nombreuses hypothèses courantes pourraient
intervenir, et on considère donc ce raisonnement comme un sophisme, celui de l’affirmation
du conséquent d’un conditionnel, puisque les deux propositions sont reliées par l’opérateur
du conditionnel “si… alors”. Des énoncés ainsi formés peuvent tout à fait se présenter de
telle manière que l’on aura un conséquent vrai sans que l’antécédent soit nécessairement
vrai également. Même en admettant la vérité de ce conditionnel, rien ne va exclure dans
l’exemple que la route soit mouillée pour une autre raison. Comment peut-on rendre compte
de la plausibilité d’une conclusion qui ne sera en rien logiquement nécessaire ? C’est ce que
Peirce appelle faire une hypothèse et il l’illustre dans le texte où un individu est mis devant
une table et va se demander de quel sac de haricots viennent les haricots blancs qu’il a
trouvés sur la table. Si parmi les sacs qui étaient présents sur la table, il fait le constat que
seul un des sacs contient uniquement de haricots blancs, il va faire l’hypothèse d’après
laquelle les haricots de la table viennent de ce sac-là. Ce que nous dit Peirce c’est que ce
n’est pas une inférence inductive ni une hypothèse formée au hasard : on produit un
jugement à partir de l’observation d’un cas, les haricots sur la table sont blancs, et d’une
observation plus générale, les haricots d’un certain sac sont tous blancs. Cet exemple
paradigmatique va témoigner du fait que l’inférence abductive ne va être valide logiquement
que si on la justifie par un contexte donné qui permettra d’exclure les autres causes
possibles que l’on n’a pas retenues. L’hypothèse explicative prend son sens dans son
rapport avec des habitudes d’action socialement et historiquement situées et qui vont
gouverner de façon presque automatique nos comportements quotidiens. Nous faisons un
usage quotidien de ces émissions d’hypothèses et de choix de l’hypothèse la plus plausible
et cela peut prendre une dimension très créative dans le champ de la recherche scientifique
et qui a pu donner des savoirs inédits.
Étudions la manière dont Kepler a découvert le caractère elliptique de l’orbite de la
planète Mars. On peut présenter la démarche de Kepler en quatre étapes. Tout d’abord, il
doit expliquer un fait, l’orbite de Mars. Bien qu’il adopte déjà l’héliocentrisme de Copernic, il
va chercher à trouver la nature de la courbe que fait l’orbite de Mars autour du Soleil. Étant
encore héritier de conceptions traditionnelles sur les mouvements des astres, la forme
parfaite associée au monde supralunaire est le cercle, et Kepler suppose donc que le
mouvement de l’orbite de Mars autour du Soleil est un mouvement circulaire. La première
hypothèse est donc la suivante : Mars se meut en décrivant un cercle. Cette hypothèse
initiale est d’emblée réfutée par l’observation des mouvements de Mars qui se situent sur un
tracé ovoïde et non circulaire. Le fait observé, cette forme ovoïde prise par la trajectoire de
Mars autour du Soleil, devient un fait surprenant, en ce qu’il ne s’inscrit pas dans la vision
classique que nous avons des mouvements célestes. La deuxième étape de sa démarche
est donc l’émission d’une seconde hypothèse : la trajectoire de Mars décrit une ellipse. La
troisième étape correspond donc à la vérification de cette hypothèse. Après de plus amples
observations, les mouvements de Mars correspondent bien à peu près à une ellipse dont on
placerait le foyer sur le Soleil. Cette confirmation peut être représentée comme une
inférence selon laquelle un énoncé conditionnel va se voir confirmé ou du moins renforcé
par la véracité de son conséquent. Enfin, quatrième et dernière étape, cette idée nouvelle, à
son tour, va faire l’objet d’une généralisation inductive qui va conduire à la formulation de la
première loi de Kepler qui énonce que les planètes du système solaire suivent des
trajectoires elliptiques dont le Soleil va constituer l’un des foyers.

Partie IV : Les critères de scientificité d’une théorie

Une hypothèse est une proposition formulée par un chercheur en vue de répondre à
un problème. Elle reçoit toujours sa signification dans le cadre d’une théorie scientifique.
Une théorie est un ensemble de concepts, de principes et de lois, ainsi que d’hypothèses qui
vont former un système complexe à propos d’un sujet ou d’un domaine de connaissances
déterminé. Une théorie va se caractériser par une mise en forme logique et par un ordre
inférentiel qui va permettre de lier les différents éléments qui la composent ; mais aussi par
son abstraction, et dans certain cas sa complexité. Si aujourd’hui il nous semble naturel de
considérer la science comme champ privilégié de construction d’édifices théoriques, il est
important de reconnaître qu’il existe un grand nombre de théories qui n’ont aucune
prétention à la scientificité, et on citera la plupart des théories philosophiques, politiques,
morales et esthétiques, qui ne cherchent pas tant à construire un discours scientifique au
sens strict qu’à traduire des conceptions du monde qui soient cohérentes et susceptibles de
donner du sens à nos actions, voire d’imposer à nos actions un cadre normatif qui soit
reconnu par une communauté qui partagera les mêmes valeurs. Il y a une difficulté qui se
pose également lorsque l’on se penche sur les sciences de l’homme, notamment car les
discours des chercheurs dans les sciences de l’homme semblent osciller entre une exigence
de neutralité axiologique, considérée comme un gage de scientificité, et un engagement
personnel qui donne lieu à des prises de positions argumentées et qui rompent avec cet
idéal de stricte objectivité que l’on associe au discours scientifique. Il importe de poser la
question, d’autant plus dans la mesure où la légitimité accordée à la science peut pousser
certaines doctrines à asseoir leurs positions en revendiquant une scientificité qui leur
donnerait l’ascendant sur les doctrines rivales. Il y a de nombreux auteurs post modernes
qui ont tenté de faire usage de théories scientifiques en appliquant des conceptions
reconnues en mathématiques à des domaines a priori totalement étrangers aux
mathématiques, dans la psychologie ou la sociologie par exemple. Est-il possible de définir
des critères à l’aune desquels puisse être établie une démarcation entre science et
non-science ; il est d’autant plus important de poser cette question en ce que l’alternative
consisterait en un relativisme qui ne permettrait d’établir aucune distinction entre des
représentations imaginaires, magiques et mythologiques, et des résultats obtenus en
appliquant des méthodes de raisonnement. Quels sont, donc, les critères pour reconnaître
une théorie comme scientifique ?

I. Critères de vérité, critères de scientificité

Face à la question de savoir ce que l’on peut attendre d’un édifice intellectuel qui
prétend à la scientificité, on peut être d’abord amené à étudier tous les requis d’un discours
vrai, en considérant la science comme un modèle de vérité.

A. Une exigence de cohérence

La science doit se soumettre à l’obligation fondamentale de non-contradiction. Pour


l’évaluation des sciences formelles, ce critère de cohérence interne est suffisant ; mais, en
revanche, il est évident que pour les sciences empiriques, l’absence de contradiction, qu’on
nomme aussi la consistance, ne peut pas suffir à garantir la vérité d’un discours scientifique
dont l’objet va résider dans un contenu qui est extérieur à la connaissance. On pense ici à la
critique kantienne de la définition purement logique de la vérité. La cohérence interne
constitue une condition nécessaire mais non suffisante de la vérité. Il n’existe pas de pierre
de touche qui permettrait à la simple logique de découvrir une erreur qui tiendrait non pas de
la forme du raisonnement mais qui toucherait à son contenu, c’est-à-dire sa vérité matérielle
et non formelle.

B. et de conformité

Si l’on suit la définition scolastique de la vérité, adequatio rei et intellectus,


adéquation entre des représentations intellectuelles et la réalité, en considérant donc que la
science devrait toujours se montrer capable de rendre compte des phénomènes
observables et assurer un accord entre ses contenus théoriques et la réalité qu’elle étudie,
on peut se demander en quoi consiste exactement cette adéquation ? L'adéquation d’un
discours scientifique avec la réalité peut prendre la forme d’un pouvoir d’anticipation d’un
certain nombre de phénomènes significatifs, de sorte qu'une théorie scientifique devrait
pouvoir constituer un bon système de production. En d'autres termes, une théorie
scientifique devrait pouvoir s’associer à un ensemble d’implications vérifiables qui
permettraient de la mettre à l'épreuve de l'expérience. Dans quelles mesures ces critères de
cohérence interne et de conformité aux données de l’expérience vont vraiment nous
permettre de distinguer entre science et non science ? Si on effectue une application
mécanique de tels critères, le risque ne serait-il pas de donner lieu à une confusion entre les
notions de vérité et de scientificité ? Toute théorie vraie serait tenue pour scientifique tandis
que toutes celles marquées soit par des contradictions logiques soit par une inadéquation
entre la théorie et l’expérience devraient être exclues du domaine de la science. Cela
impliquerait que les savants n’ont pas réellement le droit à l’erreur. Un risque majeur serait
de ne plus pouvoir faire la différence entre une théorie qui comporte des énoncés inexacts
en raison du caractère limité des connaissances expérimentales possibles sur le sujet et des
discours idéologiques et religieux. L’enjeu ne réside pas tant dans la distinction de vérité et
erreur que dans la démarcation stricte entre les sciences empiriques, les sciences formelles
et des discours qui par nature devraient être considérés comme extra scientifiques.

II. Le problème de la démarcation

Comment les sciences empiriques se distinguent-elles d'une part des sciences non
empiriques et d’autre part des domaines extra scientifiques ?

A. La difficulté de distinguer les sciences empiriques de la métaphysique

Il ne faut pas confondre les méthodes et concepts des sciences de la nature avec
celles des mathématiques pures et de la logique formelle, qui ne requièrent ni observation ni
expérimentation. De fait, elles visent une vérité formelle plutôt qu’une vérité factuelle. Pour
Popper, les discours métaphysiques vont prétendre pouvoir aboutir à des vérités nouvelles
par l’usage de la raison pure plutôt que par l’analyse attentive des phénomènes. Les
discours métaphysiques portent néanmoins sur la réalité : les sciences empiriques que l’on
connaît aujourd’hui descendent toutes d’un savoir à prétention scientifique, la métaphysique
spéculative ou philosophie. Moins une science est développée et plus elle va porter en elle
des marques de métaphysique, selon Popper, de sorte que la manière dont elle va réussir à
se démarquer de cette métaphysique va être extrêmement importante afin qu’on puisse la
considérer comme une science. On pourrait considérer qu’une métaphysique prétendrait
relever de l’expérience, tout autant voire davantage que de la raison, en englobant les
expériences subjectives dans le terme.

B. L’insuffisance de la position d’une assise observationnelle propre aux


sciences empiriques

Le critère inductiviste de la démarcation va échouer à tracer une ligne de séparation


entre les systèmes métaphysiques et les systèmes scientifiques, selon Popper, qui s’oppose
à l’idée répandue selon laquelle la science se caractérise par une sorte d’assise
observationnelle ou une méthode inductive et qui serait opposée à la méthode spéculative,
qui correspondrait à la libre création d’hypothèse. Il va appuyer ce propos en montrant que
les théories scientifiques modernes sont extrêmement spéculatives et abstraites et ne
découlent pas du tout d’une application mécanique de la méthode inductive. On peut très
bien identifier de nombreuses superstitions qu’aujourd’hui personne n’accepterait de
confondre avec un savoir scientifique et qui sont bien plus proches de l’observation et de la
méthode inductive que n’importe quelle science, on pourra donner l’exemple de l’astrologie.
Le rejet de l’astrologie du domaine de la science ne s’est pas réellement fait à cause
d’inductions mal formulées, mais tient plutôt à des considérations religieuses, qui ne sont
pas d’ordre méthodologique. Toute l’épistémologie de Popper va avoir pour point de départ
cette solution qu’il propose au problème de la démarcation.

III. Le critère de réfutabilité

A. Le falsificationnisme et la nécessaire prise de risque

Popper a une conception falsificationniste selon laquelle une hypothèse ne peut


légitimement être tenue pour scientifique que si elle va renfermer en elle la possibilité d’être
réfutée. Une hypothèse ne peut être tenue pour scientifique qu’à la condition de représenter
une prise de risque en pouvant être démentie par l’expérience. Si une théorie ne prend
aucun risque, si elle est compatible avec toute observation possible, alors elle ne peut pas
être considérée comme scientifique, et c’est en ce sens que les théories marxistes et
psychanalytiques ne peuvent pas être tenues pour scientifiques. Le choix du critère de
falsifiabilité va se traduire par une asymétrie entre la vérifiabilité et la falsifiabilité, qui résulte
de la forme logique que vont prendre les énoncés universels de sorte qu’ils ne peuvent pas
être inférés d’énoncés singuliers mais ils peuvent être réfutés par des énoncés singuliers. La
confirmation constitue un mythe pour Popper car nous ne disposons jamais d’une
connaissance empirique de l’ensemble des phénomènes présents et à venir qui pourraient
confirmer une théorie ; là où un cas unique suffit pour contredire un énoncé de portée
générale. Popper se livre à une liste issue de l’histoire des sciences où il montre que les
théories les plus fondamentales sont souvent remises en cause, comme la physique de
Newton au XXe siècle, par exemple.

B. La mise à l’épreuve des théories scientifiques

A partir d’une théorie librement proposée, on va inférer une prédiction empirique et


on va voir si l’observation correspond ou non à cette prédiction empirique. Si le contenu de
l’observation ne correspond pas à la prédiction, la théorie sera réfutée et, dans le cas
contraire, on va simplement considérer que la théorie n’a pas encore été réfutée. On ne peut
jamais conclure qu’une théorie est vraie ou vraisemblable, on dit simplement qu’elle n’a pas
encore été réfutée. La position de Popper est extrêmement nouvelle et elle s’oppose à une
conception d’irréfutabilité dans la science : seront scientifiques seulement les théories qui
prennent le risque d’être réfutées. Les théories scientifiques auront toujours un caractère
hypothétique et “la science n’est pas un système d’énoncés certains ou bien établis ; notre
science n’est pas savoir (épistémè), elle ne peut jamais prétendre avoir atteint la vérité. [...]
Nous ne savons pas, nous pouvons seulement conjecturer” (La logique de la découverte
scientifique, p.284). Les théories constituent des conjectures qui n’ont pas été démenties par
l’expérience. C’est une épistémologie incompatible avec l’idéal inductiviste qui résulte de
cette conception poppérienne, où l’origine des hypothèses n’est soumise à aucune
restriction méthodologique, et aucune vérification n’est possible. Le thème central de
l’ouvrage de Popper est que nos erreurs peuvent être instructives dans la mesure où le
progrès de la connaissance scientifique demande une critique des théories antérieures. La
connaissance scientifique progresse grâce à des conjectures qui seront ensuite soumises
au contrôle de la critique, de l’expérience, et, comme il n’y a jamais de connaissance
certaine dans cette optique, Popper écrit que les théories par lesquelles se définit la science
d’une époque donnée vont simplement être celles qui paraissent offrir de meilleures
tentatives de réfutations que les théories concurrentes. Popper rejette l’inductivisme et
procède dans le premier chapitre à un examen du marxisme, de la psychanalyste et de la
psychologie individuelle d’Adler. Popper a d’abord été fasciné par toutes ces théories et il va
en venir petit à petit à considérer qu’elles ne se plient pas à des normes de scientificité. En
examinant les théories freudiennes et adleriennes, Popper remarque que tous les cas
imaginables peuvent être interprétés en faveur de ces théories. C’est la force apparente de
ces théories qui va constituer, du point de vue de leur prétention à la scientificité, un point
faible. “La science doit [...] partir des mythes et de leur critique ; elle n'a pour origine ni la
collecte des observations ni l'invention d'expériences nouvelles, mais l'examen critique des
mythes, des procédures et des pratiques à caractère magique”. La scientificité pour Popper
réside d’abord dans cette capacité d'autocritique.

Vous aimerez peut-être aussi