Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Il y a beaucoup de notes dans cette fiche, afin de vous donner des pistes supplémentaires de
réflexion. De plus, je rajouterai quelques ouvrages, vidéos, articles ayant le même objectif.
Introduction à l'épistémologie
Chapitre I
L'épistémologie
Le terme est composé du grec "épistémé" (= science) et du suffixe "logie" (= l'étude critique sur...
ou la théorie)
La définition même de l'épistémologie est compliquée, car elle regroupe des domaines plus ou
moins éloignés. André Lalande considère que "C'est essentiellement l'étude critique des principes,
des hypothèses et des résultats des diverses sciences, destinée à déterminer leur origine logique (non
psychologique), leur valeur et leur portée objective" Il considère donc que l'épistémologie et la
gnoséologie (= théorie de la connaissance) sont deux domaines distincts. Cependant, les anglais et
les italiens intègrent la gnoséologie dans l'épistémologie (en usant de la même terminologie) (1).
L'épistémologie s'occupe donc des sciences, mais comment les définir ? Ici, il y a deux grands cas :
1) Soit les sciences sont les disciplines qui concernent l'univers (à l'exception de l'homme) et
qui ont recourt aux mathématiques (C'est la position de Poincaré)
2) Soit les sciences sont : "Un ensemble de connaissances et de recherches ayant un degré
d'unité, de généralité et susceptibles d'amener les hommes qui s'y consacrent à des
conclusions concordantes qui ne résultent ni de conventions arbitraires ni des goûts ou des
intérêts individuels qui leur sont communs, mais de relations objectives qu'on découvre
graduellement et que l'on confirme par des méthodes de vérifications définies."
("Vocabulaire" Lalande) Cela inclut donc les sciences juridiques, théologiques, normatives
(morale, logique, esthétique), etc.
Je ne développerai pas beaucoup cette sous partie, car ce n'est que de la culture générale (c'est
important, je ne dis pas le contraire, mais ce n'est pas primordial pour les partiels).
Ce qu'il faut retenir, c'est qu'il est nécessaire d'étudier les hypothèses anciennes pour comprendre
l'évolution d'une discipline.
Par exemple entre l'antiquité et la fin du Moyen-Âge, il y a eu trois types d'algèbre :
– Géométrique
– Verbal
– Symbolique
Chapitre II
Invariants et structures formelles
I- Les problèmes
Qu'importe la définition que l'on donne à l'épistémologie, la science doit, quel que soit son domaine,
chercher des invariants et des lois qui expliquent les phénomènes, les faits. Mais cela amène
beaucoup de questions :
– Quels sont ces invariants ?
– Quelles sont les méthodes propres à les déceler ?
– Quels sont les principes sur lesquels se construisent les sciences ?
– Y-a-t-il des principes spécifiques à chaque science ou peut on trouver des principes
universels auxquels obéissent toutes les sciences ?
On peut distinguer divers types d'invariants qui ont été utilisés dans l'histoire des sciences.
1) L'invariant mathématique
Dans cette conception, l'invariant est un nombre entier. Cela apparaît dans les
mathématiques pythagoriciennes et on les réutilise dans la mécanique quantique (avec
les quanta de lumière, par exemple.)
2. Sous forme de structure géométrique : (Par peur de dire une connerie, je vais juste citer
le texte)
Cette forme est la plus simple. Ici, l'invariant est le rapport entre deux nombres/lettres.
Par exemple : pv = constantes. Si p et/ou v varient, leur relation reste invariante (loi de la
pression et du volume du gaz à température ambiante → Loi de Boyle-Mariotte.)
2) L'invariant qualitatif
Elle a d'abord été abordée par Platon sous la forme des Idées. C'est à dire que cela touche
l'essence des choses. Un homme sans mains, sans pieds, malade, reste un homme. Son
essence n'a pas varié malgré des changements physiques.
– Le nombre n'est utile que comme indicateur d'une quantité (3 jarres d'eau)
– Le nombre est conçu comme une entité en soi (Il dépasse l'abstraction -Merci Pythagore-)
– Il garde ce caractère et Platon ajoute un rapport entre le petit et le grand
– L'opération est analysée et conçue séparément (avec des symboles)
– Puis l'opération est étroitement liée aux nombres (les racines, etc.)
Un autre problème se pose depuis maintenant quelques temps (l'Antiquité grecque) à savoir : la
notion de temps et d'espace.
En ce qui concerne la mesure du temps, nous avons plusieurs méthodes :
On a cru avoir résolu ce problème durant le XVII ème siècle grâce à la macro-physique (Distance et
temps infinitésimaux entre T et T' → Mesurant et mesuré coïncide). Mais, cela suppose de connaître
le point de départ, d'arrivé et le temps que cela a pris. Or, Heisenberg contre-dit cela avec son
principe d'incertitude. (1)
Certains comme Kant voient le temps et l'espace comme des formes a priori de l'entendement
La physique classique considère qu'ils sont en relation et toujours les même
Einstein vient dynamiter tout cela en montrant que le temps et l'espace varie (vitesse, observateur,
lieu, etc.) (2)
Si nous nous intéressons plus aux mouvants et aux individuelles plutôt qu'aux permanents et aux
essences, alors il ne nous reste plus que la relation. Si vous me voyez lire, vous vous direz « il lit. »
(jugement singulier et instantané). Mais, le lendemain, vous ne serez plus face à cette sensation.
Était elle vraie ? De fait, on retrouve l'invariant non pas dans l'essence, mais dans la fonction vérité.
(3)
(invariants qualitatifs)
(1) Le principe d'incertitude veut qu'à l'échelle microphysique, il est impossible de connaitre en même temps la position
et la vitesse d'un corps (par exemple un éléctron)
(2) Je conseille (parce que c'est utile [selon un prof que je cotoye] et passionnant [selon moi]) de lire des livres, ou de
regarder des vidéos de vulgarisation à propos de la physique quantique, car cela touche beaucoup de domaine
(l'épistémologie, l'existence et le temps, le vivant, la matière, etc.)
Vitesse = Relativité restreinte
Observateur = Schrödinger et son chat.
Lieu = Relativité générale (si mes souvenirs sont bons)
* Dans cette sous partie, lorsqu'il est fait mention d'invariants, il est nécessairement fonctionnel.
(3) "Une fonction de vérité est le rapport de vérité créé par l'opérateur qui transforme, d'une manière invariante, la
valeur de vérité de la seconde proposition en fonction de la première proposition.
Il existe aussi des invariants quantitatifs, exprimables mathématiquement.
F= ma(1). Qu'importe les modifications apportées à « m » ou à « a », «F » sera toujours le produit de
« ma ».
La notion même de structure formelle est ambiguë, car le concept de forme l'est aussi. Soit elle :
Raymond Ruyer souligne qu'il faudrait rajouter la forme vivante, car ce qui est vivant (ou tout du
moins mouvant) n'est pas une structure, mais une activité structurante.
Les formes que nous avons vu ont des subdivisions :
a) Le pythagorisme
« Pour qui le nombre intervient par unités discrètes agissant chacune pour son compte » C'est ce que
l'on retrouve avec les quanta
« Pour qui le monde matériel et vivant est structuré par les transformations des polyèdres les uns
avec les autres. » Il semblerait (mais je ne m'intéresse que de très loin à la chimie – c'est un tord, je
sais, mais on peut pas être sur tous les fronts-) que cela soit aussi un point important de la chimie
moderne : la forme. (2)
c) L'aristotélisme
« Pour qui la forme ou l'essence qualitative donne à un individu la structure de l'espèce à laquelle il
appartient. »
a) Structure axiomatique
C'est un système rigoureux qui suit les règles à la lettre, mais ne se préoccupe pas de l'interprétation
que l'on pourrait faire de ces travaux. Cette structure est donc essentielle aux sciences, car elle en
est la base. La science donne ensuite des sens aux symboles utilisés.
I- Recours à l'intuition
L'intuition, à cause de sa faillibilité, ne peut être utilisée pour prouver une théorie. Toutefois, ce
n'est pas pour autant qu'il faut s'en passer. En effet, elle est utile pour choisir ou pour faire des
théories.
1) La méthode empirique
2) la méthode expérimentale
Idem
André Mercier (un professeur d'université en Suisse) expliquait que le fait d'infirmer une théorie
était plus décisif. (Ce que disait Karl Popper)
V- L'intervention du modèle
Le modèle est présent depuis l'Antiquité. Vraisemblablement, Platon en utilisait déjà pour étudier
mes astres. Cela a permis d'étudier des phénomènes qu'il était impossible d'étudier directement.
Mais cela passe nécessairement par de la simplification.(1) Il faut donc être sûr que certains
phénomènes que l'on considère comme « négligeables » le soient réellement. Les modèles ont des
défauts, certes, mais ils ont permis de grandes avancées.(2)
(1) Par exemple : Le modèle du système solaire ne montre pas les trajectoires exactes.
(2) Le modèle mécanique du muscle de Rosenbluth et Wiener (et plus tard les modèles liés à la robotique)
VI- La méthode axiomatique
Husserl et Bergson ont tous les deux eu une influence considérable sur la pensée contemporaine.
Husserl a créer une méthode : La phénoménologie que l'un de ses élèves (Spiegelberg) a résumé en
sept étapes :
Toutefois, les quatre dernières étapes ont été discutées par beaucoup de phénoménologues.
Pour Husserl, la phénoménologie n'a pas pour but de s'intéresser aux faits, ni aux causes, mais de
comprendre des raisons et des significations.
Cela ne veut pas dire Qu'Husserl ne s'intéresse pas aux sciences. Il en distingue d'ailleurs deux
types :
Les sciences ontologiques : Qui porte sur la réalité concrète (Géographie, Histoire, etc.)
les sciences nomologiques : Surtout celles qui parlent en langage mathématiques
Cela a même amené Suzanne Bachelard à créer une branche de l'épistémologie : l'épistémologie
phénoménologique.
I- Principes de la logique
Il semblerait (d'après des gens beaucoup plus intelligents que moi) qu'il y ait des principes de la
logique formelle, et qu'ils soient indispensables à la pensée
Ces lois sont donc les bases de toutes logiques, car sinon nous ne pourrions comprendre. De plus,
enlever les deux derniers principes et nous ne pourrions plus créer de raisonnement par l'absurde.
En plus de ces conditions qui forment la pensée, la philosophie en a rajouté d'autres, qu'elle nomme
« rationnelle ».
– Loi de raison suffisante → D'où découlent les principes de causalité, de déterminisme, de
substance et de finalité
Une chose ne peut exister d'une manière s'il n'y a pas de raison à ce qu'elle soit
comme cela et pas autrement(2)
– Le principe de causalité :
Un effet a toujours une cause. Et un effet ne peut pas être sa propose cause. De fait, dans
les mêmes conditions, les causes auront les mêmes effets. (4) Aristote en distinguait
plusieurs (voir le cours). Il faut toutefois faire attention aux liens de causalité que l'on
confond facilement avec les corrélations.
(0) Cela semble problématique lorsqu'il s'agit de certains phénomènes de la nature. Entre le chaud et le froid, il y a le
tiède.
(1) Cela semble infirmé par la physique quantique, avec le chat de Schrödinger, puisqu'il est, tant que nous n'obersvons
pas, dans deux états opposés (vivant et mort)
(2) C'est un argument primordial pour la réflexion évolutionniste. Si quelque chose est, c'est qu'elle a une utilité.
(Biologie, Sociologie, etc.)
(3) Cette vision ne porte aucun jugement quant à la nature rationnelle de l'Être.
(4) D'un point de vue métaphysique (Spinoza, Malebranche) il n'y a qu'une seule cause, la cause première = Dieu (ou la
nature)
– Le principe de finalité :
Tout être a une fin (= un but). Ce principe est très contesté au niveau scientifique...
– Le principe de substance :
« Toute qualité appartient à une substance » cad « Tout ce qui est, existe, soit comme une
substance (réalité qui n'a besoin que du « concours de Dieu » pour être. Elle s'auto
détermine), soit comme qualités et attributs de ces substances. (1)
– Le principe de conservation :
On connaît tous cette loi depuis les premiers cours de sciences physiques. Le fameux « rien
ne se perd, rien ne se crée, tout se transforme » (Qui n'est pas ce qu'a dit Lavoisier, soit dit
en passant). C'est Anaxagore qui en a parlé le premier « Toutes choses se composent et se
séparent », puis par les atomistes, plus tard par Descartes et finalement par Lavoisier.(2)
– Le principe de négligeabilité :
Tel que Bachelard l'énoncé : « A tous les niveaux de son expérimentation, le physicien doit
se poser la question constante : qu'est ce que je peux négliger ? »
– Le principe de concentration :
C'est un principe dont parlait déjà Platon dans le « Philèbe », à savoir que pour nous rendre
compte d'une propriété quelconque, il vaut mieux l'analyser là où elle sera le plus
concentrée. On ne va pas analyser ce qu'est « le mou » en utilisant un rocher, par exemple.
– Le Principe de simplification :
Il faut toujours chercher la loi la plus simple. Par exemple, un tronc qui flotte, un sous
marin qui plonge ou un aérostat qui se maintient en l'air sont tous les trois régis par la loi
de la poussée d'Archimède.
– Le Principe d'identification :
C'est un processus de simplification qui regroupe des éléments similaire. Par exemple, il
n'existe aucun gaz pareil, pourtant la loi de Boyle-Mariotte les englobe tous (par ce que
les différences entre les gaz ne sont pas importantes.
– Le Principe d'universalisation :
Cela amène au principe d'universalisation qui permet de ne pas aborder toutes les choses
sans les universaliser.
Durant l'Antiquité, on s'est rendu compte que beaucoup de théories que l'on croyait vraies
n'étaient pas définitives. Ce principe a donc été mis en place pour considérer la théorie
comme vraie jusqu'à ce qu'elle soit remise en cause.
IV- La transposition des lois scientifiques en dehors du domaine où elles ont été retrouvées
Les pythagoriciens ont découvert pourquoi les notes des gammes de musique étaient différentes (la
taille de la corde qui vibre) ils ont donc voulu la transposer à d'autres domaines comme la morale.
Ce qui est illégitime. Mais, comment pouvons nous savoir, à l'avance ce qui est légitime et ce qui ne
l'est pas.
V- L'heuristique
L'heuristique est la discipline qui traite de l'invention scientifique. Malgré le travail de beaucoup
d'épistémologues (Bouligand, Moles, etc.) cela n'a pas abouti. Et c'est peut être mieux, car cela
comporterait des dangers. Le travail serait en équipe avec un cadre strict. Donc, on perdrait de vue
l'intérêt de la découverte (le plaisir d'aller vers le vrai), on louperait sûrement des découvertes
majeures (les plus grands chercheurs étaient libres et ont beaucoup appris par erreurs ou par hasard)
J. Piaget écrit dans son livre l'épistémologie génétique que de nombreuses sciences s’interpénètrent.
Par exemple Paul-Emile disait « le généticien d'aujourd'hui, par exemple, devrait être jardinier et
éleveur, aussi bien que cytologiste et morphologiste, il aurait à connaître la physiologie, la
microbiologie et la biochimie sans ignorer les mathématiques, la physique et la chimie ». C'est
comme imaginer un professeur de sciences humaines (Histoire, philosophie, anthropologie,
ethnologie, sociologie, économie(1), etc.)
VII- Intervention de la notion d'échelle de grandeurs et ses contrecoups sur l'universalité des lois
scientifiques
L'échelle de grandeur est un problème pour certaines lois, puisqu'elle montre leur généralité.
« En arithmétique, l'addition d'un même terme B perd de son pouvoir additif en fonction d'un
premier terme A auquel on l'addition ( 1+1 = 2 [le double] 10+1 = 11 [un dixième] 100+1 = 101 [un
centième]
De plus, on ne nous mesure par en mm ni en années lumière, car cela ne serait pas pertinent.
En mathématique, le progrès se fait grâce à l'approfondissement des notions de base. Ce n'est pas
tellement le cas dans les autres sciences, surtout celles qui sont expérimentales. La théorie naît, car
(1) Ce n'est pas une erreur, beaucoup d'économistes sérieux (Pas ceux que vous voyez tout le temps sur les plateaux
télés hein...) considèrent l'économie comme une science sociale, comme Frédéric Lordon.
elle a une vertu explicative et elle disparaît quand elle la perd. Blanché pointe du doit dans La
science physique et la réalité (1948) du problème que pose les sciences de la vie (sociologie,
biologie, psychologie) qui n'ont pas de méthode scientifique (ou trop peu) et qu'elles ne peuvent
donc pas être considérée comme des sciences totalement quantitatives et objectives.
Pour Bachelard, il n'y a pas d'adéquation totale du Rationnel au Réel. Mais, si l'on augmente sens
cesse le nombre de variables nouvelles pour atteindre le Réel, alors on augmente les chances de
créer un contact entre les deux. De plus, le mouvement de la découverte irait de la pensée au réel, et
non l'inverse (Par exemple, les trous noirs ou les mésons)
Cet épistémologue postule l'existence d'un « principe d'antagonisme », c'est à dire que tout
phénomène physique ou tout changement d'état implique l'existence d'une énergie (qui ne peut pas
être statique) Ce qui peut amener trois situations :
1) Ou l'un est totalement actualisé et l'autre totalement potentialisé
2) Ou ils vont tous deux du potentiel vers l'actuel ou l'inverse.
3) Ou ils sont dans une position d'égale potentialisation et actualisation l'un par rapport à
l'autre.
Pour lui, il n'y a pas un déterminisme universel, mais une pluralité de déterminisme. De plus, il voit
deux manière d'établir la science :
– Soit comme étant explicative
– Soit comme étant compréhensive (donc plus complète)
V- Les biologistes
Parmi eux M.G Canguilhem disait : « La fonction essentielle de la science est de dévaloriser les
qualités des objets composant le milieu propre en se proposant comme théorie générale d'un milieu
réel, c'est à dire inhumain. Les données sensibles sont disqualifiées, quantifiées, identifiées... Un
vivant ne se réduit pas à un carrefour d'influences. D'où ma suffisance de toute biologie qui, par
soumission complète à l'esprit des sciences psycho-chimiques, voudrait éliminer de son domaine
toute considération de sens ; un sens, du point de vue biologique, c'est une appréciation de valeurs
en rapport avec un besoin. Et un besoin, c'est, pour qui l'éprouve et le vit, un système de référence
irréductible et par là absolu »