Vous êtes sur la page 1sur 40

La matière à proprement parler de la logique formelle ne va pas de soi, parce qu'il faudrait

savoir d'abord défnir ce qu'est la logique et ensuite défnir ce que veut dire formel. Ces
deux termes ont une histoire très considérable dans l'histoire de la philosophie confondue
avec l'histoire de la logique jusqu'à Frege.

On aura, dans la narration de la logique, Aristote jusqu'à Frege (1879). Frege va


complètement révolutionner les études logiques en inventant, avec Boole, la logique
mathématique et va modifer profondément et défnitivement le modèle théorique de la
proposition déclarative (qui désigne toutes propositions apophantiques - vrai ou faux).

Pour Aristote, les propositions déclaratives sont apophantiques et ont la forme: « sujet
copule prédicat ». Ce schéma de proposition aura court d'Aristote jusqu’à Frege en passant
par Kant et Leibnitz. Frege va complètement retourner, renverser ce schéma en créant et
en étendant la notion de fonction mathématique à une théorie du concept.

La logique au départ est un organon (méthode/outil/instrument) avec une préface qui est
l’isagogè (ie introduction) de Porphyre contenant la logique d’Aristote. Ceci concerne la
période dite classique. Cette logique aurait été afnée tout au long du moyen âge jusqu'à
Kant et Leibnitz, tel est la narration ofcielle de l'histoire de la logique (y compris les
bouleversements réalisé par Frege).
En réalité, c'est beaucoup plus compliqué que cela, parce que ça ne tient pas compte de
l'accord des mégariques qui sont à proprement parlé les inventeurs de la logique des
propositions, alors que la syllogistique d'Aristote est le précurseur de la logique des
prédicats. Ainsi, nous avons dès le commencement de l'histoire de la logique deux termes
différents de terminologie à savoir logique des propositions chez les mégariques et
logique des prédicats chez Aristote, l'apport des mathématiques sera fondamental dans
l'évolution de la logique.
A ce stade, nous ne savons toujours pas ce qu'est la logique, un logicien contemporain
nous fait part que la logique pourrait avoir deux sens, le premier sens est que la logique
serait la science de la déduction et d'autre part que la logique serait la science de
la vérité. C’est cette distinction entre science de la déduction et science de la vérité que
nous allons discuter durant toute l'année. Nous la retrouverons dans deux notions
fondamentales utilisées en logique contemporaine à savoir la "syntaxe et la
sémantique".
La syntaxe, c'est à dire l'articulation interne des expressions bien formées (EBF) tel que
celles-ci soient toutes des tautologies (ie des propositions toujours vraies) à l'intérieur de
démonstration qui marquent l'hypothèse d'axiome selon des règles précises, il s'agit de la
structure interne des propositions à partir de laquelle on devrait pouvoir déduire autre
chose (ie des théorèmes, des thèses, et des conclusions des événements dans un système
axiomatique voir page 27 du livre).
Par contre, on oppose la syntaxe à la sémantique qui est elle-même plurivoque, nous
l'utilisons dans un champ précis, il s'agit de l'étude de rapport entre les EBF de
manière générale prise dans le contexte . Les EBF sont réservés à quelque chose d'autre
qu'elles-mêmes qui seraient par exemple au-delà de la syntaxe le monde dans lequel nous
vivons:
Il pleut, je prends mon parapluie, cette proposition nous pouvons la traduire en syntaxe et
en sémantique. Elle décrit quelque chose qui est extralinguistique (ie un fait dans le
monde).
Il faut faire attention car il s'agit ici du sens le plus simple de la sémantique, il faut savoir
que la logique est ontologiquement neutre, ce qui signife que la logique à la fois comme
science de la déduction et comme science de la vérité est totalement indifférente au
monde qui nous entoure, c'est à dire que l'ontologie comprise dans l’ontologiquement
neutre de la logique signife que nous ne prenons pas parti par rapport à la place
qu'occupe un système logique dans le monde dans lequel nous vivons.
Un système logique est ontologiquement neutre s'il n'a aucune implication en autre chose
que lui-même, donc les systèmes ontologiquement neutre sont des systèmes a priori (qui
est établi indépendamment de l'expérience ou de l'observation), il faudra donc voir s'ils
sont synthétiques ou analytiques (voir livre page 13 et 16).
Une proposition est analytiquement vraie si sa vérité ne dépend pas d'une vérifcation
empirique mais de la seule considération des concepts et des relations logiques qui la
constituent. Une telle vérité est dite a priori. Mais des propositions peuvent être
analytiquement vraies en divers sens, plus ou moins proches de la vérité purement
formelle.
Donc la logique est une science de la déduction, de la vérité, qui part des mégariques et
qui arrive à une conception tout à fait philosophique à savoir la neutralité ontologique des
systèmes, à savoir leur neutralité par rapport à ce qui était convenu d’appeler la « réalité
», ce terme en philosophie ne signife pas la complétude de la chose mais au contraire à un
concept relevant de la théorie du constitu…(theo d’ordre ?..).
Donc d’Aristote, nous avons la logique qui deviendra la logique des prédicats, ensuite avec
les mégariques la logique des propositions jusqu’à Frege avec la logique mathématique et
ensuite les plus grands logiciens du XX siècle c’est-à-dire Russell et Whitehead qui vont
pousser le programme de Frege dans ses ultimes retranchements, à savoir le logicisme qui
est la tentative de réduire les lois fondamentales de l’arithmétique à quelques lois
fondamentales de la logique. Le but du logicisme est de réduire le plus possible
l’arithmétique (l’édifce grandiose des mathématiques) à quelques lois fondamentales de la
logique.
Ce projet (tentative qui dura plus de 50 ans) pose des problèmes, tout d’abord ce fut un
échec à cause des théorèmes de Tarski sur l’in défnissabilité dans les systèmes formalisés
et d’autres part le théorème d’incomplétude de Gödel.
Dans les années 30 31 et 35, Tarski et Gödel montrent que le projet logiciste est voué à
l’échec dans la mesure où il est toujours possible de produire à l’intérieur d’un système
inconsistant, tel que les « Printica Matématica » ou « la théorie des ensembles », un
énoncé indécidable, c’est-à-dire dont on ne peut pas décider s’il est vrai ou faux (principe
de bivalence) ou bien un énoncé qui dit de lui-même qu’il est faux. Nous sommes donc
confronter à une aporie qu’il ne trouvera de solution que si nous sortons du projet logiciste
et en inventant une nouvelle logique.
Nous avons à l’heure actuelle une logique dite standard, celle des Printica Matématica de
Russell et Whitehead, en tenant compte du fait que le projet logiciste qui se trouve à
l’œuvre dans Russell et Whitehead est un échec. La question qui se pose est de savoir
pourquoi dans ce cas-là nous étudions une théorie dont on sait qu’elle est fausse.
Justement c’est un des propres de la science logique qu’une fois qu’un théorème est
démontré valide ou qu’un raisonnement axiomatique ou une preuve (par exemple les
tableaux sémantiques) déclaré valide, le résultat est valable.
C’est-à-dire, qu’une fois que la consistance (ie la non-contradiction) d’une preuve ou d’un
théorème ait été établie, cette consistance (la non-contradiction) ne peut pas être remise
en question (en tant que principe). La démarche de Russell et de Whitehead est de partir
de ces principes, une fois que les preuves de consistance ont été données, il y a une
subversion à l’intérieur de ces principes qui transforme la logique standard en une logique
non standard (logique russellienne).
Si nous étudions donc une théorie fausse c’est parce que tous les résultats sont vrais. Donc
on peut avoir une théorie consistante (vraie) c’est-à-dire qui est valide et non
contradictoire et donc on peut engranger (accumuler) ces résultats en tant qu’ils sont
valides et non-contradictoires même si à partir de ces résultats nous obtenons des
propositions indécidables et des théorèmes d’incomplétude.
La démarche de Russell et Whitehead est voué à l’échec parce qu’en 1902 Russell, qui
avait pris connaissance de l’ouvrage des « lois fondamentales de l’arithmétique » de
Frege, découvre qu’il y a une contradiction dans le V axiome, s’il y a contradiction dans l’un
des axiomes d’une théorie automatiquement cette théorie s’effondre. Cet axiome dit qu’à
chaque fonction propositionnelle correspond un concept, donc à chaque classe correspond
un concept, hors il est toujours possible de trouver au moins un cas où le principe
d’indivuation des objets dont les classes ne fonctionneraient pas, c’est-à-dire un objet
inclassable. Quel est le problème ?
On prend une classe, une classe normale qui ne se contient pas elle-même (exemple la
classe des hommes ne se contient pas elle-même parce qu’elle n’est pas un homme),
Russell cherche à savoir ce qu’il advient si on prend la classe des classes qui ne se
contiennent pas elle-même et demandons si elle se contient. Si on prend la classe des
classes qui ne se contient pas elle-même, si elle se contient alors forcément elle ne se
contient pas.
Le problème est que si nous prenons maintenant la classe des classes qui ne se contient
pas et nous demandons si elle ne se contient pas, elle vérife son concept classifcatoire et
donc elle se contient, nous sommes donc confrontés à une antinomie qui met à mal
l’édifce entier de la logique et des sciences mathématiques.
Donc Russell découvre cette antinomie qui porte d’ailleurs son nom « l’antinomie de
Russell », il contacte Frege qui va tenter d’arranger son système durant une dizaine
d’année et fnit en 1913 d’admettre que le problème est insoluble, on va donc assister à un
cloisonnement de théorie logiciste (ou non) qui auront pour but de résoudre cette
antinomie.

Les questions :
1° Il y a en réalité un problème en rapport avec la question du « est » dans « S- est –
P » (sujet verbe prédicat) sur lequel nous aurons l’occasion longuement d’y revenir, la
logique classique jusqu’à Frege propose subsidier que le prédicat d’une proposition
exprime quelque chose d’un sujet. Si je dis par exemple « Marc est grand », « grand »
est une propriété qui se rapporte à « Marc ». Ce type de relation est appelé « une
relation d’inhérent » de manière générale ou « le dogme des relations internes »
par Russell et Whitehead qui est évidemment péjoratif. Toute la logique mathématique
depuis Frege a pour ambition de sortir de ce schéma « S est P », c’est-à-dire des relations
d’inhérent.
Le prédicat est un attribut, il y a donc « inhérence », c’est-à-dire si nous faisons la
décomposition analytique du concept « arbre » nous trouverons le prédicat vert de
l’arbre. Un autre exemple celui de « Descartes » qui dit que tout corps est étendu, si nous
prenons un corps, il est impossible de le penser sans extension, sans dimension, sans qu’il
ne soit spatial. Donc pour Descartes « l’extension » est l’essence de la substance étendu
parce qu’il est impossible de penser à un corps qui n’est pas étendu, donc un corps vide
est une impossibilité pour Descartes parce qu’on aurait un espace sans substance ce qui
est pour lui une impossibilité (Pascal arrive grâce à des expériences à montrer que le vide
existe mettant de la sorte le cartésianisme en défaut et gravement).Nous devons avoir en
tête la question de savoir quel est la nature de la copule « est » (de manière philosophie
quel est la nature de l’être) qui permet de mettre en corrélation deux prédicats d’une
même formule.
Pour ce qui est de la question sur la nature de « être », deux remarques s’imposent :
Première remarque : Il ne faut jamais confondre la problématique de « l’être » avec celle
de « l’existence », être et exister sont deux prédicats d’ordre différent, être est un
prédicat de premier ordre, tandis qu’exister est un prédicat de second ordre.
Deuxième remarque : Si on sort du schéma propositionnel « S est P », quand est-il de
l’être (prédicat de premier ordre) ? Et gare au faite que nous n’avons pas de moyen apriori
de validation de l’être puisque l’être est différent de l’existence, en d’autre terme nous ne
pouvons pas utiliser l’existence comme critère de validation apriori de ce qui serait ou de
ce qui est, donc ça veut dire que la logique tel que nous l’utilisons dans la proposition « S
est P » pose un problème, à savoir qu’elle est le statut de « être » qui prend la forme
d’une copule et qui par magie permet de mettre en relation un sujet et un prédicat au
moyen « d’une relation d’inhérent ou un dogme des relations internes ».
Prenons l’exemple de Frege qui nous dit «Dieu existe » (précisons qu’il n’y croyait pas), le
fait de le dire ce n’est absolument pas se prononcer sur l’existence ou la non-existence
d’un objet « Dieu », dire « Dieu existe » signife simplement qu’il y a une classe non-vide
qui est la classe « Dieu ». Kant disait que l’être est seulement la position où l’existence
n’est pas un prédicat réel (c’est-à-dire qu’on ne peut pas déduire l’existence à partir d’un
prédicat).Quel est donc cet être qui un peu magique, mystérieux a le pouvoir non
seulement de relier un prédicat à un sujet, mais en plus qui a le pouvoir d’être
apophantique (de dire le vrai ou le faux selon le principe de bivalence). Quels sont les liens
entre les concepts de vérité et de fausseté et le « être » qui est la copule sans laquelle le
jugement n’existerait pas. Est-ce que cela voudrait dire que c’est la sémantique de
l’apophantique qui crée l’être ?
Question philosophique fondamentale à laquelle il y aura beaucoup de réponse en
métaphysique et en logique, dans le livre y est épinglé la réponse de Moritz Schlick
(philosophe du cercle de Vienne) qui combat la métaphysique sous toutes ses formes et dit
tout simplement que la copule « être » n’a pas le pouvoir de générer l’apophantique
d’une proposition (le vrai ou le faux), il faut qu’il y ait un communicable qui est l’objet
d’expérience scientifque (ce qui est du positivisme en logique). Donc seule l’expérience
crée « l’être » selon Schlick, point de vue qui n’est pas partagé par nous malgré qu’il soit
intéressant de connaître sa position. Ce n’est pas la nôtre, parce que la position de Schlick
dans sa récusation radicale de toute ontologie ne permet pas de rendre compte de la
totalité de la logique classique que ce soit celle de Russell et Whitehead, celle de Frege et
surtout celle de Lesnieuski (fondateur de l’école de Varsovie). (Voir livre page 10)
Pour revenir à Frege, il écrivit plusieurs ouvrages, notamment son premier la «
Begriifschrift » (qui veut dire écriture de concept), c’est en 1879 que Frege fait exploser
dans son « idéographie » le schéma propositionnel aristotélicien « S est P » au proft
d’une nouvelle conception du jugement que nous mentionnerons plus tard.
Son deuxième ouvrage en 1882 intitulé « Die Grundlagen der Arithmetik» (les fondements
de l’arithmétique) dans lequel Frege démontre d’une manière non formalisée les
fondements arithmétiques, c’est-à-dire le projet logiciste comme tel. Il publie par la suite
son troisième ouvrage «Grundgesetze der Arithmetik » (les lois fondamentales de
l’arithmétique) dont la rédaction prendra environ 20 ans (1893-1913) dans lequel Frege
veut fonder le projet logiciste (c’est-à-dire réduire l’arithmétique à quelque loi logique
fondamentale). Or il y a 5 lois dans les lois fondamentales de l’arithmétique et c’est la
cinquième qui pose problème qui dit qu’à toute fonction propositionnelle correspond une
classe et inversement qu’à toute classe correspond une fonction propositionnelle. Si nous
prenons par exemple la classe des hommes, à cette classe correspond un concept, une
fonction propositionnelle qui est « être un homme ».
Si nous prenons maintenant la fonction « être un arbre » nous pouvons construire une
classe qui est la classe des arbres. Une classe est un ensemble de choses, c’est l’extension
d’un concept. Si nous prenons le concept d’arbre, l’extension de ce concept, c’est-à-dire
l’extension « être un arbre » dira Frege, se fait l’ensemble de tous les arbres qui renvoie,
qui réfère à un parcours de valeur c’est-à-dire à la vérité ou à la fausseté de sorte que si
nous disons cet objet (fonction propositionnelle) « est un arbre » est vrai, la référence de
la proposition « cet arbre est vert » n’est pas le fait que cet arbre soit vert, c’est le fait
que c’est vrai, c’est pourquoi nous disons que la logique est apriori c’est-à-dire que la
référence ultime du calcul bivalent est la vérité ou la fausseté. Donc si nous disons qu’une
fonction propositionnelle avec une classe « la classe des arbres » est verte, cette
proposition est manifestement fausse parce que ce n’est pas la classe qui est verte mais ce
sont ses éléments. Cette proposition réfère à un parcours de valeur, à un domaine de
fonction dira Frege, c’est-à-dire le vrai ou le faux, en l’occurrence ici le faux.
Qu’est que c’est une fonction propositionnelle maintenant ? C’est un concept… Qu’est-ce
qu’un concept chez Frege ? Traditionnellement dans la logique classique depuis Porphyre
et Aristote, le concept est obtenu par abstraction à partir des représentations (terme
générique) que l’on réféchit, compare et enfn abstrait selon la règle (que Kant met en
évidence) « abstraire à partir de quelque chose » (et non abstraire quelque chose). Ce qui
nous intéresse donc dans la théorie d’abstraction tel qu’elle est utilisé jusqu’à Frege, ce
n’est pas seulement ce que nous allons abstraire, c’est le reliquat de l’abstraction qui sera
la représentation commune qu’on appellera un concept.
Si nous comparons des arbres différents pour pouvoir dégager et dire ce que c’est qu’un
arbre (le concept d’arbre c.-à-d. « être un arbre »), nous devrions faire l’abstraction de
toutes les différences spécifques (?) au sein d’un genre commun (le genre arbre), nous
obtiendrons le concept pur d’arbre qui sera un concept de type empirique. Frege va
complètement bouleverser cette vision qui pour lui n’est pas satisfaisante, la théorie du
nombre obtenu par abstraction n’est pas satisfaisante non plus. L’obtention du nombre par
abstraction a été inventée par Aristote et les néoplatoniciens, cette théorie disait qu’un
nombre est un prédicat d’un sujet, d’un ensemble ou d’une classe.
Par exemple si nous prenons un jeu de carte, nous pouvons lui attribuer le nombre 10 s’il y
a dix cartes (ou l’exemple de Kant qui dit qu’en comptant les doigts de notre main nous
pouvons abstraire le chiffre 5), hors pour Frege cette vision est fausse, si nous prenons
l’exemple du jeu de carte et que nous nous demandons qu’elle est le nombre attribuable à
ce paquet de carte ? Apriori rien ne me dit que le paquet de carte que nous avons devant
nous est effectivement composé de 10 cartes, de 10 x la même carte, de 10 x la carte 10,
en d’autre terme il y a une multiplicité de possibilité qui nous permet pas de rendre compte
de l’univocité du nombre 5.

Pour obtenir un nombre, il va falloir introduire un concept celui de « l’équinuméricité »


(concept utilisé par Frege). Pour expliquer brièvement ce concept, posons-nous la question
de savoir quel est la direction de la droite A et B et demandons-nous si A et B sont //. Nous
allons devoir par abstraction prendre classiquement toutes les droites pour abstraire la
direction qui est selon Frege une mauvaise manière de penser (c’est penser à l’envers).
Nous devrions calculer « l’équinuméricité » (c.-à-d. le même nombre) des droites qui
sont // à la droite A et celles // à la droite B et si par un jugement de recognition nous nous
rendons compte que ces droites sont identiques alors nous obtenons le concept
extensionnel de direction de la droite A qui est la même que le droite B.

Petite remarque : Il y a une infnité de droite //, comment donc compter une infnité ? Le
cardinal de l’ensemble des droites // à la droite A c’est « 0 ‫( » א‬alef 0) qui est le premier
cardinal transfni c’est-à-dire l’infni en acte, il est impossible de compter l’infni, voir même
de se représenter ce qu’est l’infni en acte malgré qu’en philosophie au XV siècle on utilisa
cette notion sans avoir les outils mathématiques pour la mettre en œuvre ( ex de
l’univers), il fallait attendre le XIX siècle avec « Kantor » pour avoir la première ébauche
de la théorie des ensembles et de l’infni en acte, c’est-à-dire des ensembles dont
l’extension est équinumérique à l’infni en acte, c’est-à-dire « 0 ‫» א‬, on voit donc par
l’exemple de l’infni la position nécessaire de l’axiome de l’infni sans lequel on ne peut pas
compter, hors l’infni nous l’avons pas, même si nous nous amusons à compter nous
n’arriverons jamais à l’infni parce qu’il y aura toujours « +1 ». Hors « Kantor » dit que
nous allons concevoir l’infni en acte où il n’y a pas de « +1 » bien qu’il y ait toujours un «
+1 », c’est la raison pour laquelle nous ne pouvons pas abstraire « 0 ‫ »א‬en voyant tout
simplement la droite A, il faut que nous calculions l’équinuméricité de toutes les // à la
droite A pour obtenir le cardinal de cette extension qui est l’ensemble des droites A,
ensemble dont le cardinal est « 0 ‫»א‬.

Revenons maintenant à la V loi qui dit qu’à toute classe correspond un concept et qu’à tout
concept correspond une classe. Russell en 1902 décèle donc un problème et envoie une
lettre à Frege qui plonge dans un tourment parce que Russell a décelé chez lui une
contradiction dans la V loi celle du principe de compréhension (la théorie du concept) qu’on
oppose au principe d’extension. Pourquoi ? Si nous prenons une classe normale (qui ne se
contient pas elle-même : celle des hommes qui n’est pas un homme) et une classe
anormale (celle qui se contient elle-même : le concept des classes qui se contient elle-
même), on pose par la suite la question qu’en est-il des classes de classe ? On peut se
demander légitimement si les classes de classe qui ne se contiennent pas elles-mêmes se
contiennent ou ne se contiennent pas ? Hors si la classe des classes qui ne se contient pas
elle-même se contient alors nécessairement elle ne se contient pas (elle répond à son
concept classifcatoire) et si on prend l’inverse et que l’on dit si la classe des classes qui se
contiennent pas ne peut se contenir, si elle ne contient pas alors elle se contient (elle
vérife également son concept classifcatoire), nous avons donc ainsi une antinomie qu’il y
a moyen de résoudre au moyen d’un outil logique très puissant (pour Russell et Whitehead
: la théorie des types simples et celle des types ramifés).

Remarque : Un paradoxe est un raisonnement qui mène à une contradiction, une


antinomie est un raisonnement, une déduction qui part de prémisses en lesquelles nous
croyons et dont la déduction est valide. Donc une antinomie c’est beaucoup moins
étendue, il y a beaucoup plus de paradoxes qu’il y a d’antinomie.
Cours de logique formelle (cours 2)

La défnition générale de la syntaxe se résume en tant qu'elle nous permet de calculer les
variables propositionnelles en théorèmes et axiomes dans un système axiomatique donné.
En d'autres termes, nous avons des propositions , une proposition est l'abstraction
formalisée d'une phrase, d'un énoncé ou d'un jugement tel que cette proposition que nous
notons par une métavariable « a », cette proposition « a » est soumise à des règles en
vertu d’un principe qui est le principe d’extensionalité qui signife que toute proposition est
vraie ou fausse.

Dès qu’on a une proposition, on se peut se demander si celle-ci est valide dans un
raisonnement, ainsi on va construire des raisonnements en fonction de règles de
formalisation qui nous permettront de dégager, d’inférer, de déduire de manière apriori des
théorèmes ou des thèses qui seront toutes des tautologies (c’est-à-dire des propositions
qui sont toujours vraies).

La syntaxe, c’est le mécanisme opératoire qui permet à la formalisation d’engendrer des


propositions qui sont toujours vraies dans des théorèmes, dans des systèmes axiomatiques
et quel que soit la méthode syntaxique utilisée. Il y a deux types de méthode : 1) la
méthode axiomatique 2) la méthode de déduction naturelle.

Ce sont donc deux méthodes de vérifcations que les propositions dans un système
formalisé sont oui ou non des théorèmes (c’est-à-dire des tautologies, des propositions qui
sont toujours vraies).Du point de vue syntaxique, ce qui nous intéresse ce sont les règles
opératoires de formalisations et de calcul sur cette formalisation. Il serait utile d’insister sur
la notion de calcul sachant qu’à l’examen de l’an passée cette question posa énormément
de problème aux étudiants en général. Nous allons essayer d’expliquer en quoi la logique
est un calcul.

Avant tout, il faut savoir que nous avons différent types de calcul. Il y a le calcul des
propositions (premier chapitre du livre), le calcul des prédicats (second chapitre), le calcul
des classes, et le calcul des relations. Si on dit calcul, cela voudrait dire aussi que nous
allons effectuer une opération ou une quantité déterminé ou indéterminé d’opérations sur
des variables que l’on appelle des variables propositionnelles et qui se note : x, y, z, ……
etc.

Ces variables propositionnelles sont neutres du point de vue ontologique (c’est capital de le
retenir). Elles ne parlent du monde qui nous entoure, mais des manières d’en parler, nous
n’avons pas dans le calcul des propositions un accès direct à la « réalité » (mot utilisé avec
la plus grande prudence). On a donc des variables propositionnelles, une ou plusieurs
règles d’opération ou opératoire sur ces variables propositionnelles. Ainsi on va pouvoir
déduire à partir de ces variables propositionnelles et une opération sur celles-ci d’autres
opérations, donc d’autres résultats : des thèses, des théorèmes…

Il est important de savoir en quoi est-ce un calcul ? Avant tout, c’est dans le fait que les
variables sont formalisés d’une part, il faut donc qu’il y ait des règles de formalisation (ce
qui est très capital) qui nous permet de construire ce qu’on appelle des EBF (expressions
bien formées). De là nous nous poserons une autre question, à savoir ce qu’est
« formaliser » ?

Si nous prenons la phrase « il pleut et je prends mon parapluie », nous avons une phrase
qui décrit un état dans le monde (monde dans lequel nous vivons, c’est-à-dire physique).
Nous pouvons prendre cette phrase et la formaliser en remplaçant les termes
syncatégorématiques (ayant une signifcation que par eux-mêmes) par des opérateurs qui
vont nous permettre de faire l’abstraction du fait ce qui ce passe dans la réalité au proft
d’une variable propositionnelle.

Concrètement dans « il pleut et je prends mon parapluie », nous avons deux variables
propositionnelles « il pleut » d’une part, « je prends mon parapluie » d’autre part, et le
« et » qu’on va appeler la conjonction entre deux variables propositionnelles formalisées : x
∧ y.

Notez bien qu’en logique, à la différence du langage ordinaire, il est indifférent d’écrire par
commutativité : x ∧ y ou y ∧ x. Ces deux propositions sont équivalentes en logique,
contrairement au français, il n’y a pas d’ordre nécessaire dans l’addition.

Classiquement on dit que pour obtenir une formalisation, il y a quatre étapes sur ce qu’on
appellera dans un premier temps des « phrases » que nous allons transformer en
proposition logique qui ont la caractéristique d’être apophantique (vraie ou fausse). En
d’autres termes, nous avons deux phrases que nous les transformerons par une opération
d’abstraction en variable propositionnelle reliée par des signes syncatégorématiques (sans
signifcation). Nous avons donc x ∧ y ou y ∧ x qui sont des simples propositions sur des
variables formalisées, mais la logique est incapable de nous dire si cette proposition x ∧ y
ou y ∧ x (qui sont équivalentes) est vraie ou fausse, la logique n’a pas le pouvoir de
décider de l’apophanticité des propositions sur lesquelles elle traite (elle travaille).

Cela veut dire que dans un raisonnement (par exemple dans une déduction naturelle) à
aucun moment les lois logiques ne vont décider si la proposition à démontrer est vraie ou
fausse. Nous avons heureusement ce qu’on appelle le « miracle sémantique » qui est la
transformation d’un simple calcul syntaxique (des simples variables propositionnelles) en
propositions qui sont vraies ou fausses. On transforme la simple règle propositionnelle en
une règle sur la vérité ou la fausseté d’une proposition. Si nous disons « x ∧ y », nous ne
disons rien sur la réalité, nous nous contentons seulement de parler de variable
propositionnelle. Par contre, si nous disons « « x ∧ y » est vrai », à ce moment-là nous
changeons de point de vue et nous entrons dans la perspective sémantique.

Il y a là vraiment un effet miraculeux, car nous posons nous demander comment un calcul
est vrai ? Il ne va pas du tout de soi que 5+2=7, nous pouvons la transformer en fonction
propositionnelle (comme le fait Frege), mais la logique est incapable de nous dire, sauf
moyennant la loi d’induction mathématique, si cette proposition est vraie ou fausse. La
logique n’a pas le pouvoir de décider de l’apophanticité des propositions qu’elle déduit.

Ça ne veut pas dire que la logique syntaxique est indifférente à la vérité ou à la fausseté,
nous verrons en effet que les théorèmes ou les thèses auxquelles on arrive au moyen des
opérations sur des propositions ont aussi une valeur, soit de tautologie ou d’antilogie. Il y a
donc là un miracle sur le fait de savoir comment pouvons-nous passer de « + » ou d’un « -»
à vrai ou faux. Ce qui se joue ici, c’est le vieux problème posé par Galilée, à savoir ce qui
nous permet de dire que la nature est écrite en formule mathématique. Ce problème est
capital et nous le retrouvons dans toutes les sciences qui reposent l’arithmétique et
l’ensemble des mathématiques sur la logique. Tel était le projet logiciste.
Nous avons donc une première opération : l’opération d’abstraction. Ensuite une deuxième
opération : l’opération d’analyse.

Si nous avons une phrase complexe : « x ∧ y », et que nous analysons cette proposition,
nous constatons que nous avons trois termes dans notre analyse : d’une part la variable
propositionnelle x, deuxièmement le « et » l’opérateur logique, et troisièmement l’autre
variable propositionnelle y. Il est très important de respecter les deux procédures : 1) de
distinguer les variables propositionnelles entre elles (c’est capital) 2) d’isoler
convenablement et de manière comme étant une entité autonome le foncteur ou
l’opérateur (dans notre exemple, c’est le foncteur de conjonction).

La notion de calcul, c’est un calcul sur ces opérations, par exemple un calcul sur la fonction
de conjonction qui est le produit logique mathématique. Dès que nous avons l’analyse,
nous pouvons la formaliser : nous avons nos deux variables propositionnelles que nous les
transformons en métavariable. Nous allons dire que x et y peuvent être écrits au moyen
des métavariables c’est-à-dire A et B. Quel est donc la différence entre les variables
propositionnelles et les métavariables ?

La différence est capital parce que au moyen d’une métavariable nous pouvons exprimer
n’importe quel proposition logique quelque soit sa construction et travaillée au niveau du
métalangage (comme dit Tarski au niveau métamathématique) sur ces métavariables.

Donnons un exemple : A est ma métavariable, ce A est mis à la place de x et y, nous


pouvons aussi construire des fonctions propositionnelles qui sont beaucoup plus étendues
que x et y. Nous les rassemblons donc en un tout et nous disons que ce tout est compris au
niveau du métalangage au moyen d’une métavariable. Nous avons donc la formalisation au
niveau des métavariables et puis nous avons à proprement parler la symbolisation.

La symbolisation est une notion qui est très fou et qui est très compliquée à comprendre.
En effet, comment distinguer la formalisation de la symbolisation ? Pour avoir une
symbolisation, il faut que nous ayons au préalable des règles opératoires sur des fonctions
propositionnelles afn de pouvoir symboliser l’opération elle-même. La différence entre la
formalisation, c’est que dans celle-ci on passe à une métavariable qui est mise à la place
de n’importe quelle proposition, nous pouvons travailler selon un principe d’économie et
d’autre part la symbolisation qui est ce travail lui-même. La symbolisation est le travail sur
ce qui permet de construire les fonctions propositionnelles. Si on cite ces quatre étapes
dans la construction d’une proposition, nous sommes en possession d’une proposition de
type logique. Et pourtant cela soulève une importante question qui va traverser tout le
cours, c’est celle de la neutralité ontologique de la logique.

En effet, nous concevons que la logique n’est pas construite par rapport au langage
ordinaire, c’est une science pure apriori (c’est-à-dire sans égard aucun pour l’expérience)
formelle et symbolisée sur des règles de formation des propositions. Quel est la différence
entre ces deux points de vue ?

Le point de vue classique, c’est les quatre étapes que nous avons expliquées, mais on part
d’une « réalité » (avec beaucoup de guillemet) : « il pleut et je prends mon parapluie ». Ça
parait simple, mais dans la logique c’est beaucoup plus compliqué. En fait, notre point de
vue c’est de dire non, cette étape d’abstraction nous nous en passons et nous considérons
que la logique est ontologiquement neutre, c’est-à-dire qu’elle ne se prononce pas sur une
proposition du type « il pleut et je prends mon parapluie » mais sur les manières de dire
cette proposition. Nous nous situons donc d’emblée au niveau des métavariables qui par
leur miracle sémantique nous donnons l’apophanticité des propositions et des
démonstrations principalement dans les déductions naturelles, nous allons voir une
illustration de ce type de problème.

En effet, on peut considérer qu’une proposition logique est une entité (nous utilisons ce
mot car il est le plus vague du point de vue métaphysique) sur laquelle on opère au moyen
de foncteur et on construit une proposition vraie ou fausse (peu importe). Nous pouvons
dire x ∧ y ≡ (est équivalent à) x ∧ y. La question est toute simple : pouvons-nous dire
que x ∧ y (1) est la même chose que x ∧ y (2) ?

En fait ce qui se passe, c’est qu’on considère et on distingue deux types de reproduction de
proposition en logique classique, à savoir d’une part les « token » (les marques) et d’autre
part les « types ». La différence est que le « token » est une inscription dans l’espace et
dans le temps d’une fonction propositionnelle à l’intérieur d’un système axiomatique
donné. Donc un « token » est une proposition concrète composée de lettres, elles-mêmes
concrètes dans un contexte lui-même concret spatiaux/temporellement déterminé, c’est-à-
dire que le « token » selon le vocabulaire de Carnap est chaque fois une manière d’isoler
une proposition par rapport à une autre proposition qui lui serait équiforme.

En effet « x ∧ y ≡ x ∧ y » sont deux « token » différents et donc le (1) n’est pas identique
au (2), ils sont syntaxiquement équiformes mais non identiques (la similarité relève du
métalangage), parce qu’au niveau de la réduplication de la proposition x ∧ y change le
contexte spatiaux/temporelle qui fait que cette proposition est inscrite en un lieu et en un
moment très précis qui est tout à fait différent de l’autre proposition qui lui est
syntaxiquement équiforme (les mêmes variables, les mêmes opérations) mais qui a été
écrite concrètement à un autre moment et en un autre lieu. Le fait qu’on introduit cette
différence entre les différents « token » met à mal le principe d’identité et permet
d’engendrer par exemple l’identité faible comme nous l’avons vu lors de notre précédente
leçon.

On a donc l’équiformité, et cette propriété d’équiformité permet de démontrer la


complétude de l’arithmétique dans un système axiomatique donné.

N.B : les notions de « token » et « types » font parties du métalangage, mais les
propositions sur lesquelles nous travaillons appartiennent au langage objet. Ces « token »
ne nous disent rien sur la réalité, ce sont simplement des entités spatiaux/temporellement
déterminées qui nous disent quelque chose sur la manière dont éventuellement on peut
parler du monde extérieur à nous, de l’extra-logique, ou ce qu’on appelle communément
avec beaucoup de guillemet la « réalité et que les logiciens appellent l’extra-logique (ce qui
est en dehors de la logique du simple constat qui se formalise de la même manière que
« je prends mon manteau parce qu’il pleut », ces propositions sont correctement
construites).

Nous avons donc le miracle sémantique, il nous permet de transformer la simple


opérativité sur des variables dans des propositions qui sont des EBF, de transformer ces
notions d’opérativité en vérité ou en fausseté, c’est-à-dire d’engendrer l’apophanticité dans
des expressions déclaratives (selon la défnition d’Aristote).

Il nous reste maintenant à savoir ce qu’est un « type » ? Un type dit simplement que x ∧ y
≡ x ∧ y est sémantiquement vrai, c’est-à-dire les x ∧ y et x ∧ y sont deux propositions
identiques tout simplement. On serait tenté de dire, si on s’en tient au bon sens, que
toutes les propositions de la logique des propositions sont des « types » et pas des
« token ». Seulement, si ce sont des « types » nous sortons de la neutralité ontologie forte
et nous prenons un parti qui, moyennant des constructions très particulières que nous
allons voir, nous dit quelque chose de la réalité. Seulement, depuis le début du cours, nous
disons que le terme « réalité » est à mettre avec beaucoup de guillemet. Pourquoi ?

Toute l’histoire de la philosophie nous montre que ce concept de « réalité » pose un


problème : est-ce l’être, l’étant, le vrai, les choses…. Qu’est-ce que c’est que la réalité et
en quoi est-elle hors de nous ?

Saint Thomas d’Aquin (auteur médiéval) dans son traité sur la vérité a produit une
déduction sur les transcendantmentaux dans laquelle il distingue nettement la chose (la
« res ») de l’étant. Saint-Thomas d’Aquin et tous les médiévaux à sa suite et jusqu’à
Descartes différencieront la chose (« res ») de l’étant, dans le sens que la « res » n’est
qu’une manière de parler de l’étant, la chose n’ajoute rien à l’étant mais est une manière
d’exprimer l’étant différemment. Si nous transposons du point de vue logique, nous dirons
que la « res » appartient au métalangage tandis que l’étant appartient au langage objet.
Exister et être vont soulever le même type de difcultés d’une manière assez proche. La
grosse différence entre être et exister est que l’existence est un prédicat de second ordre
et comme le dit kant : l’existence n’est pas un prédicat réel, c’est un moment de la
catégorie de la qualité, ce qui veut dire que nous pouvons décomposer en que nous
voudrons un concept nous ne trouverons jamais la notion d’existence.

La chose (« res ») pour Kant est une propriété de concept qui est méta linguistique par
rapport à n’importe quel objet qui est étant dans le monde qui nous entoure. Exister peut
avoir un sens absolu (j’existe), qu’est-ce qu’on peut faire de ce sens absolu ? Frege dit
l’existence est un prédicat de second ordre, cela veut dire qu’exister est une propriété de
propriété, exemple : dire que Dieu existe, ce n’est pas dire quelque chose sur une entité
quelconque qui serait Dieu, c’est simplement construire une classe non vide qui ne se
prononce pas sur l’existence concrète ou même spéculative de l’objet Dieu. Donc en fait
l’existence est un prédicat de prédicat, en l’occurrence est un prédicat de la classe du
concept classifcatoire qui nous permet de construire la classe où se trouve Dieu. Ce qu’il
faut retenir c’est d’une part que pour Kant l’existence n’est pas un prédicat réel et d’autre
part pour Frege l’existence est un prédicat de second ordre.

Allons un peu plus loin… Nous avons pour le moment une proposition, une fonction
propositionnelle x ∧ y, nous avons analysé cette proposition complexe et nous avons
trouvé un opérateur qui est l’opérateur de conjonction ou le produit logique du point de
vue informatique ou mathématique. Ces foncteurs, donc le « ∧ » syncatégorématique est
appelé un foncteur. Qu’est-ce que c’est qu’un foncteur (notion capital) ?

Un foncteur est ce qui permet à la fois de relier deux variables propositionnelles d’une part,
et d’autre part en modifer la structure, notez bien que nous ne disons pas en modifer le
sens (nous verrons cela plus tard). Du point de vue syntaxique, l’opérateur ou le foncteur
modife la structure de la variable afn de pouvoir construire une fonction propositionnelle
complexe. Du point de vue sémantique par contre, le foncteur peut changer la vérité ou la
fausseté d’une proposition (qui est la même que celle obtenue syntaxiquement, mais
sémantiquement cette fois) en la référant par exemple à une réalité hors de nous. Donc le
rôle des foncteurs est tout à fait central parce que sans foncteurs on ne peut pas calculer,
si on n’a pas d’opérateur pour additionner, soustraire, etc… ne pouvons rien faire, ne
pouvons pas calculer.

Etudions à présent les foncteurs d’un peu plus près. On va distinguer les foncteurs
propositionnelles à 1 argument (c’est-à-dire les foncteurs propositionnelles monadiques) et
les foncteurs propositionnelles dyadiques à 2 arguments. Exemple : si je dis x ∧ y, le «∧ »
est un foncteur propositionnel dyadique dans la mesure où le foncteur relie en fonction de
certaines lois (sa loi propre) les deux variables propositionnelles x ∧ y. Ceci est très
important à comprendre car on en aura besoin dans la théorie des classes. Donc il y a des
arguments propositionnels sur 1 ou 2 arguments, sur 1 argument ça sera la proposition
complexe ¬P (non P). Par la magie du miracle sémantique, on dit que ¬P c’est une
expression simplement syntaxique, la négation de P qui signife que P est faux. Il faut bien
comprendre et c’est capital qu’on fait un saut interprétatif très important qu’il faudra
justifé (tout le cours est une justifcation de ce saut) entre d’une part le point de vue
syntaxique ¬P (qui ne nous dit rien d’autre que « non P », nous lisons une variable
propositionnel sans plus) et d’autre part le saut sémantique qui nous permet de dire que P
est faux parce qu’il est nié (c’est à dire P est vrai et ¬P est faux).Comment passer de la
simple opération syntaxique à un calcul sur la vérité ? Nous nous rendons bien compte qu’il
y a là un problème philosophique de toute première importance, car c’est un parti pris
philosophique. Il n’est pas logique de dire (d’afrmer) que la simple proposition complexe
¬P est fausse. Elle est complexe parce qu’on a attribué à P un foncteur monadique de
négation (bien que ça soit un foncteur monadique). Une proposition complexe est une
proposition qui se compose au moins de deux termes (par exemple un foncteur et une
variable, ou bien P∧Q, «∧ » la conjonction est un foncteur qui engendre des propositions à
2 arguments nominaux. La négation est le seul foncteur monadique a engendré une
proposition complexe, les autres n’engendrent pas de proposition complexe (ils sont au
nombre de 4, voir plus bas à la fn du cours).

Qu’est-ce qui nous permet d’introduire l’apophanticité (le principe de bivalence, principe
métalinguistique) à l’intérieur de la syntaxe ? Qu’est-ce qui nous permet de sortir de la
syntaxe et de convoquer le principe d’extensionalité, c’est-à-dire la vérité ou la fausseté
des fonctions propositionnelles ?

N.B : Dans les P.M, la négation est le seul foncteur monadique, à ce niveau des calculs
propositionnels la négation est le seul foncteur monadique que nous verrons, il n’y en aura
pas d’autre. Les règles syntaxiques de la double négation ¬¬P (non non P) est équivalent à
P tout simplement, mais du point de vue sémantique la fausseté de la fausseté de P est
équivalent à l’afrmation de la vérité de P. Ça ne va pas de soi du tout qu’on puisse
introduire impunément sans un parti pris philosophique (et non logique) de ce saut (ce
qu’on appelle le miracle) entre la syntaxe et la sémantique. Nous verrons au fl du cours
quatre manières de démontrer des propositions dans la logique des propositions (2
sémantiques et deux syntaxiques), nous allons voir que les démonstrations syntaxiques
son plus complexe que les démonstrations sémantiques.

La logique comprend le point de vue syntaxique mais aussi le point de vue sémantique,
nous sommes au niveau du métalangage dans le sens que lorsque nous disons que nous
inférons A de B nous sommes au niveau du métalangage parce que la notion d’inférence
est une notion métalinguistique. Nous avons donc une interprétation métalinguistique et
nous avons par ailleurs par un saut miraculeux une interprétation métalinguistique
sémantique. Mais la sémantique comme tel et la syntaxe comme tel sont deux
métalangages différents qui disent en fait la même chose et qui appartiennent au
métalangage de la syntaxe qui prime toujours sur la sémantique. Nous voulons dire par là
que la primauté de la syntaxe sur la sémantique signife en fait que si l’expression est mal
formé, si nous n’avons pas une EBF nous ne pouvons pas calculer, engendrer des thèses et
des théorèmes de la logique des propositions.

Selon les commentateurs et selon les logiciens, certains disent que la sémantique fait
partie ou ne fait pas partie de la logique, nous avons donc les deux possibilités. Le parti
pris que nous avons pris (Sebastien Richard et Mr Peteers) c’est de dire que la logique par
ses lois syntaxiques est incapable de dire le vrai ou le faux, mais nous pouvons construire
un métalangage sémantique qui appartient à la logique et que par le miracle sémantique
permet de construire le théorème d’extensionalité (où l’axiome d’extensionalité) c’est-à-
dire que toutes les propositions sont vraies ou fausses, ce qui forme le domaine des valeurs
des propositions. Notre choix est de dire que la sémantique appartient à la logique mais
néanmoins dans son opératoire quotidien la logique n’a pas la capacité de décider si une
proposition est vraie ou fausse, elle peut décider si cette proposition est valide. Ce qui est
intéressant, c’est de voir qu’on peut passer l’un à l’autre, de la sémantique à la syntaxe et
de la syntaxe à la sémantique, là il faudra être bien prudent, bien distinguer les moments,
les interprétations. Rappelons que c’est un parti pris philosophique, on peut considérer que
la vérité et la fausseté fait partie de la logique ou non, on peut dire que ça n’a rien à voir,
ça ne sera pas moins bon logiquement, c’est une autre logique simplement sans
sémantique. Mais à l’heure actuelle, il n’y en a pas, il n’y a pas de logique sans
sémantique, on verra plus tard pourquoi.

Revenons maintenant à nos foncteurs, bien que la négation soit un foncteur monadique, la
proposition qui en découle est une proposition complexe. Pour ce qui est des foncteurs
dyadiques, ils sont au nombre de 16. En logique classique c’est-à-dire en logique standard,
le nombre de foncteur est et ne peut pas dépasser 16. Mais il y a d’autres logiques, comme
par exemple celle de Lesnieuski, où il y a une infnité de foncteur, c’est très compliqué de
se rendre compte intuitivement ce que ça peut vouloir dire. En fait Lesnieuski ne défnit pas
les foncteurs de manière sémantique mais de manière syntaxico-sémantique au moyen
des catégories de signifcations. Une catégorie de signifcations signife en fait que nous
utilisons un parenthèsage différent qui nous donne chaque fois le niveau de discours sur
auquel nous nous trouvons, nous verrons cela beaucoup plus tard. A ce stade du cours,
nous devons retenir que pour la logique standard il y a 16 foncteurs dyadiques, tandis
qu’en logique non standard nous avons éventuellement une infnité comme c’est le cas en
logique polonaise celle de Lesnieuski.

Il y a aussi des opérateurs qui portent sur les noms, là nous avons vu les foncteurs ou
opérateurs qui portent sur des variables propositionnelles (qui engendrent des
propositions), il y a des foncteurs qui engendrent des noms. Il distingue les foncteurs
nominaux et les foncteurs à arguments nominaux. C’est une autre manière de considérer le
nom logique, le nom logique n’a pas le même sens que le nom en grammaire. La
particularité du nom logique est qu’il est individuel, intuitif et formalisé (par exemple arbre
que nous symboliserons pas « x », mais c’est dans une option qui n’est pas
ontologiquement neutre, nous dirons dans l’option ontologiquement neutre que A ∈ a ce
qui veut dire que A ∈ a est un objet, c’est donc un nom.

N.B 1 : Pour ce qui est des foncteurs polyadiques, le nombre de foncteurs est toujours égal
à 16, mais on pourra l’employer une infnité de fois sur une infnité de variables ce qui n’est
pas le cas pour les foncteurs dyadiques. Dans la logique des relations, on va utiliser les
foncteurs dyadiques et rien d’autres. Mais des propriétés de relations qui sont toujours au
nombre de 16, comme il y a « n » variables, nous allons avoir des formules extrêmement
longues qui portent sur (avec des propriétés) une infnité d’argument.

N.B 2 : Nous avons le foncteur dyadique qui engendre une proposition à partir de deux
noms, le foncteur est de la catégorie sémantique des propositions qui engendre une
proposition composée de deux variables nominales, on pourrait dire qu’il engendre
uneproposition à partir de deux arguments propositionnelles dans notre méta système.

Cours de logique formelle (cours 3)

Nous avons évoqué dans le cours précédent la question de l'antinomie c'est à dire
contradiction à partir de prémisses en lesquelles j'accorde mon assentiment, ainsi
l'antinomie se distingue du coté syntaxique d'un simple paradoxe dans la mesure où dans
la notion de paradoxe il n'y a pas de notion d'assentiment aux prémices d'où je pars pour
arriver au paradoxe (une différence de décision qui est très importante).

Hors l'antinomie de Russell n'est pas la seule, il y a un cas sémantique d’antinomie qui est
toute particulière et tout à fait fondamentale pour la suite du cours et pour la logique en
général.

Si nous prenons la phrase "je mens" qui est la forme la plus simple du paradoxe, nous
constatons dans cette proposition que si elle est fausse alors elle est vraie, et si elle est
vraie alors elle est fausse. On est face à une proposition qui est problématique et nous
n'avons aucun moyen sémantique pour décider si cette proposition est vraie ou fausse, en
d'autre terme cette proposition "je mens" est indécidable (notion fondamental qui
relève de la métamathématique ).

Ce paradoxe est connu depuis l'antiquité et personne n'est parvenu à le résoudre, il a fallu
attendre le logicien polonais Tarski (élève de Leśniewski) pour donner une solution à ce
paradoxe. Cette solution est très complexe, et nous ne verrons que quelques éléments.

Tarski a écrit un gros ouvrage qui s'intitule " le problème de l'indicidabilité de la


vérité dans le système formalisé" , il est confronté à une telle proposition paradoxale
qui a été déduite d'un système axiomatique qui est tautologique (qui devrait être vrai)et
pourtant on peut générer une proposition tout à fait particulière qu'on appelle indécidable
(qui dit d'elle-même qu'elle est fausse). Cela veut dire qu' au sein du système formalisé
syntaxiquement et sémantiquement, on génère une proposition selon les règles tout à fait
normal de génération des propositions au sein d'un système formalisé et ça s'applique à
une proposition qui a la particularité de dire elle-même qu'elle est fausse, donc qu'elle est
indécidable sémantiquement puisqu'on ne peut pas dire si elle est vraie ou fausse.

Pour régler le problème, Tarski, qui a inventé énormément de chose en logique


contemporaine, s'est dit selon le même raisonnement que l'antinomie de Russell (celle des
classes) si on ne pourrait pas essayer d'aménager un procédé qui nous permettra d'éviter
ces propositions monstrueuses qui dit d'elle-même qu'elle est fausse. Tarski va inventer
après Leśniewski (le premier à mettre en évidence cette notion) la notion fondamentale de
métalangage.

Si je prends une proposition la neige est blanche, si on sort de l'ontologiquement neutre,


nous dirons que cette proposition est vraie. Prenons maintenant une autre proposition que
nous la mettrons entre guillemet "la neige est blanche", ce qui est concerné dans cette
proposition du type métalangage n'est pas le fait que la neige soit blanche, c'est la
proposition qui est l'objet de mon interrogation la neige est blanche est-il en tant
qu'énoncé vraie ou fausse?

Cela veut dire que la logique est incapable de décider de la vérité ou de la fausseté d'une
proposition, il faut des moyens sémantiques extrêmement poussés pour décider le
parcours de valeur, c'est à dire le domaine de fonction dans lequel on pourra décider si une
proposition logiquement construite de type « EBF » est oui ou non vraie ou fausse, c’est
l’axiome d’extensionalité tel qu’il a été développé par Frege en 1879 !

Tarski distingue la marque concrète de la proposition (par ex. je mens) et tout jugement sur
cette proposition, c’est-à-dire la mise entre-guillemet qui permet de neutraliser le
paradoxe. C’est la proposition qui est vraie ou fausse et pas le fait du langage objet qui dit :
je mens ou je ne mens pas. Donc par-là, syntaxiquement et sémantiquement, Tarski
empêche le paradoxe de surgir et ainsi nous pouvons continuer à procéder dans la logique
des propositions de manière sémantique, c’est-à-dire en mobilisant le vrai ou le faux.

Ce problème, la mise entre parenthèse, résout le paradoxe du menteur. Si on considère la


neige est blanche en tant que proposition, nous ne parlons plus de la neige, mais nous
parlons de la proposition qui est susceptible d’être vraie ou fausse dans un sens tout à fait
différent que « la neige est blanche » parce que nous constatons jusqu’à preuve du
contraire que la neige n’est pas noir.

Dans la proposition la neige est blanche, c’est la proposition elle-même qui renvoie à un
parcours de valeur (c’est-à-dire le vrai ou le faux) et ce n’est que dans un second temps et
non pas par une simple observation que la neige est blanche. Il faut apriori (au départ) que
nous constatons que la neige est blanche pour dire si la proposition la neige est blanche
est une proposition vraie ou fausse, les deux valeurs vrai ou faux indiquent que nous
sommes dans une logique bivalente et implique un axiome extrêmement important, celui
de l’extensionalité qui signife qu’une proposition renvoie à un parcours de valeur. Nous
verrons dans le chapitre « calcul des classes » pourquoi cet axiome est extrêmement
important.

En conclusion, si je dis je mens rien ne me dit que cette proposition est vrai, Tarski tente de
signifer cette proposition d’un point de vue formelle en évoquant le métalangage, nous
mettons les guillemets et nous disons que cette proposition est décidable en fonction du
parcours de valeur de la fausseté et de la vérité, nous introduisons l’axiome de bivalence
(le vrai ou le faux) et d’autre part l’axiome d’extensionalité.

Au cours précédent nous avons évoqué la question des foncteurs. Qu’est-ce qu’un
foncteur ? Du point de vue du langage objet, un foncteur est un opérateur (simple ou
complexe) sur des variables qui permet de calculer. La notion d’opérateur est très parlant,
très intuitive, il permet de rendre compte de manière immédiate la notion de calcul sur des
variables en fonction de lois qui régissent les différents opérateurs qui sont au nombre de
16 dans la logique des propositions. Donc la notion d’opérateur est relativement intuitive,
elle nous permet de mieux cerner la notion de calcul, mais néanmoins les logiciens parlent
de foncteur. Pourquoi n’utilisent-ils pas la notion d’opérateur qui est très intuitive et qui
nous montre bien que nous sommes dans un processus de calcul en vertu de loi des
opérateurs, mais les logiciens, tout comme les mathématiciens préfèrent parler de
foncteur, pourquoi ?

La notion de foncteur nous fait penser à fonction. Qu’est-ce que c’est qu’une fonction ? Une
fonction c’est avant tout une notion mathématique, ex : f(x)≡ x²=4 . Le contenu de cette
fonction sur lequel nous devons décider de la vérité c’est x²=4 qui renvoie au parcours de
valeur c’est-à-dire à la vérité ou la fausseté, mais nous exprimer ainsi n’est pas encore
sufsant. Il nous manque quelque chose, parce que nous pouvons dire que le « x » est une
inconnue. Qu’est que c’est cette inconnue ? C’est une variable, hors si nous avons à faire à
une variable, nous devons quantifer la variable.

Donc cette fonction mathématique n’est valable que x (pour tout x), (x) x entre parenthèse
chez Whitehead et Russell, chez Leśniewski c’est très différent mais nous le verrons plus
tard. Nous avons donc ici une véritable fonction mathématique exprimée logiquement qui
est pour tout x si la fonction arité ( ?) à la variable x est équivalente à x = + /- 2 (En
mathématiques, l'arité d'une fonction, ou opération, est le nombre d'arguments ou
d'opérandes qu'elle requiert).
Nous avons donc introduit la notion de quantifcateur qui n’apparait véritablement que
dans la logique des prédicats, mais pour construire une fonction logique nous avons à tous
les coups d’un quantifcateur. Il existe trois sortes de quantifcateur : 1) quantifcateur
universel pour tout x 2) quantifcateur « existentiel » (voir calcul des prédicats pourquoi il
faut le considérer avec beaucoup de guillemet) avec au moins un tel que 3) quantifcateur
nommé la description défnie qui nous permet de parler d’un et un seul individu d’au moins
ou au plus un individu, ce qui s’appelle une description défnie inventée par Russell, nous le
verrons aussi dans le chapitre du calcul des prédicats.
Mais pourquoi nous en parlons maintenant ? Nous avons évoqué la notion de fonction, et le
génie de Frege a été d’inventer en 1879 la Begrijfschrift (Idéographie, écriture de concept),
il va montrer dans ce livre au moyen de la loi d’induction mathématique la suite des
nombres c’est-à-dire l’axiomatisation de l’arithmétique. Frege a eu l’idée géniale de dire
qu’une fonction n’est pas uniquement qu’une fonction mathématique, une fonction peut
s’appliquer à autre chose qu’à l’être mathématique quelconque. A quoi peut s’appliquer
une fonction si ce n’est à un être mathématique comme par exemple x²= 4 ?
Pour les philosophes la notion de concept est tout à fait centrale, tout le monde en parle,
mais est-ce qu’on nous a vraiment défni ce qu’est un concept ? La défnition varie d’un
auteur à l’autre, rappelons qu’en philosophie il n’existe pas de vocabulaire technique à
proprement parlé, il y a donc polysémie du terme concept. Frege quant à lui veut donner
une solution et une défnition à la notion du concept pour résoudre cette polysémie.
Si nous prenons le mot maison qui désigne une habitation, avons-nous un concept ? Nous
avons obtenu cette défnition par l’exemple le plus proche, classiquement nous utilisons la
coordination prédicablement par le principe de l’arbre de Porphyre. En quoi pour Frege le
terme maison n’est pas un concept alors que classiquement ce serait bien entendu un
concept ?
Si nous défnissons intuitivement le terme maison, nous mentionnerons les termes de
logement, d’habitation, de bâtiment, etc….Si nous prenons toutes ces caractéristiques,
nous nous rendons compte que c’est la défnition du dictionnaire, elle représente des
caractères de concept. Cela signife que si nous décomposons le concept de maison dans
sa défnition, nous trouverons des caractères qui auront celle de logement, habitation,
bâtiment, etc… et cela porte un nom : c’’est la défnition intensionnel (défnition en
signifcation) ou en compréhension (selon la logique de port royal).
Hors, une telle défnition en compréhension soulève des problèmes. Pour en citer un,
posons-nous la question suivante : si nous avons à notre disposition, lorsque nous utilisons
la notion de maison, un objet extérieur à nous qui puisse être catalogué dans un ensemble
qui serait l’ensemble des maisons ? Est-ce que par le simple fait de dire maison, est-ce que
je défnis quelque chose qui me permet de décider si l’objet maison se trouve inclus dans
un ensemble ? Avons-nous un tel mécanisme opératoire, ou bien nous faudrait-il autre
chose ?
Maison est une propriété qui est commune à toutes les maisons ou au moins une, pour
aller plus loin que la défnition intensionnelle nous devons pouvoir décider si une maison
qui est à l’autre côté de la rue est une maison ou non. Nous remarquons dans notre
analyse du mot maison qu’il existe un critère de décidabilité de la notion de maison comme
prédicat. Cette défnition prédicative de la maison modife radicalement ce qu’est le
concept de maison car pour Frege maison n’est pas un concept, ce n’est pas un contenu
jugeable d’une fonction, un concept pour Frege c’est « être une maison ».
Si nous disons maison ça n’a rien avoir avec la vérité ou la fausseté dans un point de vue
sémantique, par contre si nous disons être une maison nous construisons à l’aide des
propriétés communes à toutes les maisons un ensemble ou une classe de toutes les
maisons. Nous avons naturellement besoin de l’intension d’une défnition de décidabilité
pour dire ce qui appartient à mon ensemble de maisons basé sur un critère de décidabilité
qui n’est pas d’une nature psychologique, ce critère ne défnit pas l’intention ou la
compréhension, mais comme le disent tous les logiciens depuis Frege l’extension.
Remarque :
Ce qu’on appelle « réalisme » en logique, c’est l’existence transcendante (qui est là à notre
disposition) des propriétés qui nous permet de défnir le critère de décidabilité par lequel
nous construisons un ensemble avec une maison ou éventuellement aucune maison. Cela
veut dire que « être une maison » est un concept défni en extension et non plus en
intension ou en compréhension, cela implique que la notion fonction en mathématique
peut-être transformée et l’appliquer au concept. Si nous disons que x est une maison et
que pour tout x, x est une maison, cette proposition pour Frege renvoie au parcours de
valeur (la vérité ou la fausseté), ceci est la défnition extensionnelle qui nous permet de
construire un ensemble ou une classe.
Cette simple idée de défnition en extension en fonction de critère de décidabilité d’une
notion ayant un objet dans un ensemble va mettre en péril la totalité des mathématiques,
c’est ce qu’on appelle la crise la crise des fondements mathématiques qui a commencé
avec le mathématicien Georges Cantor (pour ce qui est de la théorie des ensembles) et du
point de vue des classes avec Frege et Russell.
P.S : L’extension est tout ce qui est dans ma classe et le prédicat est défni par le concept
classifcatoire qui nous donne le critère de décidabilité si un objet quelconque dans
l’univers appartient à ma classe en fonction de la bivalence (la vérité ou la fausseté du
parcours de valeur de ma proposition pour tout x, x est une maison). Le principe
d’extensionalité en fonction du critère de décidabilité nous permet de construire quasiment
apriori ce que nous aurons dans notre ensemble de maison, car apriori tous les éléments
qui sont dans mon ensemble est censé vérifer le critère de décidabilité de l’ensemble.
Etre une maison (en tant que prédicat et concept) est une expression insaturée que nous la
saturerons par x. Pour décider l’import existentiel nous sommes obligés de quantifer
universellement et nous dirons : pour tout x, x est une maison qui est vrai ou faux en
extension en vertu du critère de décidabilité de ma classe maison. Si x est à l’intérieur de
ma classe maison, nous serons sûr que x est une maison.
Il y a donc tout de même un critère de décidabilité qui est intensionnelle, l’extension nous
le construisons en fonction d’un critère, une propriété, un concept classifcatoire qui nous
donne le critère de décidabilité extensionnelle par lequel nous construisons la classe, mais
le problème est que ce critère de décidabilité renvoie de très loin (le plus loin possible) à
une défnition intensionnelle.
La thèse qui prévaut à l’heure actuelle est celle de Carnap qui consiste à dire que
l’intension et l’extension sont inséparables, on ne peut pas faire l’économie de l’intension,
mais on essaye de le faire le plus possible. On essaye de défnir en extension parce que si
on défnit en intension nous fnirons par tomber dans des paradoxes, des antinomies, des
contradictions qui vont mettre en péril l’ensemble de toutes les mathématiques, ce qui
aboutira à la crise des fondements mathématiques.
Comment arrivons-nous à résoudre le paradoxe du menteur à l’aide de ce processus ? Une
défnition en extension nous permettra de dire qu’être un nom c’est être un menteur, nous
faisons de menteur un prédicat et non plus un nom. Si je demande : est-ce que ce prédicat
est vrai, je me réfère à un x, si c’est vrai je le mets dans mon ensemble, et s’il est faux je
ne le mets pas dans mon ensemble tout simplement. Nous évitons donc de poser la
question : si ce prédicat est vrai alors il est faux et s’il est faux alors il est vrai. Nous
évitons donc l’apparition du paradoxe ou de l’antinomie par une base axiomatique ou
simplement par la défnition d’un concept comme l’a fait Frege.
Remarque sur l’ontologiquement neutre :
L’ontologiquement neutre implique des « token » (des expressions) et pas des « types ». La
logique ne parle pas du monde mais des manières d’en parler. Il reste à savoir ce qu’est le
monde, savoir sur quoi porte authentiquement une proposition. Il ne s’agit pas du monde
comme nous l’utilisons en extra logique, la neutralité doit se comprendre par rapport à
l’import existentiel.Comme nous l’avons mentionné plus haut, il existe trois types de
prédicat : universel – particulier – singulier.
Dans une logique ontologiquement neutre, il n’y a pas de quantifcateur particulier ou
existentiel parce que cela voudrait dire qu’il existe un apport existentiel au sein de la
logique, ou qu’il y ait de l’extra-logique qui viendrait se greffer à l’intérieur de la logique.
Hors nous refusons ce raisonnement catégoriquement puisque nous concevons la logique
comme étant pure et apriori sans égard ou sans rapport avec n’importe quel import du
monde extérieur.
La question est de savoir ce qu’est la manière de parler du monde. Leśniewski est le
premier à avoir fait la distinction entre le langage et le métalangage. Nous avons un
langage ontologiquement neutre, un langage-objet « L » qui est la manière de parler des
manières de parler du monde, à ne pas confondre avec le langage « L+1 ». Le
métalangage (L+1) est la construction axiomatique de la totalité des propositions d’un
système qui s’appelle la protothétique (qui est la fondation du calcul des propositions).
Le métalangage permet de construire de manière valide une proposition qui parle d’une
certaine manière du monde. La protothétique est le premier système dans l'ordre logique,
c'est-à-dire qu'il fonde l'Ontologie. Il s’agit d’un système logique axiomatisé et formalisé.
On peut rapprocher la protothétique d’un calcul des propositions disposant d’une
quantifcation d’ordre supérieur. En effet, s’il est possible dans ce système de quantifer les
propositions, il est tout aussi possible de quantifer des foncteurs ayant pour argument une
ou des propositions.
Il est toujours compliquer de comprendre ce qu’est cette manière de parler du monde. Par
exemple pour Frege, la chimie est une des manières de parler du monde, et la logique est
la manière de parler de la chimie, tout comme la physique. Ceci résume le point de vue
syntaxique.
Pour ce qui est du point de vue sémantique, il y a un problème. Ce que les opérateurs (les
foncteurs) de la logique classique ne nous permettent pas de rendre compte d’une identité
affaiblie (alors que l’égalité est une identité forte) qui repose sur deux critères à savoir que
le sujet d’une proposition identiquement faible doit dénoter un objet dont le nom dit qu’il
est dans le monde et connoter des propriétés.
Hors un tel objet pourrait être possible : A ∈ a, nous avons le foncteur d’identité faible qui
n’appartient à la logique des propositions, qui n’appartient pas à proprement parler à la
logique des prédicats. Nous avons donc un opérateur tout à fait particulier d’identité faible
grâce auquel nous pouvons dire que A ∈ a.
Par exemple dans « ceci est un arbre », nous avons la défnition d’un objet qui est le terme
indéfnissable mais axiomatiquement formalisable. Le A majuscule signife un objet et le a
minuscule est un nom partagé. Si je dis par exemple x est une maison, maison n’est pas un
terme abstrait, transcendant, c’est un nom partagé.
Ce qu’il faut retenir, c’est que les systèmes faibles non classiques sont des systèmes
nominalistes radicaux, il n’y a aucune entité abstraite, aucune transcendance. Mon
opérateur d’identité faible comme vous avez pu le remarquer est l’epsilon « ∈ », cet
opérateur possède beaucoup de propriétés. La plus importante est que ∈ contient et
implique du temps et même de l’espace, cela veut dire que l’ ∈ de l’ontologie est
déterminé spatiaux/temporellement. Cet opérateur est considéré comme l’opérateur
d’éternité c’est-à-dire le présent permanent (c’est l’instant du temps concret chez
Descartes, le temps de Dieu qui n’est pas équivalent à la durée).
L’opérateur « ∈ » est certes un opérateur d’éternité mais toutes les propositions qui sont
déductibles en fonction du métalangage (ie d’un système axiomatique déterminé) est
contextuellement déterminé. N’importe quelle proposition est spatiaux/temporellement
déterminée.
Donc un système ontologiquement neutre signife le déploiement analytique de proposition
spatiaux-temporellement déterminée qui constitue l’extension du « ∈ » d’éternité. Ce qui
veut dire qu’avec l’« ∈ » nous construisons des thèses selon des règles et à chaque thèse
des théorèmes a une inscription, un « token » spatiaux-temporel déterminé qui a la
caractéristique d’être équiforme à une autre expression.
L’idée, c’est qu’à partir d’un axiome où nous utilisons l’« ∈ » d’éternité, nous pouvons
construire selon des règles des thèses, des théorèmes. Chaque thèse et théorème est un
token, c’est-à-dire un être concret saptiaux-temporellement déterminé. En tant qu’il est
spatiaux-temporellement déterminé, la thèse qui serait la même que la thèse numéro 1 ne
serait pas la même que cette thèse numéro 1, il s’agit bien-entendu de token et non de
type en fonction de l’équiformité.
Donc n’importe quelle thèse ou théorème d’un tel système est le déploiement spatiaux-
temporel du contexte qui est le déploiement analytique de l’opérateur d’éternité. Cela veut
dire qu’à partir de l’opérateur d’éternité, nous construisons un système logique dans ce
type de logique non standard et à créer le temps et l’espace.
N.B : Les types, c’est simplement de dire que deux propositions similaires ou équiformes
sont les mêmes. Par contre du point de vue ontologiquement neutre, il s’agit bien de
propositions différentes, puisque le système logique (l’ontologie partielle) est le
déploiement du temps. En créant et en déployant le temps, ce système non standard nous
permet de créer une infnité d’univers qui sont régis par des lois qui sont données par le
métalangage.
En conclusion, le logicien non standard fait qu’à chaque fois qu’il crée un système, qu’il
pose une thèse à partir d’un axiome, il pose un token en créant le temps et l’espace. Tel est
en somme la caractéristique de l’« ∈ » qui permet de créer des thèses qui sont dans le
temps et dans l’espace.
Toute thèse est un token et non un type, nous avons l’ensemble de ce qui est
potentiellement infni, qui à partir de l’opérateur d’éternité, constitue la création d’un
monde, c’est-à-dire la création du temps et de l’espace logique.
Dès lors que nous construisons une ontologie partielle à partir de l’« ∈ », nous déployons
un nouveau monde possible et il y en a une infnité puisqu’il y a une infnité d’instant qui
compose l’éternité c’est-à-dire le présent permanent. L’ « ∈ » contient tout, c’est un peu
près comme le bigbang, il s’éclate en thèse et théorème dans un système partiel. Chaque
fois que nous créons un système, on déploie l’ « ∈ » de manière différente pas
nécessairement équiforme et ceci jusqu’à l’infni.

Logique Formelle (cours 4)


Remarque : Quelle est la différence entre extension et intension ?

On oppose l’extension à l’intension, ou la compréhension à l’extension. Ce qui signife


qu’on oppose d’une part la défnition du dictionnaire (intension), c'est-à-dire les caractères
qui composent le concept (ex : concept de maison) (à noter que pour Frege maison n’est
pas un concept, mais « être une maison » est un concept.). La défnition en intension c’est
donc les différents caractères qui sont compris analytiquement dans le concept « être une
maison » ou « maison », c’est les caractéristiques du premier ordre qui compose le
concept.

L’extension c’est l’ensemble des objets auquel réfère le concept, si je prends le concept
« être une maison » x est une maison je peux subsumer mon objet x sous le concept de
maison. Je vois une maison, je l’identife, je l’abstrais et je dis oui je peux subsumer la
représentation de la maison sous le concept général de « maison ». L’extension c’est la
référence du concept. Mais la se pose un problème, en effet comment puis-je calculer
apriori la référence d’un concept ?

Si par exemple je me promène en rue et je vois une succession de maison, je dis qu’au
numéro un voilà une maison, je subsume le numéro un sous le concept de « maison », je
vois le numéro trois et je subsume de nouveau cet objet sous le concept… Qu'est-ce qui
me permet de dire que la maison numéro un et la maison numéro trois sont effectivement
des maisons si elles sont différentes ?

Je dois faire l’abstraction d’un certain nombre de concepts, de particularités qui


différencient les deux maisons, par exemple j’ai une maison à la façade en pierre et l’autre
en brique et bien je vais faire l’abstraction de ces deux caractéristiques pour obtenir le
concept commun de façade par réfexion et par comparaison. C’est la théorie d’abstraction
qui me permet d’identifer les différents éléments dont je sais qui vont composer
l’extension de mon concept de maison.

Mais en fessant cela j’ai simplement dit que j’ai des objets abstraits qui sont des
différences spécifques entre différents objets concrets dont je dis qu’ils sont membres
d’une même classe, d’un même ensemble que je peux subsumer (=mettre en dessous)
sous mon concept de maison.

Surgit immédiatement un problème, qu'est-ce que subsume sous mon concept de


« maison » ? Est-ce que je subsume les objets maison numéro un, maison numéro
deux, ...? Ou est-ce que je subsume l’ensemble des maisons que j’ai obtenu par
l’abstraction des différences entre les différentes maisons ? C’est un problème très
important. On peut se demander qu’est-ce que l’extension ? Il y a deux réponses possibles,
ou bien c’est l’ensemble, la classe ou bien ce sont les individus, les maisons particulières
indépendamment de l’ensemble.

Du point de vue classique on ne parle pas d’ensemble, donc pour Kant par exemple ce qui
est subsumé sous le concept de maison ce n’est pas l’ensemble des maisons, mais ce sont
les maisons particulières qui ayant été comparées, réféchies et abstraites me donnent la
représentation commune de ce qu’est une maison. Cette représentation commune de ce
qu’est une maison Kant l’appelle le concept de maison. Mais le problème c’est que depuis
Frege il y a une donnée supplémentaire qui est le principe de bivalence. Le principe de
bivalence est un principe métalogique, principe syntaxico-sémantique qui signife que
toute variable de composition ou de prédicat est vraie ou fausse.

Si j’applique ce principe à la question de l’intension et de l’extension il va immédiatement


apparaitre la question de savoir si l’extension de mon concept « être une maison » est
vraie ou fausse. Frege n’utilise plus le terme de subsomption, mais le terme de dénotation
ou de référence. Qu'est-ce qui est symbolisé (ou subsumable) par le concept « être une
maison », c’est un semble, une classe et non pas les maisons individuelles. Or Frege dit
l’ensemble des maisons c’est un peu n’importe quoi et il ennuyer par cette notion
d’ensemble, en effet pour lui la crise des mathématiques de George Cantor l’inventeur de
la théorie des ensembles a montré qu’il y a des paradoxes qui sont liés a la notion
d’ensemble.

Frege précise donc qu’est-ce que l’ensemble de ces objets qui constituent ce qu’il appelle
le parcourt de valeur d’un concept. Si j’ai un ensemble c’est un ensemble de quelque
chose, c’est quelque chose je peux les identifé grâce à au concept classifcatoire qui
défnie l’ensemble. Mais qu’est-ce que l’ensemble en tant que tel et quel est le statut des
éléments qui composent cet ensemble ? Frege est confronté à une aporie (=question sans
réponse), car la notion que tout système logique doit présupposer, selon lui, et cette notion
est la notion d’objet.

Cette notion pour Frege est un indéfnissable. Je peux dire que je sais, par ce que je me le
suis donné, qu’un l’intérieur de ma classe j’aurais des objets. Ces objets je dois les
identifés, je dois avoir quelque chose qui me permet de dire que l’objet a est effectivement
un élément de l’ensemble qui le contient et qui répond à un concept classifcatoire comme
« être une maison ». Ce qui me permet de le faire c’est l’axiome de compréhension
(cinquième axiome de Frege) qui dit que pour toute fonction correspond un concept.

Donc à n’importe quel ensemble correspond un concept classifcatoire qui me permet de


discriminer dans tous les objets ceux qui font partie ou non de cette classe. Problème, le
concept classifcatoire d’où vient-il ? Il vient de l’intension, ça veut dire qu’« être une
maison » je sais ce que sait et c’est parce que je connais ces caractères que j’ai en
intension que je peux établir mon concept classifcatoire. Le concept classifcatoire est
donc l’intension d’un concept alors que nous cherchions à défnir son extension. On ne peut
pas aussi facilement séparer l’intension et l’extension, car on a besoin de l’intension pour
constituer extensionnellement un ensemble. Cela est du point de vue syntaxico-
sémantique.

Maintenant du point de vue purement sémantique, depuis Frege, nous sommes dans une
logique bivalente. Comment allons-nous faire articuler le faite que la logique soit bivalente
a ce problème de l’intention et de l’extension ? Pour résoudre cette difculté, Frege invente
la notion de parcours de valeur qui correspond en mathématique au domaine de fonction.

Quel est le parcoure de valeur du concept « être une maison » ? On serait tenté de dire que
c’est l’ensemble des objets (x1, x2, x3, …) qui vérife le concept classifcatoire et qui
compose l’ensemble des maisons. Cela est l’extension et pas le parcours de valeur. Le
parcours de valeur c’est un concept de second ordre qui correspond à l’extension de
l’extension d’un concept, c'est-à-dire je peux établir mon ensemble de maisons, mais je ne
sais pas encore si ayant établi cet ensemble de maisons en extension je peux dire si l’objet
x1 est effectivement une maison.

C'est-à-dire que je ne peux pas encore établir la proposition « l’objet a est une maison », je
sature fonction propositionnelle « être une maison » en lui donnant un élément de
l’ensemble des maisons. Je vais donc dire si cette proposition est vraie ou fausse. Le
parcoure de valeur c’est l’ensemble des cas vrais qui dénote l’ensemble ou l’extension
d’un concept.

Le parcours de valeur sont des fonctions saturées. Une fonction est une propriété, si une
fonction est insaturé par exemple « pour tout x phi de x » nous ne pouvons pas dire si elle
est vraie ou fausse, si elle appartient ou non à mon parcourt de valeur. Nous allons donc la
saturée par l’opération d’instanciation, on va individué x en une constante « pour tout x
alpha (un individu alpha) a la propriété phi » (pour tous les objets de l’univers, alpha a la
propriété « être maison »).

À partir du parcours de valeur qu’on va pouvoir défnir l’ensemble des x de manières


purement extensionnelles. Selon Frege quand je compose mon parcoure de valeur en fait je
ne tiens pas compte de la propriété, car celle-ci défnie intentionnellement mon ensemble,
il faut faire « comme si » on faisait l’abstraction de la propriété pour constituer de manière
purement extensionnelle mon ensemble.

Pour conclure, nous sommes confrontés au problème qu’on ne peut pas séparer l’extension
de l’intension. Mais pourquoi devons-nous évacuer l’intension ?

D’abord parce que l’intension est vague, en effet on peut avoir des défnitions différentes,
mais également si on va plus loin et qu’on veut défnir le nombre d’éléments qu’on a dans
notre ensemble on a un problème, car Frege ce dit si je prends la défnition classique de
l’intension il faudrait que je puisse abstraire le nombre à partir des objets.

C'est-à-dire que je veux compter les éléments de mon ensemble. Mais Frege dit que je ne
défnis pas un nombre j’ai attribué un nombre en faisant une opération bizarre qui ne va
pas de soi en retirant un par un les éléments de mon ensemble pour les compter, mais je
ne peux pas faire cela en logique.

Cette défnition du nombre est fausse, car elle repose sur l’abstraction des éléments d’un
ensemble déjà bien défni. Par exemple si on prend un paquet de cartes et essayons de lui
attribuer un nombre, selon ce qu’on vient de voire on compterait les cartes et on
attribuerait le nombre au nombre carte qu’on compter. Mais je compte comment ?

Il faut des lois arithmétiques très complexes pour montrer que 1+1=2, j’ai besoin de la loi
d’induction mathématique et d’une axiomatique puissante. Il faut donc procéder
autrement, car si j’attribue le nombre 10 à cet ensemble de cartes on peut comprendre
beaucoup de choses différentes. On va chercher donc à attribuer une défnition à ce
nombre 10 attribut à ce jeu de cartes. Frege nous dit que cela est impossible, car je ne
peux pas dire apriori si mon jeu de cartes est composé de 10 jeux de cartes, de toute des
cartes qui sont 10, de jeux de 10 cartes, de 10x10 carte,…

Cette méthode n’est donc pas bonne, car elle repose sur le fait de compter qui en défnitive
repose sur l’abstraction faite sur mon ensemble. Pour résoudre ce problème, Frege dit je ne
peux pas abstraire les nombres nous sommes en guerre philosophes contre les
psychologues, car avant Frege on avait une défnition abstraire, c'est-à-dire une défnition
psychologisante des nombres, on n’est pas dans l’objectivité pure ce que recherche Frege
pour qui il existe un monde des nombres. Pour Frege, on ne peut défnir les nombres qu’a
partir du moment où j’aurais pu défnir mon parcoure de valeur qui correspond à un
ensemble défni extensionnellement.

Partons d’un exemple géométrique (plus facile à comprendre que la théorie des nombres)
que nous donne Frege : Prenons une droite que j’appelle « a » et je demande non pas le
nombre, mais la direction de la droite. Comment défnir la direction de la droite a de
manière purement extensionnelle sans faire appel à l’intension (qui serait je mesure la
droite a et j’en tire des propriétés qui me permettrons de défnir la direction de cette
droite) ?

On va la défnir par la totalité des droites qui lui sont parallèle et donc là on défnit la
direction de manière purement extensionnelle sans même faire appel au concept de
direction. Pour les nombres c’est la même chose, on va dire par exemple que le nombre
des apôtres est 12 et le nombre des chevaliers de la Table ronde est 12. On va demander
qu’est ce qu’est 12 ? 12 est l’ensemble des apôtres ou des chevaliers, on sature la fonction
« est le nombre des apôtres » et on obtient l’ensemble des apôtres dont le parcoure de
valeur renvoi à douze. Douze est, comme la direction de la droite a, une classe de classe,
c’est un concept du deuxième ordre ou pour Frege une propriété de propriété.

Prenons l’exemple de Russel qui dit que la défnition du nombre un est la classe de classe
des singletons (= classe d’un seul élément), la classe de tous les singletons défnie
extensionnellement le nombre un. Pour défnir le nombre deux, on dira que c’est la classe
de tous les pairs, la classe des classes qui contiennent deux éléments. Donc pour défnir le
nombre x, sans l’abstraire, on construit un ensemble dans lequel on a tous les ensembles
contenant x éléments.

Pour ne pas tomber dans l’antinomie des classes de classes on pose l’axiome de
réductibilité inventé par Russel qui dit qu’on ne peut pas mélanger par exemple la classe
des nombres 12 avec 12x la classe des 12. Cet axiome nous dit que la classe des classes
contenant douze éléments est à un degré supérieur aux classes comprenant douze
éléments, classes qui sont infnies. Cet axiome a donc pour but d’interdire à une classe de
faire partie d’elle-même. Donc les classes de classe défnissent les nombres qui seraient
« équivalents » au parcours de valeur chez Frege.

Logique Formelle (cours 5)


Nous allons faire dans la syntaxe, nous rentrons dans le cœur de la logique, dans ce qui
constitue sa puissance analytique en tenant compte du fait que les propositions
analytiques que nous allons voir ne sont pas considère comme des propositions
apophantiques (= susceptible d’être vraie ou fausse). Pour commencer la syntaxe on va
repartir de la table de vérité la plus simple avec le foncteur monodique a on obtient F-V, V-
F, V-V et F-F. Le cas numéro deux (vrai-faux) est égal à la métavariable de départ.

Du point de vue syntaxique ce qui nous intéresse ce sont les cas 3 et 4, c'est-à-dire les
tautologies et antilogies. En effet, un système axiomatique est le déploiement à partir d’un
certain nombre axiomes, le moins possible, et de défnitions qui constituent le vocabulaire
de base de mon axiome. Ensuite nous inférons, déduisions un certain nombre de thèses,
appelées théorèmes, qui découlent en fonction de règles (règle de détachement et règle de
substitution) qui nous permettent d’introduire de manière purement analytique de
nouvelles tautologies.

Donc un système axiomatique c’est une méthode réglée, opératoire de production de


tautologie sous la forme de thèses ou théorèmes. L’aspect tautologique des systèmes
axiomatiques sera à l’origine de grandes difcultés notamment la crise des fondements et
spécialement les théorèmes d’indéfnissabilité de la vérité de Tarski e les théorèmes
d’incomplétude de Guedel. Dans le cas d’une tautologie ont dit que la variable est
immatérielle, comme dans l’étude du conditionnel matériel si l’antécédent d’une
proposition conditionnel est faux le conséquent est immatériel, c'est-à-dire que sa valeur
n’infue pas sur la validité ou vérité de la proposition.

Du point de vue sémantique une tautologie est une proposition qui est valide logiquement.
Nous introduisons une nouvelle notion qu’est celle de validité logique. Nous devons voir la
validité syntaxique, ou le point de vue syntaxique sur la validité, c'est-à-dire que l’idée
qu’une proposition sous la forme d’une thèse ou d’un théorème est démontrable. Si je n’ai
que des tautologies dans mon système axiomatique je peux apriori dire que toute
proposition a l’intérieure de ce système est démontrable.

Donc si la tautologie du point vue syntaxique signife la démontrabilité d’une proposition


qui devient alors une thèse ou un théorème du système axiomatique je peux dire que
toutes les propositions de ce système sont tautologiques et donc démontrables. Je sais
donc a priori si j’ai un système consistant, toute proposition est démontrable. Il faut
distinguer d’une part la démontrabilité et d’autre part la validité d’une proposition.

Nous avons vu qu’intuitivement la validité d’une proposition c’est le faite qu’elle soit
déduite, en fonction de règle d’inférence, à l’intérieur du système axiomatique sous la
forme de tautologie. La validité du point de vue syntaxique signife donc que toute
proposition du système axiomatique est une proposition valide qui nous donne des
théorèmes ou des thèses. Cela veut dire qu’une proposition valide du système axiomatique
est une conséquence logique du système axiomatique lui-même. Il ne faut pas comprendre
le terme de conséquence logique comme le principe de causalité, la conséquence logique
n’implique pas qu’il y est une cause logique.

En effet la nature même, tautologique et démontrable, de toute proposition, thèse ou


théorème d’un système axiomatique qui rend cette proposition valide et aussi tôt qu’elle
est valide, elle est considérée comme conséquente de l’ensemble des propositions qui la
précède. Le signe de la conséquence logique ce note « », cela veut dire que p est une
proposition valide, c’est une conséquence logique à l’intérieure de mon système
axiomatique.

Donc si maintenant je prends l’exemple d’une tautologie que j’appelle « S » et que j’écris :
« S ǀ= A », cela signife que A est dérivé, une conséquence logique de S. S est le symbole
utilisé en mathématique et en logique pour la loi d’induction mathématique dont nous
aurons besoin quand nous verrons a la fn du cours l’axiomatique de Péano qui prend de
fondé l’arithmétique. S est donc l’opérateur de successeur. Il faut donc distinguer
l’opérateur de succession, qui est un opérateur aussi syntaxique, mais qui relève du
principe de l’induction mathématique, de l’idée de conséquence qui résulte de la
démontrabilité tautologique de toute proposition.

Si « S ǀ=A » alors « A≡ T ». Cela veut dire que si la proposition A (ici sous forme de
métavariable) est une conséquence logique de ma proposition S alors A est équivalent a
une tautologie. Si A est une conséquence logique de S, c'est-à-dire qu’elle est démontrable,
alors a est nécessairement équivalent à une tautologie, c'est-à-dire qu’une proposition
toujours vraie à l'intérieur du système axiomatique. Cette proposition conditionnelle (Si…
alors…) est une proposition du calcul des propositions qui utilise le conditionnel matériel
utilisant Si…Alors…

Remarque : Pourquoi prendre « S » ?

S est un cas particulier, si je le prends c’est parce que c’est l’opérateur de l’induction
mathématique qui va nous permettre de fonder les nombres. Or le calcul des propositions à
pour ambition réduire l’ensemble de l’arithmétique et donc des mathématiques à quelques
lois fondamental de la logique. Or on ne peut concevoir une arithmétique analytique qu’en
utilisant la loi d’induction mathématique. Ce principe implique l’utilisation de succession 2
est la successeure de 1, 3 est le suceur de 2, …

Donc pour fonder l’aritméthqye j’ai besoin dans ma métathéorie de cette proposition qui
dit que si A est une conséquence logique de l’opérateur de succession alors A est une
formule qui est une tautologie et que tout A est équivalent à une tautologie. La
conséquence logique à l’intérieur d’un système axiomatique consiste à produire des
tautologies.

La démontrabilité se marque comme ceci : « ǀ─ » a ne pas confondre avec la barre de


jugement. S est un cas particulier de Γ (gamme) , c'est-à-dire de n'importe quelle
proposition proposition qui est une tautologie, par exemple un axiome, qui permet de
générer une proposition valide, c'est-à-dire une tautologie.

Donc tout le système axiomatique , qui bien entendu dépend de son axiomatique, des
règles d’inférence et du vocabulaire de base, sert à générer des tautoliges à partir d’une
proposition hypothétique qui se nomme Γ.
Du point de vue de la théorie des ensembles et de la théorie des classes on dira que « φ ǀ=
A », c'est-à-dire que A est une conséquence logique de l’ensemble vide, puisque c’est à
partir de l’ensemble vide que je peux générer toute conséquence logique qui est une
tautologie. Ceci est une loi fondamentale de la logique. Cela veut dire qu’avec un axiome
on génère un univers puisqu’on ne part de rien pour générer des systèmes axiomatiques.
La loi qui permet de générer tout système axiomatique possible, Γ ǀ= A, est appelée la loi
de conséquence absolue qui régis tous les systèmes axiomatiques possibles.

On déduit de cela un métathéorème qu’on nomme le métathéorème de complétude qui dit


que : φ ǀ= A ≡ ǀ─ A , c'est-à-dire que A est une conséquence logique de l’ensemble vide
est équivalent à A est une proposition démontrable. Cela veut dire que A est la
conséquence logique de, Γmais Γ n’est pas la cause de l’axiome, car il n’y a pas de
causalité, mais une génération de l’axiomatique par le logicien.

À partir de cette loi fondamentale je peux déduire le métathéoreme de complétude qui dit
que A est une conséquence logique de l’ensemble vide si et seulement si A est
démontrable. Une proposition conditionnelle ressemble à un principe de causalité, mais ne
doit pas être confondue avec ce principe de causalité.

La conséquence il faut la comprendre non pas dans le sens d’une causalité matérielle, mais
dans le sens d’une inférence. L’inférence qu’on utilise le plus souvent est le modus ponens
( si A alors B, Or A donc B). « Être une conséquence logique de » cela veut dire être inféré
de, en fonction de ces règles d’inférence que je me donne, qui doit être des tautologies si
je veux que ce système soit consistant et complet.

Remarque :

Les symboles ǀ=A, ǀ─A, … font évidement parti du métalangage, mais les propositions si S
ǀ=A alors A≡ T , par exemple, fait parti du langage-objet, bien que se soit discutable.
Pourquoi est-ce discutable ? Si on se place dans l’optique de la fondation de
l’axiomatisation des mathématiques alors cette proposition est forcement
métalinguistique, car elle parle sur l’opérateur de succession, c'est-à-dire S.

Du point de vue de la fondation de l’arithmétique c’est proposition est métalinguistique.


Mais on pourrait parfaitement la considérer comme étant du métamétalangage, car elle
parle d’autre proposition et donc appartient au métalangage. Mais elle est plus que ça, elle
est une loi or la loi en logique c’est une proposition qui ne peut jamais être enfreinte. Elle
est donc une condition nécessaire et sufsante du système donc elle appartient bien à un
métamétalangage dans la mesure ou elle exprime toutes les manières possibles qu’on a
disposition pour parler du métalangage fondateur qui explicite le langage-objet du calcul
des propositions. Le lois logiques sont circulaires, il faut partir d’un point de départ qui est
pour le langage-objet les axiomes, pour le métalangage les règles d’inférences et pour le
méta-métalangage ce sont les lois fondamentales de la logique du calcul des propositions.

Remarque : Qu’est-ce que le cinquième axiome de Frege ?

Si on prend un ensemble ou une classe, par exemple la classe des maisons est contenu des
touts les objets que sont les maisons. Je peux donc dire a priori que s’il y a un objet dans la
classe des maisons cet objet est une maison.

Maintenant le concept maison qui me permet de discriminer ce qui est ou non une maison
est intensionnel et pas extensionnel, c’est donc une propriété. D’un côté on a
l’extensionnalité , c'est-à-dire la classe des maisons, et de l’autre côté on a le concept
classifcatoire qui me permet de construire mon ensemble, c’est l’intension. Le cinquième
axiome dit qu’a tout ensemble correspond un concept, à toute classe correspond un
concept classifcatoire.

Si on prend l’ensemble vide, cet ensemble n’a pas d’extension , il n’y a pas d’éléments
dedans et pourtant je peux le construire grâce au concept classifcatoire comme par
exemple la classe des x telle que les x ne sont pas identique à eux-mêmes (défnition de
Rossel). L’intension seule permet de construire cet ensemble vide, raison pour laquelle
certains diront que cet ensemble n’existe pas.

En 1902, Rossel voit dans cette loi une antinomie, car apriorie les éléments d’une classe
répondent au concept classifcatoire. Si je prends la classe des classes qui ne se
contiennent pas elles-mêmes et que je regarde si cette classe, qui est un élément de la
classe des classes, correspond à mon concept des classes qui ne se contiennent pas elles-
mêmes je tombe sur mon paradoxe : Si elle se contient, elle se contient pas et si elle ne se
contient pas, elle se contient. Le cinquième axiome est donc faux , il n’est pas valable dans
tous les cas possibles.

Remarque : Qu’est-ce que le parcoure de valeur ?

Si je prends la classe des maisons, j’ai un concept classifcatoire qui est « être une
maison ». Ce concept classifcatoire me permet de constituer le domaine de ma fonction
« x est une maison », c'est-à-dire me permet de discriminer ce qui appartient ou non a ma
classe. Je sais donc apriori si j’ai un élément dans ma classe cet élément est une maison .
Le parcoure est la référence de tous les éléments vraix ou faux qui appartiennent ou pas a
la classe donner. La classe des maisons ne revoit pas aux maisons, les maisons en sont des
éléments. Elle réfère à son parcours de valeur, c'est-à-dire son domaine de bivalence (=
vrai ou faux). Le parcoure de valeur contient toutes les propositions vraix et qui vérifées
mon concept classifcatoire qui me permet de défnir ma classe. C’est un concept que seul
Frege utilise.

Remarque :Qu’est-ce que l’inférence ?

Lorsqu’on dit, j’infère quelque chose de quelque chose, cela veut dire que je prends une
proposition et je peux en déduire une autre proposition. L’idée de départ c’est qu’une
inférence est une déduction toujours vraie d’une proposition à partir d’une autre
proposition. C’est une procédure de déduction toujours vraie. Quelles sont les lois
déinférences ? Cela est beaucoup plus compliqué, la plus connue est le modus ponens.

Remarque : Qu’est-ce qu’une loi circulaire ?

Si je dis que j’ai mon métalangage qui me dit comment fonctionne le langage-objet, je
peux me demander d’où sort ce métalangage ? Je l’ai construit à l’aide de lois, les lois
logiques fondamentales qui me permettent de construire les différentes règles qui me
permettront de constuiter le métalangage. Mais ces lois doivent être fondé, elles se
présupposent elles même, car sinon on régresse à l’infni.

Logique Formelle (cours 6)

Lorsque nous parlons de syntaxe il s’agit d’une formalisation d’un certain nombre d’idées
avec un point de départ d'arriver. Nous avons vu que le point de départ était donné par une
loi, loi autoréférentielle (=se présuppose). C’est donc à parti de l’ensemble vide, Γ qu’on
peut avoir la conséquence qu’une proposition méta variable (A) peut être une
conséquence. Rappelons que l’idée de conséquence doit être distinguée de celle de
causalité. Ce point de départ ce n’est rien et le point d’arrivée c’est l’établissement d’un
certain nombre de théorèmes qui sont des tautologies (=proposition immatérielle, c’st à
dire dont la valeur de vérité n’infue par sur la valeur totale de la proposition qui est
toujours vraie). Nous devons démontrer ces théorèmes, ces thèses. En syntaxe nous avons
deux moyens de démontrer qui sont la méthode axiomatique et la méthode de déduction
naturelle (en sémantique il y a les tables de vérité et tableaux sémantiques). Démontrer,
dans une méthode axiomatique, c’est utiliser des règles d’inférence qui nous permette de
passer d’une proposition à une autre, d’une tautologie à une autre, c’est donc une
inférence qui me permet de vérifé le méta théorème de complétude, à savoir qu’une
proposition A est une conséquence logique de l’ensemble vide est équivalent à A est
démontrable. Être démontrable signife que la proposition A est déductible de la ou des
propositions qui la précèdent selon un certain nombre de règles d’inférence (ex. : modus
ponens). Du point de vue axiomatique, on part de l’ensemble vide, je peux dire qu’une
proposition particulière est la conséquence de l’ensemble gamma, cette proposition
déductible se nomme axiome. Avec un axiome (=proposition évidente par elle-même,
indémontrable, mais ou on peut estimer être la conséquence de l’ensemble vide) on va
démontrer des théorèmes en inférant. Les axiomes sont autopositionnels et comme les
logiciens n’aiment pas ce genre de propositions on les limites les plus possibles, mais donc
ce qu’on peut démontrer avec ces axiomes sera également limité. Nous partons de
tautologie, que sont les axiomes, et nous arrivons à des tautologies, que sont les
théorèmes, moyennant l’introduction éventuelle d’autres axiomes. Si on considère que la
totalité de la logique se réduit à la méthode axiomatique alors la totalité de la logique se
résume à l’inférence de tautologie. La méthode axiomatique, quand on démontre la
complétude et la consistance du calcul des propositions nous sert de base que nous allons
utiliser sans le savoir des thèses et théorèmes, démontrés comme étant des tautologies,
dans des raisonnements sur la formalisation. Rappelons que la défnition d’un calcul de
propositions, comme de celui des prédicats, c’est l’opération qui consiste à appliquer des
inférences sur des variables propositionnelles formalisées et donc de déduire un certain
nombre de théorèmes. Les règles d’inférence partent de propositions considérer comme
évidente et sont donc indémontrable.

Nous allons entrer dans l’axiomatique du calcul des propositions et pour ce faire on a
besoin de foncteur, de méta variable et de parenthèses ainsi nous avons des axiomes
évidents par eux-mêmes, des défnitions et du vocabulaire qui doivent être (ces 3
éléments) en nombre le plus petit possible. Il y a un foncteur que nous allons
particulièrement utiliser c’est celui de l’implication matérielle ou conditionnel matérielle
(Si…alors…). Sa table de vérité est fausse lorsque le premier est vrai et le second et vrai
dans tous les autres cas. Nous pouvons nous demander maintenant qu’elle est la
signifcation sémantique de cette table de vérité et donc du foncteur du conditionnel
matériel à distinguer du l’implication qui relève du méta langage alors que le conditionnel
fait partie du langage-objet (comme avec le biconditionnel (objet) et équivalence
(métalangage)). On va s’interroger sur le sens du conditionnel matériel, ce qu’avait fait
Frege. Frege va construire ce qu’il appelle l’idéographie (= écriture de concept), cette
écriture est une anamorphose (= déformation de la forme) de ce que Frege appelle « la
pensée pure », c'est-à-dire l’axiomatique de l’idéographie qui repose sur le foncteur du
conditionnel matériel. Frege transforme les fonctions mathématiques en fonctions
conceptuelles. Comme ça marche ? Prenons l’exemple de la maison, « être une maison »
est une propriété Γ, pour tout x x a la propriété phi est une proposition vraie si et
seulement son parcours de valeur défnie extensionnellement la classe des maisons.

Comme tabl de verite. Avec tous les x qui sont vrais ont une prop phi

Remarque : Que veut dire « extensionnellement » ?

On une classe qui contient des éléments, par exemple des maisons (maison 1, maison 2…).
Comment pourrais-je mettre un élément dans cette classe ? Il me faut un moyen
discriminant pour me dire que tel objet dans le monde est une maison et pas une table. Ce
critère est le concept classifcatoire qui est l’intension me permettant de défnir quels
objets appartiennent à l’extension de ce concept « être une maison ».
Quant au parcourt de valeur on pourrait être tenté de croire, et se serait une erreur, que la
référence, ou la dénotation, de l’extension du concept « être une maison » serait les
maisons dans le monde. C’est une erreur grave. L’extension de mon concept « être une
maison » réfère ou dénote le parcours de valeur. Qu'est-ce que le parcourt de valeur ? Il
faut songer à une opération mentale, on parcourt, on passe d’un élément à l’autre pour
voir si cet élément appartient ou non a mon ensemble. Le parcourt de valeur est la vérité
et la fausseté de toutes les fonctions conceptuelle qui appartiennent ou n’appartiennent
pas à mon extension du concept. Pour Frege les notions d’extension et de parcours de
valeur sont transcendantes, c'est-à-dire qu’ils existent réellement dans un monde.
Il transforme donc les fonctions mathématiques en fonction conceptuelle, il crée ainsi des
jugements. Comment peut-on entrer un jugement, selon Frege ? De la manière suivante :
(voir livre page 71 et feuilles manuscrites)
La barre d’insertion ( ǀ─ ) est le prédicat universel de toute proposition valide à l’intérieur
du système axiomatique de l’idéographie et ce lit « est une faite ». Cette petite phrase
bouleverse toute la logique depuis Aristote qui dit que la proposition est « S est P », or pour
Frege une tel écriture (S est P) n’est pas une proposition, n’est pas un contenu jugeable.
Après la barre d’insertion, nous avons la barre de jugement « ─ », ce qui veut dire ce que je
vais juger. Nous n’avons plus une proposition sujet+copule+prédicat, mais pour tout x
(quantifcateur universel) que x est la propriété phi (φ) est un faite (prédicat universel). Si
je ne mets pas la barre d’insertion, je n’ai pas un contenu jugeable mais simplement une
combinaison de d’éléments.
Le quantifcateur universel « ─ᴗ─ » défnit le domaine des éléments qui vérife un concept,
on l’exprime par « pour tout » (ex : pour toutes les maisons x est une maison est un faite).
Après la barre de jugement nous plaçons la lettre grecque « ά » (alpha) et non pas x car on
vise a la généralité absolue, c'est-à-dire tous les cas possibles de n’importe quels concepts
en fonction du principe que de tout objet je dois pouvoir dire a quelle classe il appartient et
que de toute classe je dois pouvoir dire quels objets lui appartiennent. Pour tout alpha si
alpha a la propriété phi alors alpha la propriété phi est un faite (pour formalisation voir
feuilles manuscrites).
Frege introduit un nouveau signe qu’est la barre verticale « ǀ » qui précède une nouvelle
barre de jugement. Cette barre verticale c’est la barre du conditionnel matérielle.
Tout ceci défnit une proposition matérielle afrmative et ce lie : « que pour tout alpha si
alpha a la propriété psi alors alpha a la propriété phi est un faite » (pour tous les objets de
l’univers si les objets de l’univers on la propriété psi alors tous les objets de l’univers on la
propriété phi est une faite). Psi (ψ) et phi (φ) sont des propriétés (attention on ne peut pas
les inverser). C’est une proposition de l’idéographie qui va nous permettre de passer du
calcul des propositions aux calculs des prédicats.

Logique Formelle (cours 7)

Remarque : Comment fait-on pour inférer depuis l’ensemble vide ?

Il faut particulièrement insister sur le fait que dans tout système axiomatique il y a une
métarègle (= règle qui s’applique à l’ensemble des systèmes axiomatiques) que nous
appelons le méta théorème de complétude. Et c’est à partir de ce méta théorème qu’on
peut comprendre comment se font les inférences à partir des axiomes, évidents par eux-
mêmes, ainsi que le vocabulaire de base, les défnitions, sur lesquelles nous reviendrons
dans un instant, et sur les thèses du système. Nous avons un méta théorème qui nous
explique comment on peut passer de l’inférence, ou de la conséquence logique, à la
démontrabilité, c‘est à dire nous permet de comprendre comment une proposition
représentée par une méta variable A sur laquelle j’opère une opération, je peux en déduire
que cette méta variable est une conséquence d’elle-même. Donc une méta variable A,
mise pour une variable de proposition p, sur laquelle j’opère une certaine opération,
opération qui est indiquée par le méta théorème de complétude, transcrite de manière
purement formelle et analytique en une implication, appartenant au méta langage, à partir
de laquelle je peux déduire qu’A est dérivable de l’opération opérée sur la méta variable A.
dès que j’ai ceux-ci, j’ai l’idée qu’A est la conséquence de quelque chose, en l’occurrence
ici l’opération de déductibilité, l’inféranciabilité elle-même sur une méta variable. On peut
donc dire que A est démontrable. Ceux-ci sont la parti explicite du méta théorème de
complétude. Il faut maintenant voir d’où vient ce
méta théorème, comment, philosophiquement et syntaxiquement, on va pouvoir justifer
son origine. Analysons d’abord les mots, si on parle de méta théorème c’est parce que
c’est un théorème qui s’appliquent à l’ensemble des systèmes axiomatiques. C’est
néanmoins un théorème, c'est-à-dire une proposition qui doit être prouvée. Je dois donc au
moins l’inférer de quelque chose qui me garantisse la validité absolue (sans condition) de
ce méta théorème. C’est la raison pour laquelle on dit que la déductibilité de A, à partir
d’une méta variable A sur laquelle j’opère une opération, est une forme dérivée de la
formulation rigoureuse du méta théorème :

Γ ǀ= A ≡ ǀ─ A (A est une conséquence logique de gamma, si et seulement si A est


démontrable).

Gamma a deux fonctions, au niveau méta théorique. D’une part, puisque le méta théorème
est néanmoins un théorème, il doit être prouvable sous peine de circularité. Comprenons
que si le méta théorème est lui-même un théorème, il doit nécessairement correspondre à
la formule méta théorique du méta théorème de complétude, c'est-à-dire que tout ceci ( le
méta théorème de complétude) est symboliser par une méta variable Β (béta) sur laquelle
j’opère le méta théorème de complétude. Ce qui veut dire que je dois dire que Β est une
conséquence de quelque chose, si et seulement si Β est démontrable. Conséquence de
quoi ? De n'importe quelle proposition, ou théorème prouvé, c'est-à-dire Γ (gamma
majuscule) : Γ ǀ= A ≡ ǀ─ A →Β* Γ ǀ=Β ≡ ǀ─Β.
Pourquoi doit-on nécessairement poser Γ ? Car sinon le méta théorème de complétude ne
reposerait sur rien. On doit faire, puisqu’il est aussi un théorème au niveau de méta
axiome, qu’il soit la conséquence logique et syntaxique de quelque chose, c'est-à-dire
n’importe quelle proposition tautologique à l’intérieur du système axiomatique.
Maintenant si on étend l’idée de Γ on va se dire : « oui, mais ceci est à nouveau une
formulation du méta théorème ». Je vais donc devoir appliquer le méta théorème à la
formulation de B* (bêta prime, bêta opératoire) du méta théorème et je vais devoir dire
que Γ est démontrable à partir de φ (phi, ensemble vide). Ainsi, je peux dire que gamma
est une proposition tautologique à l‘intérieur d’un système axiomatique, qu’il fonde à partir
de vide. Donc à partir du vide je peux dire ce que je veux, en l’occurrence j’engendre ma
proposition gamma, sur laquelle j’opère mon opération que j’ai B démontrable et inférable
à partir de rien : φ ≡ ǀ= Γ → ǀ=Β ≡ ǀ=Β

Il y a une circularité si je dis, par exemple, que ce méta théorème est équivalent au
principe de non-contradiction : φ ≡ ǀ= Γ → ǀ=Β ≡ ǀ=Β ≡ ~ (P. ~P).
En effet, le principe de non-contradiction s’applique à lui-même ce qui à pour conséquence
qu’il est équivalent au méta théorème de complétude et on peut donc dire, comme
propriété méta théorique du méta théorème de complétude, qu’il s’applique à lui-même
puisqu’il est non contradictoire. La non-contradiction du système est ce qu’on appelle la
consistance du calcul des propositions (à l’inverse du calcul de prédicats). Il est consistant
grâce à ce méta théorème qui est équivalent à méta forme du principe de contradiction.
Ce qui pose problème c’est le statut de l’équivalence et nous comprenons ici pourquoi il
faut distinguer le biconditionnel de l’équivalence, puisque l’équivalence a un statut méta
logique alors que le biconditionnel concerne le langage-objet.

Remarque : Peut-on reprendre plus lentement ?

Il y a donc un problème qui relève des propriétés méta théoriques du calcul des
propositions. On va envisager ce problème sous deux aspects, d’une part il y a l’aspect de
ce qu’on appelle la consistance d’un système et d’autre part l’aspect de complétude d’un
système.
La consistance d’un système est ça non contradiction, c'est-à-dire que je ne peux générer
aucune proposition qui soit indécidable (ni vrai ni faux), ou consistance absolue (=
propriété qu’a le système de produire une proposition qui n’est pas un théorème (issues de
l’axiomatique, mais qui lui appartient pas).
La complétude signife qu’il y a un rapport intime, qui faut prouver du point de vue
syntaxique et sémantique, entre deux opérations bien distinctes. Il s’agit, dans un premier
temps, l’idée de conséquence logique, c'est-à-dire d’une inférence, et d’autre part la
démontrabilité logique (qui est une conséquence de la conséquence logique, ou l’inférence
de l’inférence). Comment faire pour qu’on puisse passer de ce qui est une conséquence de
quelque chose (ex : x est une conséquence de y) à la démontrabilité de ce quelque chose
(x est démontrable) ? Le méta théorème de complétude a pour fonction de montrer
comment s’articulent ces deux notions. Bien entendu, comme il s’agit d’un méta théorème,
il vaut pour tout système axiomatique et fonctionnera avec des métas variables (ce qui
Hilbert appelle schéma d’axiome). Rappelons qu’une méta variable est mis à la place d’une
proposition complète quelque soit, en l’occurrence ici une tautologie (= proposition
toujours vraie). Donc, la méta variable est mise à la place d’une thèse, ou d’un théorème,
tel que cette thèse est valide dans tous les cas, elle est donc immatérielle quant à sa
validité, du point de vue syntaxique, ou du point de vue sémantique c’est une tautologie.
Ensuite ce méta théorème de complétude est un méta théorème, il est donc lui-même un
théorème. Si son contenue est de montrer comment fonctionne la conséquence logique par
rapport à la démontrabilité d’une méta variable, il est légitime de se demander sur quoi
repose le méta théorème lui-même, c'est-à-dire, s’il est auto référentielle, ou se trouve-t-il
en lui-même ? Or l'auto référençabilitée, ou la régression à l’infni, est une faute logique qui
ne sera acceptée que pour les principes les plus évidents, comme le principe de non-
contradiction, le principe d’identité et le principe du tiers exclut.
Mon méta théorème doit donc être la conséquence logique de quelque chose, et s’il est la
conséquence logique de quelque chose, il est démontrable. De quoi peut-il être la
conséquence logique ? Puisque c’est un méta théorème, qui fonction avec des méta
variables (= toutes propriétés et toutes propositions possible du calcul axiomatiques des
propositions du premier ordre), il dépend d’une proposition aléatoire qui est une tautologie,
c'est-à-dire de Gamma. On a donc résolut le faite que le méta théorème de complétude,
étant lui-même un théorème, il doit être la conséquence logique de quelque chose qui est
gamma.
On va devoir maintenant déterminer ce qu’est ce gamma. Dans sa généralité la plus
grande gamma, c'est-à-dire n’importe quelle proposition, peut être universalisé sous la
forme de l’ensemble vide. Donc, on peut dire que le méta théorème est dérivable, est une
conséquence de la classe universelle, mais celle-ci me garantit que le principe d’identité et
non pas la conséquence logique. Je ne peux donc pas, pour l’instant, dériver mon méta
théorème de complétude, c'est-à-dire l’opération faite sur gamma, à partir de la classe
universelle. Je vais donc faire dépendre gamma d’une proposition encor plus fondamentale,
le plus fondamental, c'est-à-dire rien. Ce qui veut dire qu’à partir de l’ensemble vide je
peux démontrer n’importe quelle proposition, pour autant qu’elle soit validement
immatérielle, c'est-à-dire une tautologie. La conséquence logique donnée par le φ indique
la conséquence syntaxique du méta théorème de complétude et donc sa validité
universelle.

On montrer que c’était un théorème et même un méta théorème, mais pas encor que c’est
une méta théorème de complétude. Pour ça je dois me référer à la défnition de la
complétude, terme apparut dans les années 30 lorsque Tarski et Geudel on produit leur
théorème célèbre (Tarski c’est le théorème d’indéfnissabilité de la vérité dans les systèmes
formaliser et le théorème d’incomplétude de Geudel). La question d’incomplétude a surgit
avec une urgence ultime, dans le monde mathématique et logique, puisque Tarski et
Geudel avait montré l’échec du projet logistique de Frege et Rossel, ainsi que la théorie des
ensembles de Halevi Fraenkel, à savoir la réduction de l’arithmétique en quelque lois
logiques fondamentales. On s’est mis à essayer de démontrer l’incomplétude de tout
système possible, comme le calcul des propositions, ou on s’était jamais intéressé à leurs
complétudes. On remet donc en question le méta théorème de complétude, qui est la clef
du calcul des propositions, et on put démontrer que grâce à celui-ci, le calcul des
propositions est un calcul consistant et complet. Car ce méta théorème ne souffre d’aucune
exception. Je dois maintenant manifester,
syntaxiquement, la non-contradiction du système grâce au principe de non-contradiction.
On prend ce principe pour le transformer en schéma de principe et je vais dire que le méta
théorème de complétude est équivalent au principe de non-contradiction. Cela signife que
le système est consistant, c'est-à-dire qu’il ne souffre pas de contradiction.

Remarque : Pourquoi utilisons-nous Β ?

Β Est n’importe quel méta variable, que je mets à la place de ma méta variable A, et qui
est le résultat de l’opération d’inférence appliquée à la variable A. B est le résultat de cette
opération. On a donc inféré B à partir de Γ, et B est mis a la place de n’importe quel méta
variable sur laquelle j’opère l’opération de conséquence logique. B est la forme plus
générale du méta théorème de complétude.
B est une expression méta logique, qui signife la conséquence logique de la méta variable
A sur laquelle je fais l’opération de démontrabilité, tout cela est B. On est dans un méta
métalangage. * désigne l’opération faite sur la méta variable A

Remarque : Quels sont les principes autoréférentiels ?

Il y trois grands principes auto référentiels, qu’on réduit le plus souvent à deux, que sont le
principe d’identité, les principes de non-contradiction et le principe du tiers exclut. Ils sont
donc auto référentielle et indémontrable (attention les axiomes sont indémontrable, mais
pas auto référentielle).

Dans notre système axiomatique, nous avons le vocabulaire de base et puis nous avons les
défnitions. Qu’est qu’une défnition ? C’est un des problèmes les plus compliqués de la
logique contemporaine. Si je prends un objet A et je dis qu’A est égale à toutes les
caractéristiques de A, c’est la défnition du dictionnaire qu’on appelle défnition on
compréhension, ou en intension. Seulement les logiciens sont très embêtés avec les
défnitions intensionnelles, car ces défnitions sont vagues. En effet, tout d’abord on ne
peut pas défnir tous les mots et on va tomber dans des problèmes d’autoréférençabilité
des défnitions. Donc la défnition par intension est une défnition circulaire, a priori.
On peut défnir par une défnition en extension. La défnition en extension d’un objet n’est
pas la classe des objets, mais les objets eux-mêmes. C’est la liste des objets qui vérife le
concept classifcatoire. SI je prends le concept « être une table », l’extension de ce
concept, c’est les éléments qui vérifent le concept classifcatoire qui me permet de
constituer l’ensemble des tables. L’ensemble des tables n’est pas de manière directe
l’extension du concept, c’est une opération indirecte par abstraction.
Quant au parcours de valeur, il serait le domaine de vérité ou de fausseté qui correspond à
la référence de l’ensemble vérifant un concept classifcatoire. Mon concept « être une
table », mon extension toutes les tables, je les abstrais en ensemble et la référence de
l’ensemble c’est le parcourt de valeur. Il me faut un axiome de tri, que nous verrons dans le
calcul des ensembles.

Maintenant « être une table » est un concept, mais qu'est-ce qui me permet de savoir
comment dire que tel ou tel objet fait partie de mon ensemble. Il faut bien que j’aie une
défnition pour savoir si l’objet x est une table ou non, c'est-à-dire une défnition en
intension. Le problème de la défnition en extension est qu’elle ne peut pas faire
l’économie du concept discriminant, me permettant de dire quel objet appartient à
l’extension ou non. Or pour avoir ce concept discriminant, je fais appel à la défnition en
intension, je dois savoir ce qu’est une table pour dire que x est ou non une table. Il y deux
lois fondamentales, à savoir que tout objet on doit savoir dire à qu’elle classe il appartient,
qui correspond a l’axiome d’extensionalité, et que de toute classe je dois pouvoir dire quels
objets lui appartiennent, c’est l’axiome de compréhension. L’abstraction de classe
universelle (voir cours) est une défnition en intension, il nous permet de passer d’un
critère intensionnel à une classe extensionnelle. L’abstracteur de classe me permet de
passer d’une fonction propositionnelle à une classe lui correspondant, nous le ferons dans
le calcul des classes. Pour Russel, toutes les défnitions sont
extensionnelles et inutiles. Il nous dit que les défnitions sont des « commodités
typographiques », elles n’ont aucune valeur intrasystématique, elles sont de pures
commodités (=plus facile d’utiliser des défnitions, car c’est moins long) mais le paradoxe,
dit Russel, ce sont les défnitions qui nous apprennent le plus sur la construction des
systèmes logiques. Elles sont donc, pour lui, méta linguistique.

Logique Formelle (cours 9)


Lorsqu’on commence un chapitre en logique contemporaine nous devons remonter au père
fondateur, c'est-à-dire Frege. Frege a une importance capitale dans la mesure où il introduit
deux notions tout à fait centrales dans la logique des prédicats, et dans l’ensemble de la
logique, à savoir d’une part la quantifcation et d’autre part le calcul de prédicats, qui est
une reprisse beaucoup plus forte de la syllogistique d’Aristote.
Commençons par la logique des prédicats, qu’est qu’un prédicat ? Un prédicat c’est un
concept. Le point de départ de Frege est de réféchir sur les fonctions mathématiques, une
fonction mathématique est une fonction qui contient un signe d’égalité. Ces fonctions
mathématiques, Frege va les étendre, c’est sa première grande invention, à toute fonction
propositionnelle, introduisant par-là la notion de concept. Un concept c’est un caractère
que l’on peut attribuer aux choses. Si on utilise le terme chose c’est parce que Frege nous
dit qu’en logique, et c’est vrai pour tous les systèmes logiques, il y a toujours au moins un
terme indéfnissable qui est chez Frege le terme objet. Qu’est-ce le calcul des prédicats ? Il
s’agit d’attribuer un prédicat à une variable, variable qui symbolise un objet.
On peut être tenté de dire que la forme propositionnelle classique est : « S est P ». On
attribut un prédicat à un sujet en fonction de règles, règles aux nombres de deux : Il faut
que le sujet dénote quelque chose, un objet et d’autre part que le prédicat connote une
propriété possédée par le sujet. Par exemple, si je dis cette table est grise, le sujet table
dénote l’objet devant moi, et « est grise » est le prédicat qui va connoter la propriété d’être
gris à la table. Tous les jugements traditionnels de la logique des prédicats chez Aristote
c’est un sujet qui dénote, qui réfère, symbolise quelque chose qui est extra linguistique et
d’autre un prédicat qui connote une propriété posséder par cet objet. Ce schéma de
proposition va avoir une infuence très importante. En effet, depuis Aristote, c’est le
schéma qui sera accepté par l’ensemble du monde philosophique et logique jusqu’à John
Stuart Mille. En admettant que le sujet de
dénote rien, par exemple je dis « un cercle carré n’est pas un cercle », je ne peux pas
connoter la propriété « être un cercle » au sujet de ma proposition. Je peux aussi dire qu’un
cercle carré n’est pas un carré, je ne peux pas connoter mon sujet cercle-carré de mon
prédicat être un carré. Nous voyons que nous avons à faire à des propositions
contradictoires qui ont pour effet qu’un des trois grands principes de la logique, à savoir
celui du tiers exclut, n’est pas valide lorsque le sujet de ma proposition ne dénote aucun
objet. ( Il est même difcile de penser un cercle carré, mais je peux construire un être
logique hybride, que j’appellerais x et je pourrais dire « x est un cercle carré ». ). J’ai donc à
faire un cas limite, cas où le sujet ne dénote aucun objet et ou le prédicat ne connote
aucune propriété posséder par cet objet. Certains philosophes, dont les plus célèbres sont
Alexius Meinong et Carnap, vont tenter de penser le statut de ces objets qui ne dénotent
rien. Meinong ira jusqu’à dire qu’on peut penser de tel objet, par exemple un cercle carré.
Carnap va dire que les objets qui ne dénotent rien sont terme logiquement vide, car
contradictoire, c'est-à-dire qui non aucune compréhension (dans le cadre de la défnition
par extension et intension d’un concept).

Lesniewski va reprendre ce schéma propositionnel est va construire une logique qui ne


respectera pas le principe du tiers exclut, comme nous le verrons dans la logique des
classes.

Frege va détruire ce schéma pour introduire le calcul des prédicats. Il va commencer par
redéfnir ce qu’est une proposition avec un prédicat. Comment va-t-il faire ? Nous savons
que « S est P » est un jugement, jugement qui se prononce sur quelque chose et qui
attribue une propriété à quelque chose. Frege va se dire qu’il y a la une ambiguïté qui est
le verbe être. Quel est le rapport entre le complément subjectif scolastique P et le sujet S ?
Quelle est la nature de ce verbe être ? Il est ambigu et donc Frege par du principe qu’il va
falloir le supprimer ou le déplacer. Première opération, il va déplacer la copule être vers le
prédicat, exemple, de Frege : « maison » n’est pas un concept, mais le concept est « être
une maison ». Quel est l’avantage d’une telle opération ? Si on adjoint une variable A au
prédicat « être une maison » un x, tel que x est une maison, et on peut défnir
extensionnellement (par la quantité d’éléments qui vérife le parcoure de valeur de la
fonction propositionnelle « être une maison ») et « être une maison » est le prédicat qui va
être attribué à un sujet. Ce sujet quel est-il ? C’est une variable et Frege, c’est le
deuxième point très important, va introduire la notion de quantifcation. Nous connaissons
trois quantifcateurs, dont un est un peu particulier :

1- Quantifcateur universel, ∀ x (pour tout x), qui chez Russel signife pour tous les
individus de l’univers et chez Frege pour tous les objets qui constituent l’univers. Il
faut bien différencier les notions d’individu et objet, car la notion d’objet ne
comprend pas le principe d’individualisation qui sera à l’origine de l’antinomie de
Russel.

2- Quantifcateur existentiel, ∃ x (il existe x). Problème immédiat, car on est confronté
à un « il existe ». Or nous avons vu que dans la modifcation, faite par Frege, du
schéma propositionnel classique, il avait dégagé la notion d’existence de la
variable sujet, c'est-à-dire de la variable x. lorsqu’on dit « il existe x » est-ce que
cela signife que l’on réintroduit l’existence là ou nous l’avons supprimé ? La
réponse est non. En effet, Frege n’utilise pas, à proprement parler, le quantifcateur
existentiel, mais il va utiliser uniquement le quantifcateur universel qu’il va nier. La
négation du quantifcateur universel nous donne le quantifcateur existentiel. Et
pourquoi fait-il cette opération qui plus complexe que de poser le quantifcateur
existentiel ? C’est justement pour éviter tout import existentiel puis que la logique
est ontologiquement neutre, on évacue toute notion d’être pu d’existence. La
négation du quantifcateur universel va permettre d’introduire ce second
quantifcateur qui n’existe pas en tant que tel, puisqu’il implique un import
existentiel. Comme nous l’avons déjà vu, l’existence est un prédicat de second
ordre, c'est-à-dire que c’est une propriété de propriété et non une propriété d’objet.
De telles manières que dire, par exemple, Dieu existe, exemple de Frege, ce n’est
pas se prononcer sur un objet qui serait Dieu c’est simplement afrmer qu’il y a
une classe non vide.

3- La description défnie, inventée par Russel et qui a un statut particulier, ∃ ! ℩ iota


inversé. Il permet de rendre compte d’un individu en particulier puisqu’il signife :
au moins un individu, quelque individu, quelques individus, un certain nombre
d’individus,… Le quantifcateur existentiel n’a pas la capacité de ce prononcer ni
sur un individu, un objet ni sur le nombre d’objets tant que se nombre n’est pas
l’infni, c'est-à-dire tous les objets. Mais cela va poser des problèmes, car à chaque
description défnie devra correspondre une fonction prédicative, laquelle nous
permettra de résoudre la théorie des types comme nous le verrons plus tard. Il est
donc le seul à pouvoir rendre compte contextuellement et conceptuellement, nous
verrons plus loin ce que cela veut dire, d’un individu (ex. : L’actuel roi de France est
chauve). On peut donc dire que l’unicité de l’objet = description défnie, multiplicité
d’objets = quantifcateur existentiel et totalité des objets = quantifcateur universel

Remarque : (par rapport à ce qu’on a dit sur l’existence de Dieu) Est-ce que nous existons ?

En faite, on peut dire qu’i faut qu’il ait au moins un univers pour qu’il ait un objet. Frege ne
doute pas qu’il ait quelque chose dans l’univers qui soit un objet, mais la question de
savoir si un univers existe est une question qu’est extra logique. C’est donc un paradoxe
qui dit que nous devons bien partir de quelque part, individu chez Russel ou objet chez
Frege, il y a des objets, mais la question de savoir si l’univers dans lequel ces objets sont
n’impatient pas à la logique. Comme dit Carnap, nous pouvons construire des descriptions
d’états tant qu’on veut, c'est-à-dire des mondes possibles qui suivent le méta théorème de
complétude, il n’empêche que la question de savoir si au moins un univers existe, celui
dans lequel nous vivons, est déterminé par le système S3, système particulier à Carnap,
système des coordonnés spatio-temporels, qui n’implique pas l’existence de l’univers. Pour
avoir cette existence nous devons recourir un système particulier qu’est le système SP,
c'est-à-dire le système physique dans lequel nous vivons. Entre le système S3 et le
système SP, la différence est que le système S3 nous donne que les coordonnées
paramétrées des objets, c'est-à-dire à tel moment à tel endroit il y a un x (il existe un x tel
que cette x est tel moment à tel endroit) que je peux généraliser en disant que pour tout
x , x se trouve à un moment, à un endroit, mais je ne peux pas me prononcer sur
l’existence du monde dans lequel le système S3 fonction et j’ai donc besoin du système SP,
qui lui existe et qui un des univers possibles, qui en l’occurrence est le nôtre. Le point
central chez Carnap est l’optimise carnapien qui nous dit que tout énoncé logiquement vrai
dans un monde possible vaut dans tous les mondes possibles et ceux sans contradiction.

Revenons à Frege, nous seulement il bouleverse la forme propositionnelle en évacuant


l’être comme copule et en le rattachant au prédicat, d’une part, et d’autre part il introduit
des quantifcateurs, essentiellement le quantifcateur universel. Il va beaucoup plus loin,
puisque partant des fonctions mathématiques qu’il étend aux fonctions propositionnelles
c'est-à-dire aux fonctions conceptuelles. Si je construis une fonction conceptuelle, au sens
russellien du terme, j’aurais : (x) φ(x) (pour tout x, phi de x), c'est-à-dire pour tout x, à la
propriété phi. Nous voyons dans cette formulation de la fonction propositionnelle que je
n’ai plus de verbe être. J’ai donc évacué tout import existentiel et le verbe être lui-même.
Si ce verbe être devait apparaitre ce serait dans « à la propriété phi », c'est-à-dire « est
ayant la propriété phi ».
Frege va beaucoup plus loin, en effet, il va transformer en profondeur la notion de
proposition aristotélicienne en y introduisant ce qu’on appelle une idéographie. Il va
inventer un langage particulier, appelé idéographie ou plus exactement écriture de
concept, c'est-à-dire la Begriffsschrift de 1879 ou il réexpose la loi d’induction
mathématique sur la base de quelques principes logiques fondamentaux, à savoir la loi du
conditionnel matériel. En effet, l’un des tout grands imports de Frege est d’avoir réhabilité
le conditionnel matériel. L’idéographie est donc une écriture qui a ceci de particulier qu’elle
est l’anamorphose de la pensée pure. Cela veut dire que l’idéographie, en tant que signe
écrit, est une déformation, cohérente et structurée, de la pensée pure. Frege explique peu
ce qu’il appelle la pensée pure. La pensée pure c’est l’ensemble des propositions qui sont
analytiquement démontrables à partir du prédicat universel que constitue la barre
d’insertion, qui signife « est un faite ». Frege va construire un jugement. Un jugement c’est
une barre d’insertion « ⊢ », un quantifcateur « ─ᴗ─ » et d’un contenu jugeable. Il est
essentiel de comprendre que si je ne mets pas de barre d’insertion, j’ai simplement une
combinaison d’idées, de représentations qui n’est pas l’objet d’un jugement. La barre
d’insertion est le prédicat universel de toute proposition valide déduite analytiquement du
système axiomatique de l’idéographie et signife « est un faite ». Le quantifcateur (petite
encoche avec la variable ά) et je vais dire que alpha à la propriété phi, c'est-à-dire que
pour tout alpha, que alpha est la propriété phi est un faite (voir formalisation sur feuille
manuscrite). Exemple : pour tout alpha, qu’alpha soit une maison est un faite. Nous voyons
bien que nous sommes loin de la forme propositionnelle « S est P ».
Nous devons aller plus loin, cette barre d’insertion, il y a là débat, a un statut particulier à
tel point que certain se demande s’il y a pas une valeur pragmatique à cette barre
d’insertion. Ça serait conformément à la troisième recherche logique de Frege, sur la
négation, Frege dit quand je dis je saute, j’effectue effectivement un saut. Cela va dire que
le sujet de la proposition est performatrice, c'est-à-dire implique une action du sujet, ici
dans un jugement. Il parait assez clair que chez Frege, la barre d’insertion n’a pas de
valeur pragmatique, mais nous verrons que cette valeur va resurgir jusque dans les
démonstrations. Par exemple dans les démonstrations de déductions naturelles, on peut se
demander si le simple fait de poser une hypothèse ce n’est pas encore poser un acte
pragmatique lui-même. Mais pour ce faire, il manque la médiation de Russel, à savoir qu’il
postuler l’existence d’un sujet logique universel, complètement désincarné, qui aurait
concentré la valeur pragmatique de la démonstration. Et chez Lesniewski, ce sujet
universel est supprimé, puisque chez lui il n’y pas de terme abstrait, et la valeur
pragmatique serait réduit à la notion d’hypothèse dans une déduction naturelle, ce qui faut
encore démontré.

J’ai donc un prédicat universel qui vaut pour tous les jugements.

Logique Formelle (audio 10)


Le concept discriminant va nous permettre, dans la totalité des individus qui compose le
monde, de partitionner la réalité, c'est-à-dire la totalité infnie des individus constituant cet
univers, entre ceux qui relèvent de cette classe et ceux qui n’en relèvent pas.
Cette vision intuitive doit être corrigé, en logique classique, vont différencier la classe des
ces éléments, le « tas » ne sera plus vu comme constitutif de classe mais devra en être
différencié. On parlera de la classe des pommes, on aura deux entité bien différentes, d’un
part l’ensemble, et d’autre par les éléments de l’ensemble. La classe des pommes, par
exemple, ne sera plus distributive, comme un tas, mais comme une boite d’allumette
contenant des allumettes. Ainsi, on pourra dire qu’une boite d’allumette sans allumette
reste une boite même vide. L’ensemble ne s’identife pas avec ses éléments (à l’inverse de
Lesniewski). C’est la vision distributive des classes, la classe est générée par ces éléments.
Cela rend possible de créé une classe vide.
Mais cela soulève de très graves difcultés. En effet, on constate qu’on est immédiatement
confronté à un problème. Par exemple, imaginons deux logiciens qui discutent à Rome, l’un
dit « Rome est grande » et l’autre répond « Oui, Rome est grande ». Ils s’entendent sur la
signifcation de la phrase « Rome est grande ». L’un demande à l’autre ce qu’il entend par
cette phrase, celui si lui répond « Rome à la propriété d’être grande », Rome à l’attribut
grand, on peut prédiquer grand à Rome. L’autre lui répond que c’est faux, « Rome est
grande » veut simplement dire que Rome fait parti de la classe des choses grandes.
Ils se comprenaient donc parfaitement du point de vue sémantique, de la signifcation de la
phrase, mais avaient chacun en tête des idées radicalement différentes. Il y a donc la un
problème. Ce problème est inscrit au cœur même de la théorie des classes. En effet, une
classe peut se défnir de deux manières, soit en extension, soit en intension ou
compréhension.

La défnition en extension c’est la défnition qui nous permet de décrire une classe par ses
éléments. Comme nous l’avons vu avec la boite d’allumette, en extension est elle la classe
de toute les allumettes qui s’y trouve. L’extension s’est les allumettes qui se trouvent dans
la boite. (Attention, pour Frege, l’extension d’un concept ce n’est pas les allumettes qui
sont dans la boite mais le parcourt de valeur, le domaine de vérifabilité des éléments qui
vérife le concept). On défnie une classe par ces éléments. Le logicien qui entend par
« Rome est grande » que Rome fait parti de la classe des objets grand comprend la
défnition de Rome en extension.

La défnition en compréhension c’est la défnition au moins d’une propriété, c’est la


défnition du dictionnaire. Dans le dictionnaire un concept est décrit pas ces
caractéristiques, ces propriétés qui vont nous permettre de comprendre la signifcation du
terme. Le logicien qui comprend « Rome est grande » comme étant une propriété attribuée
à Rome, défnit Rome en intension.

Nous avons donc deux types de défnitions bien distinctes. En logique classique, le projet
logicises à pour ambition de réduire les défnitions toutes les défnitions à des défnitions
extensionnelles, projet ayant comme ambitions de défnir l’entièreté de l’arithmétique à
quelques lois logiques fondamentales. Ils veulent donc tout défnir par extension selon le
principe d’extensionalité qui nous dit que si deux classes on les mêmes éléments, ces deux
classes sont identiques. En logique classique, on se méfe des défnitions en
compréhension car celles-ci implique des processus d’abstraction qui, selon Frege, sont
entachées de psychologisme.
On cherche donc à limiter le plus possible les défnitions en intensions. Mais le problème
c’est que pour défnir une classe en extension, nous avons besoin du concept discriminant
qui est lui en compréhension. Carnap nous dit que l’on ne peut pas séparer extension et
intension et mêmes elles sont indispensables à la défnition d’une classe.
Cela gêne énormément les logiciens, Russel essayera d’éliminé les défnitions en intension.
Mais dans deux cas il est impossible de ne pas avoir recourt à ces défnitions, pour la
classe vide et la classe infni.
En effet, si je prends la classe vide et que je veuille la défnir en extension, je dois voir les
éléments qui génèrent cette classe. Mais la classe vide il n’y aucun éléments, puisqu’elle
est vide. Il est donc impossible de la défnir extensionnellement. Si maintenant, je prends
les classes infnies, et nous avons vu que dans le domaine de signifance, ou la théorie des
types, il y a une infnité d’éléments appartenant à chaque type. Dans le cas des classes
infnies si on veut en donner une défnition en extension nous sommes confronté au
problème, sans même se demander si c’est un infni potentiel ou actuel (ou le cardinal est
alef zéro) , on ne peut pas compter tout les éléments qui constituent une classe infnie
puisque ces éléments sont infnis. La défnition en extension est donc impossible.

A partir de là on peut travailler, la théorie des classes répond à deux réquisits (énoncés par
Frege), à savoir d’une part le principe de stricte délimitation des concepts et d’autre part le
principe d’individualisation des objets.
Le principe de stricte délimitation des concepts signife que de n’importe quel classe on
doit pouvoir dire quels objets lui appartiennent. Ce principe correspond au principe
d’extensionalité
Le principe d’individualisation des objets signife que de n’importe quel objet on doit
pouvoir dire à quel classe il appartient. Ce principe correspond a l’axiome de
compréhension (cinquième lois fondamental de Frege, qui dit qu’a chaque classe
correspond un concept).
Ces deux principes sont proche l’un de l’autre mais ils ne disent pas du tout la même
chose. Si je prends le principe de stricte délimitation des concepts, je dis que si je prends
une classe quelconque de l’univers je serais quels objets seront les membres de ma classe.
En effet, je serai à priori que les membres de la classe vérifent le concept classifcatoire.
Mais si maintenant j’inverse et que je demande si dans ma classe tous les individus
vérifent la propriété discriminante, je suis beaucoup plus embarrasser. En effet, dans le
cas des classes que Lukashevich appelle normal il n’y pas de problème. Si je prends la
classe des hommes je sais que tous les objets seront des hommes Ces classe ne ce
contiennent pas elles-mêmes, la classe des hommes n’est pas un homme. Mais dans le cas
des classes anormales, classes qui se contiennent elles mêmes, un problème surgit. Ce
problème vient de l’individualisation (cinquième lois de Frege) de l’objet. Si je prends les
classes normales et que je me pose de savoir de ce qui l’en est de la classe des classes qui
ne se contiennent pas elles-mêmes, là surgit l’antinomie de Russel. Dans ce cas de classe
de classe qui ne se contiennent pas elles-mêmes, je ne peux pas individué les éléments
des classes de classes. Cela aura pour conséquence que la cinquième loi fondamental de
l’arithmétique de Frege est fausse, je ne peux pas défnir en compréhension mes classes et
donc l’édifce entier de l’arithmétique se trouve infondé et tout le projet logicise s’écroule.
Face à cela, Frege mettra trente ans pour tenter de résoudre ce problème sans y parvenir.
L’arithmétique est nous seulement infondé et incomplète, les principia mathématica
(orthographe ?) sont eux aussi incomplet. La théorie des ensembles de Zermelo et Frenkel
visant à éviter l’incomplétude et un échec et en plus le projet logicise l’est aussi.

Avant de voir quelques réponses à ces problèmes, voyons quelques classes remarquables :

- La totalité des individus qui constituent l’univers est appelé, par Russel, la classe
universelle. Elle n’a pas de complémentaire (vu qu’elle comprend tout). Cette
classe s’écrit « V ». C’est une classe infnie, pour l’obtenir il faut comprendre que
j’ai une totalité infnie d’objets dans l’univers et que je veux les rassembler en un
semble univers, qui est la classe universelle. Pour ce faire, je dois produire une
opération logique, que Russel appelle une abstraction de classe. Il invente un
symbole adoc « x avec accent circonfexe ». La classe universelle se défni pour
Russel comme la classe des x tel que x est identique à lui-même (défnition en
compréhension de la classe universel x : x=x), c’est la classe de tout les individus
identiques à eux-mêmes. C’est la classe de toutes les classes ou les éléments sont
identiques à eux-mêmes.

- La classe vide, étant identique à elle-même fait parti de toute les classes. Russel
sera tiraillé par le monisme ontologique qui veut absolument éviter et ne pouvant
défnir la classe vide en extension, il va simplement la poser par défnition : la
classe vide est non identique à la classe universel Λ ≠ V. Cela a pour implication
immédiate que poser une classe, par exemple la classe universel, c’est d’ambler en
poser deux, à savoir la classe universel et la classe vide. Eviter le monisme
ontologique, signife pour Russel que poser la clase universel revient à poser la
classe vide, il y a donc au moins dans l’univers deux classes, même si une n’est
poser que constructivement, c'est-à-dire qu’elle n’est rien puisqu’elle est vide mais
indispensable. Je construits le rien et pourtant je suis obliger d’en tenir compte
pour éviter le monisme ontologique. On va construire la classe vide, qui n’existe
pas, en la défnissant comme la classe des x tel que les x ne sont pas identiques à
eux-mêmes., c’est un concept discriminant me permettant de discriminer les objets
non identiques à eux-mêmes, objets qui n’existent pas et donc la classe est vide. Je
peux donc la construire mais elle n’existe pas. La classe vide est identique à elle-
même malgré qu’elle ne soit rien, c’est un paradoxe. Russel est obligé de la posée
car il veut a tout prix éviter le monisme ontologique à cause de la défnition de
l’être qui n’est pas un genre et donc on devrait pouvoir dire comment le défnir par
genre le plus proche et genre le plus proche. Cela pose problème puisque l’être ne
dénote tout mais ne connote aucune propriété. Classe dont les éléments, qui
n’existent pas, ne sont pas identiques à eux-mêmes. Cette classe pose problème,
d’abord puisque pour Russel les classes n’ont pas de réalité ontologique, elles sont
de pures fctions. Mais surtout puisque étant une classe, elle fait parti de la classe
des classes (= classe universelle) mais ne même temps, elle n’est rien. C’est
pourquoi est-elle défnissable que par la classe universelle.

Remarque : Pourquoi l’être n’est-il pas un genre ?

Le problème est le suivant, si je donne un sens au mot « être », celui-ci serait au concept
suprême de tout ce qui est. Or, si cela est un concept il dénoterait tous les individus de
l’univers, il aurait donc une extension infnie et une compréhension nulle. Avoir une
compréhension nulle s’est ne connoter aucune propriété car si je prends tous les objets de
l’univers c’est tellement large que la seule défnition que je pourrais en avoir c’est « être un
objet de l’univers »ce qui n’est pas une défnition et donc je ne connote aucune propriété.
Ne pouvant connoter aucune propriété, la classe de l’être, c'est-à-dire le monisme
ontologique, pose problème Russel ne peut se contenter de cela puisque la théorie en
double défnitions (en extension et en intension) ne m’autorise pas à travailler sur des
classes dans les objets n’existent pas, tel que les triangles ronds,…

Russel en vient à considérer que les classes n’appartiennent pas à l’ameublement dernier
du monde, dit-il, c'est-à-dire que les classes sont ontologiquement faibles. Pour lui ce qui
est ontologiquement fort ce sont les individus qui constituent l’univers. Les classes qui ne
sont pas individus et qui n’appartiennent pas à l’ontologie sont de simples fctions, raison
pour laquelle Russel va inventer la théorie sans classe qui permet de fonder l’arithmétique
sans avoir recours aux classes. Elles sont donc pour Russel des fctions. Revenons à
l’antinomie, nous sommes confrontés à une difculté. Cette difculté vient du faite que la
position même de la question, ce que Russel appel un cercle vicieux. Ce cercle vicieux
consiste au fait qu’une classe s’appartient à elle-même. On prend deux entités (comme
disait Carnap) de même niveau, ou du même type chez Russel, et on dit que ces deux
entités du même type peuvent s’appartenir l’une l’autre. Or, cela est interdit et si je
reprends l’exemple des joueurs de football ; je peux dire qu’un joueur de football appartient
à un club de football, mais le club de football ne s’appartient pas lui-même, il est inclus, et
non appartient, dans la fédération des clubs de football.
Nous avons donc au moins trois types, d’abord les joueurs de football = aux individus, les
clubs de football= les classes d’individus, et les fédérations de football= les classes de
classes. La difculté vient du faite que les classes de classes sont en faite la défnition des
nombres pour Russel. En effet, le nombre un est c’est la totalité infni de tout les
singletons, le nombre deux, extensionnellement, c’est la totalité infnie de toute les pairs,…
La difculté vient donc de l’axiome de l’infni, qu’il faut introduire dans la théorie des types,
théorie simple des types, pour pouvoir défnir les nombres. Le cercle vicieux, que dénonce
Russel, c’est qu’une entité de n’importe quel type ne peut appartenir à une entité du
même type qu’elle, mais nécessairement appartient à une entité d’un type directement
supérieur. On dira qu’un individu appartient à une classe, mais on dira qu’une classe est
incluse dans une classe de classes.
La solution, que Russel avance pour son antinomie, la théorie des types simples semble
être une solution adoc, une fois de plus. C'est-à-dire une solution toute trouvée que Russel
avance pour résoudre un problème. Or, la théorie simple des types ne permet pas de
résoudre tous les paradoxes, ou tous les cercles vicieux, et, par exemple, la simple phrase
suivante soulève des difcultés : Napoléon avait toutes les qualités d’un grand général.
Elle pose difculté pour en défnir le type puisque « Napoléon » appartient au type 1, mais
à quel type appartient l’attribut « avoir toutes les qualités d’un grand général » ? On serait
tenter de dire au type 2, mais « avoir toutes les qualités d’un grand général » c’est être
courageux, être valant,… qui n’appartient pas au même type que Napoléon. C’est
pourquoi, Ramsé à inventé la théorie ramifée des types qui délimite les domaines de
signifances de tel manière qu’on puisse classifer l’individu Napoléon et toutes les qualités
particulières dans un type immédiatement inférieur à ce premier type, qui est le type de
Napoléon. Mais cette théorie complexife tellement la théorie simples des types, que Russel
en viendra à l’abandonner dans la no classe théorie.

Il reste une question fondamentale, c’est le problème de la génération des classes dans la
théorie des types, ce que Russel appel l’axiome de réductibilité ou axiome des classes. Cet
axiome dit qu’à chaque fonction propositionnelle correspond une fonction prédicative d’un
type immédiatement supérieur au type de la fonction propositionnelle. Cela veut dire qu’à
chaque fonction propositionnelle (ex : φ(x) phi de x), il existe une fonction prédicative, que
l’on notera φ(x) ≡ S(x) (s avec accent circonfexe) qui est la fonction prédicative. Comme le
dit l’axiome de réductibilité, la fonction prédicative est du type directement supérieur à la
fonction propositionnelle. C’est donc cette axiome qui nous permet de générer les classes,
qui n’étant que de simples fctions, ne peuvent pas être générer par les éléments
individuels qui constitue le monde, c'est-à-dire l’ontologie, mais doit être résolut de
manière axiomatique. En défnitive, les classes sont générer de manière artifcielle.
On ne peut pas générer la classe des classes qui ne se contiennent pas elles-mêmes,
puisque, d’une part, la classe qui ne se contient pas elle-même appartient au type 2, tandis
que la classe des classes qui ne se contiennent pas elles-mêmes appartient au type 3.
Russel invente la théorie simple des types, Ramsé invente la théorie ramifée types mais
cette théorie est tellement complexe que Russel la laisse tomber dans la théorie sans les
classes, qui doit nous permettre de résoudre cette question que si les classes sont des
fctions alors les classes de classes sont des fonctions, or, ces classes de classes
défnissent les nombres. On peut donc se demander si les nombres ne sont pas des
fctions.

Russel veut éliminer le plus possible l’ontologie, qui est de la métaphysique, mais on a une
ontologie forte, avec les individus, puis une ontologie faible qui est une pure fction, avec
les classes, puis nous les classes de classes qui sont des fctions encor plus faible,… Bref
on a un tas d’entités ontologiques chez Russel alors qu’il refuse toute ontologie. Il est pris
dans un tourment puisqu’il est obligé, de manière adoc, d’introduire de l’ontologie. C’est
pourquoi il inventera la no classe théorie, où il va tenter, à partir de l’axiome de
réductibilité, de défnir les nombres de telle manière que le soupçon de fction disparaisse
complètement.

Remarque : Pouvez-vous réexpliquer les différents types ?

On a Napoléon, étant un individu il appartient au type 0. Puis on a les qualités d’un grand
général, le problème c’est que je peux les mettre (les qualités d’un grand général) au
même niveau que Napoléon. Mais dans ce prédicat « avoir toutes les qualités d’un grand
général » j’ai un quantifcateur, qui est le quantifcateur universel. La question logique qui
se pose est de savoir si je peux avoir dans le même type un individu et une quantifcation
universelle sur des variables. Et la réponse est non. Le problème est que lorsqu’on
énumère toutes ces qualités, on constate qu’on est un autre niveau que le prédicat « avoir
toutes les qualités d’un grand général » à partir du moment où l’on dit quels sont ces
qualités. Ou mettons ces qualités particulières dans la théorie des types ? On ne peut pas
les mettre au même niveau que « avoir toutes les qualités d’un grand général », ni au
même niveau que « Napoléon ». C’est pourquoi Ramsé invente la théorie ramifé des
types, c'est-à-dire qu’à l’intérieur d’un même type on peut avoir plusieurs domaines de
signifance , ce qui nous permet d’éviter le cercle vicieux, à savoir qu’une entité d’un type
quelconque s’appartient elle-même ou appartient au même type qu’elle-même, qui est
pour Russel l’origine de tous les paradoxes.

Face à l’antinomie de Russel, la théorie des types est la première réponse, et ce n’est
évidemment pas la seule. Il y en au moins deux autres que nous allons voir aux cours.
Il y a d’abord la théorie des ensembles de Zermelo et Fränkel, dite théorie ZFC. Et la
théorie des classes collectives, ou classe méréologique de Lesniewski. Ces deux autres
solutions elles sont une fnalité toute a fait différente. La théorie des ensembles est
inventée par des mathématiciens et répond à des problèmes d’ordre mathématiques. La
méréologie, même si elle a l’ambition de fonder les mathématiques, est une théorie
logique qui est totalement non standard et donc radicalement différentes de la théorie des
ensembles et de la théorie des types.

Commençons par Lesniewski, il faut comprendre il faut revenir au début. On a vu que


intuitivement les classes peuvent être considérées comme des tas, et nous avons que la
théorie des classes distributives, celle de Russel, ne considérait pas les ensembles comme
des tas puisque pour Russel si on supprime tout les éléments d’une classe, la classe ne
disparait pas. Pour Lesniewski si je détruits les allumettes alors je détruit également la
boite d’allumettes car les classes collectives sont des tas, des agrégats concrets générés
par leurs éléments, avec comme particularité que le cinquième axiome de Frege (principe
d’individuation) trouve une solution. En effet, elle nous dit que si je prends la classe des
arbres, par exemple, la logique standard, distributive, que tout les éléments de cette classe
sont des arbres. Et Lesniewski dit que c’est faux, il va résoudre ainsi l’antinomie de Russel
en disant ; si je prends la classe des arbres, certes les arbres sont les éléments de cette
classe mais en plus toutes parties de n’importes quels ingrédients constitutifs de la classe
des arbres appartient à cette classe bien qu’ils ne répondent pas au concept classifcatoire
« être un arbre ». Par exemple, pour Lesniewski, si je dis que la forêt est la classe des
arbres, premièrement, si je brule tout les arbres alors la forêt disparait (pour lui il n’y pas
de classe vide), mais en plus la classe des arbres me permet d’identifé d’autres éléments
que des arbres. En effet, les arbres sont composés de parties, par exemple le tronc, les
feuilles,… et donc la classe des arbres contient des arbres mais également toute partie
propre, ingrédient ou éléments de n’importe quel arbre.
Cela permet de résoudre l’antinomie car puisque dans celle-ci je ne parvenais pas à
identifer la classe des classes qui ne se contiennent pas elles-mêmes, et la solution de
Lesniewski et que le problème n’est pas le cercle vicieux, comme le pense Russel, mais
c’est son concept de classe est faux. Il va donc abandonner la théorie des classes
distributives au proft des classes collectives, ou méréologique, c'est-à-dire que toutes les
classes se contiennent elles-mêmes. La classe des hommes c’est l’entité concrète faite de
tout les hommes, et la classe des hommes c’est les hommes et non pas un semble dans
lequel il y aurait des individus qui serait des hommes, identifés et discriminés par un
concept classifcatoire. La vision collective des classes consiste à dire que le vocabulaire
même de l’antinomie qui est faussement défnis, à savoir la notion de classe de Russel. Sa
nouvelle notion de classe, qui est plus naïve ou intuitive, sont les choses qui nous entours,
qui sont agrégés par les unes par rapport aux autres et composés de parties.
La logique de Lesniewski est ontologiquement neutre, c'est-à-dire qu’elle ne se prononce
pas sur le monde mais sur la manière de parler du monde. Mais ca théorie des classes est
ontologiquement forte puisque les classes se contiennent elles mêmes, qu’il n’y pas de
classe vide mais en plus elles constituent la réalité concrète des choses qui nous entours et
qui sont divisible en parties (méréos veut dire partie, donc la méréologie c’est la doctrine
des touts et des parties). Tout ce qui compte des parties est une classe.

Logique Formelle (audio 11)


Reprenons les problèmes soulevés par la quantifcation. On a vu que dans le cours, la
question de l’ontologie est un fl conducteur, c'est-à-dire a savoir si la logique se prononce
ou non sur le monde qui nous entoure. Nous avons vu que, pour la logique standard, le
monde qui nous entoure est composé d’individu, pour Russel, appartenant au type 0, si je
fais référence à la théorie des types. Si je dis pour tout x, phi de x, ca veut dire que pour
tout les individus, les individus on une propriété. Or, pour Russel, cette proposition est
toujours fausse car quelque soit la propriété que j’attribut à x, il est certains que tout les
individus de l’univers ne possèderons pas cette propriété. Quand on dit individu de
l’univers c’est n’importe quoi, pour autant qu’il est été individué. Cela est particulièrement
important puisque c’est bien l’axiome de compréhension de Frege, qui correspond au
principe d’individuation des objets, qui mène à l’antinomie de Russel. Le problème se
trouve dans le « pour tout », c’est le quantifcateur universel. On peut dire que le « pour
tout x » a, chez Russel, une valeur ontologique puisqu’on quantife sur la totalité des
individus dans l’univers. Il n’empêche que il n’y pas dans le « pour tout x » un véritable
import ontologique, dans le sens ou le quantifcateur universelle ne nous apporte aucune
information sur l’état de l’univers. « Pour tout x » veut simplement dire que je prends la
totalité des individus de l’univers et que je fais une partition entre cette totalité des
individus de l’univers, c'est-à-dire des x tel qu’ils sont identiques à eux-mêmes (classe
universelle), et ce qui n’est pas identique à soi-même, c'est-à-dire la classe vide. Donc le
simple faite de dire « pour tout x » n’ajoute rien à la réalité, n’ajoute rien à l’ameublement
dernier du monde, ce qui est pour Russel l’ontologie. Nous avons vu que pour Russel, les
classes ne font pas partis de l’ameublement dernier du monde, elles n’ont aucune valeur
ontologique. Cependant s’il dit que les classes sont des pures fctions mais il veut éviter à
tout prix le monisme ontologique et pour se faire, en posant la classe universelle, il pose la
classe vide. Ambiguïté, puisque cette classe vide est en même temps le complémentaire,
qui n’existe pas, de la classe universelle et en même temps appartient à cette classe,
puisque le vide est un élément de toute classe possible.
On voit donc chez Russel, et dans la logique standard, il y a une tension dans l’apport
ontologique induit ou non par le quantifcateur universel. Ceci dit, lorsqu’on utilise le
quantifcateur universel, dans une vision russellienne, il s’agit bien de pour tout les
individus de l’univers. Il y a donc, ce que Russel appel, une accointance par rapport à la
réalité de l’univers qui nous entour. Cela veut dire que Russel ne pense pas à une logique
de monde possible, comme le pensait Carnap, il y a et un seul monde possible qui est le
monde en acte dans lequel nous vivons. Dans la logique des mondes possibles, il y a une
infnité de monde possible dont en moins un qui en acte, le monde dans lequel nous
vivons. Rappelons que chez Lesniewski il y a pas de théorie des mondes possibles puisqu’il
n’y aucun théorème non prouvé d’un système formelle. C'est-à-dire que la
contextualisation spatio-temporelle des théorèmes des systèmes de Lesniewski fait que par
le schème de relativité on ne peut pas dire qu’il y ai une thèse qui échappe à tout contexte
spatio-temporel. Cela a pour conséquence que tout théorème du système est
nécessairement prouvé et donc le principe d’incomplétude ne sont pas valables pour la
logique de Lesniewski.

Remarque : Pouvez vous répéter ce qu’est un système de Lesniewski

Les systèmes de Lesniewski ne sont pas standards. Ces systèmes sont construit à partir
d’un opérateur, qui chez lui sont infnis, dont un est très important, à savoir Y upsilon.
Lesniewski reprend cet opérateur, qu’on appelle opérateur d’éternité, upsilon du verbe
grec epsi ( ?), qui veut dire « il est », et comme Piano, il va étendre la lettre upsilon à
l’appartenance. Piano du upsilon grec, par exemple le cheval est blanc, le « est » s’écrit
par epsilon, et va transformer upsilon en signe d’appartenance (voir feuilles manuscrites).
Upsilon signe le cheval EST blanc et le signe d’appartenance signife le cheval APPARTIENT
à la classe des objets blanc. Nous avions vu cela à la leçon précédente avec les deux
logiciens qui parlaient de la ville de Rome, un parlait en terme de propriété (=upsilon) et
l’autre en terme de classe (=signe d’appartenance). Mais nous verrons cela en détails.
Lesniewski reprend à Piano l’upsilon de l’ontologie, et cette ontologie à ceci de particulier
qu’elle est ontologiquement neutre. Ce qui veut dire que son ontologie ne se prononce pas
sur les objets de l’univers mais sur la manière d’en parler, c’est donc une ontologie
extrêmement faible par rapport à l’ontologie forte de Russel. Cet opérateur upsilon, chez
Lesniewski, va s’appeler opérateur d’éternité. Pourquoi opérateur d’éternité ? Parce qu’il
est sans aucune valeur temporelle de telle manière qu’il ne signife pas « est
actuellement » mais signife un présent permanent dont toutes les thèses, qui sont
déduites de l’axiome de l’ontologie de Lesniewski, sont le déploiement spatio-temporel de
cet upsilon, qui fgure des deux côtés de la bi-implication, biconditionnel de l’axiome.
L’éternité ne signife pas avoir une duré infnie et être de tout temps. L’éternité signife, en
philosophie, un présent permanent, c'est-à-dire un instant. C’est donc un opérateur
d’instantanéité. Un
système de Lesniewski est une série de thèses prouvées par déduction naturelle qui sont le
déploiement analytique de cet upsilon dont l’ontologie est faible et neutre. Cela veut dire
qu’il y a pour Lesniewski qu’un seul temps et ce temps se déploiement analytiquement
dans l’ensemble du système. La théorie des classes de Lesniewski repose sur l’opérateur
d’éternité et le prédicat élément, parti ou ingrédient.

Lesniewski, comme Russel et Frege, est extrêmement ennuyé avec la quantifcation. Car
dès lors qu’on est régis par l’opérateur d’éternité et que toute thèse d’un système est une
inscription spatio-temporelle de ce système, il n’y a pas de classe pour un quantifcateur
existentiel. Nous n’avons donc jamais, chez aucun des trois, l’idée du quantifcateur
existentielle car ce quantifcateur importe de l’ontologie, de l’existence or l’existence n’est
pas un prédicat de premier ordre mais une propriété de propriété. Et donc, à moins de
quantifer sur des propriétés du second ordre, il est impossible de rendre compte d’un
quantifcateur existentiel.

Remarque : Comment Lesniewski évite t-il l’incomplétude ?

Nous avons un opérateur d’éternité et que chaque thèse est un Token, c'est-à-dire une
inscription dans l’espace et le temps. Ses systèmes ne permettent pas d’engendrer des
propositions monstrueuses qui dit, soit qu’elles sont fausses d’elles-mêmes (Tarski), soit
qu’elles sont indécidables (Geudel). Car dès lors qu’elles sont démontrées elles sont
décidables et comme il y a une infnité potentiel, et pas en acte, il n’est pas possible
d’engendrer la clôture du système formel de telle manière qu’apparaissent les propositions
indécidables ou qui disent elles-mêmes qu’elles sont fausses, c'est-à-dire le théorème
d’incomplétude de Tarski et Geudel.

Nous voyons donc que dans l’éternité, il n’y a pas de place pour un quantifcateur
existentiel dans la mesure où la quantifcation existentielle implique un import ontologique,
ce que tous les logiciens évitent.
Comment allons nous rendre compte de l’idée de ce qui n’est pas pour tous les individus
de l’univers, ce qui est une nécessiter car si je dis « pour tout x, phi de x » est fausse, chez
Russel, puisqu’elle implique une attribution d’une propriété dans la classe universelle. Or,
cette classe universelle ne peut se défnir que par une seule propriété intensionnelle, c'est-
à-dire « est identique à soi même ». Donc pour tout x, phi de x ne vaut que pour la classe
universelle qui est un abstracteur de classe x est identique à x, c’est le seul cas pour lequel
on peut quantifer universellement sur la totalité des individus de l’univers.
Si on s’en tient à cela, il y a qu’une seule proposition dans l’ensemble de la logique. On a
besoin d’un autre quantifcateur qu’est le quantifcateur existentiel. Mais le problème de ce
quantifcateur est la neutralisation de l’import existentiel. Pour cela on va le défnir par la
négation du quantifcateur universel, la proposition signife alors « ce n’est pas pour tout
alpha que alpha a la propriété phi » (voir idéographie sur feuilles manuscrite). Je n’ai pas
posé réellement un quantifcateur existentiel, autrement dit la négation du quantifcateur
universel n’implique pas une prise de parti ontologique sur la réalité. Quand je dis certains
x, pour au moins un x, il existe x, je ne me prononce pas sur la réalité, je fais simplement
une partition dans la totalité des objets de l’univers ne fonction d’une propriété qui me
permet de discriminer, par concept classifcatoire, une classe différentes des autres. Quand
je dis la classe des hommes, je ne me prononce sur l’existence réel d’hommes, je dis
simplement qu’il y a des individus dans la réalité, puisque l’individu est l’indéfnissable
chez Russel, qui répondent au concept classifcatoire d’homme. En quantifant sur des
individus je ne dis rien sur ceux-ci mais je vais la partition d’une classe à partir de la classe
universelle.

Il reste les descriptions défnies, qui ne sont pas réellement un quantifcateur, qui conte un
espèce d’opérateur (iota inversé) adoc et qui signife « un ». C’est la seule manière de
rendre compte de la notion d’individus comme tel. Puisque, dans le quantifcateur
existentiel c’est « il y a au moins un », ou « quelque » ou « certain »… En temps que
négation du quantifcateur universel, il nous permet de rendre compte de l’unicité d’un
individu dans l’univers. C’est pourquoi, Russel introduit la théorie des descriptions défnies
qui nous permet de rendre compte de l’individu manière conceptuel et contextuel (ex :
L’actuel roi de France est chauve).

Reprenons la classe universelle de Russel, cette classe a ceci de particulier que par la
partition que j’en fais, je peux générer les classes monstrueuses que sont les classes de
classes qui ne se contiennent pas elles-mêmes. Ce que Zermelo et Fränkel, la théorie des
ensembles va faire c’est affaiblir la cinquième loi de Frege (l’axiome de compréhension) en
un nouvel axiome nommé l’axiome de séparation. Cet axiome de séparation partitionne la
classe universelle en au moins deux classes et attribue comme propriété, caractéristique à
cette classe partitionné le fait de ne pas s’appartenir à soi même. L’idée de Zermelo
Fränkel c’est de prendre une classe et diviser cette classe par l’axiome de séparation et de
faire en sorte qu’il soit impossible de générer, à l’intérieur de cette classe, la classe
monstrueuse des classes de classes qui ne se contiennent pas elles-mêmes. Cette classe
monstrueuse ne peut pas apparaitre. Ils évitent ainsi l’antinomie de Russel, sans faire
comme Russe qui fait appel à la théorie de type, mais en empêchant l’apparition de cette
classe monstrueuse, c'est-à-dire en partitionnant n’importe quel classe en au moins deux
classes, par l’axiome de séparation, et je lui attribue le faites de ne pas s’appartenir à soi
même et par un simple calcul logique j’obtiens la solution, à savoir que la classe
monstrueuse ne peut pas apparaitre. On a donc une proposition toujours vraie et
l’antinomie de Russel est réglée (voir calcul logique dans le livre).
Leur calcul consiste à d’abord séparer une classe, puis attribuer à ces classes la propriété
de ne pas s’appartenir à soi-même qui est nécessairement fausse. Si cette propriété est
fausse, que je suis dans une équivalence et que je veux obtenir une proposition toujours
vraie, je dois dire sa contradictoire qui est que s’appartenir à soi même est également
faux. J’obtiens donc du faux équivalent à du faux, ce qui me donne du vrai. Il est donc
impossible de générer, à partir d’une classe donnée, la classe monstrueuse. C’est l’axiome
de séparation. Cet axiome de séparation modife profondément
l’axiomatique elle-même de la théorie des classes et des ensembles et reprend le problème
a sont origine, à savoir le cinquième axiome de Frege.
Avec la fragmentation des classes, on peut se demander s’il existe encor une classe
universelle. La réponse est oui, mais cette classe universelle est elle-même obtenu par
séparation à partir d’une autre classe universelle. Il y a donc une multiplicité de classes
universelles.
Tout cela marche très bien avec les classes fnies, mais il y a au moins un cas où l’axiome
de séparation pose problème, à savoir l’infni. Par exemple, si j’ai une infnité de paires de
chaussures et de paires de chaussettes. On est donc dans le problème de l’infni en acte
(ayant comme cardinalité alef 0). Pour la classe des chaussettes je peux attribuer une paire
de chaussettes au hasard, je sais très bien que cela va me donner une paire puisque je
peux faire ma bijection. Pour la classe des chaussures, je peux faire une bijection entre les
chaussures du pied droit et celles du pied gauche. J’ai donc une paire de chaussette
adéquate, par bijection, à n’importe quelle paire de chaussure. Mais si je pense à l’infni en
acte, il est impossible d’épuiser toutes les paires de chaussures et de chaussettes. Pour les
paires de chaussures je n’ai pas beaucoup de problème car je sais que si j’ai des paires de
chaussures même à l’infni j’aurais toujours au sein d’une paire une chaussure gauche et
une de droite. Mais pour les paires de chaussettes qu’est ce qui me garanti que j’aurais à
l’infni des paires de chaussettes correspondant aux paires de chaussures. C’est une
aporie, qu’il appel l’axiome du choix. Cette axiome postule, choisit qu’il y a autant de paire
de chaussettes que de paires de chaussures ce qui me permet de faire une bijection entre
ces deux classes.
Cette axiome du choix modife profondément la théorie des ensembles, à tel point qu’on va
appeler cette théorie ZFC (Zermelo+Fränkel+axiome du Choix). Cet axiome est
indispensable pour fonder l’arithmétique commune, et l’arithmétique transfnie. En effet,
avec Russel nous étions confronter à une difculté dans la théorie des types, il y a une
infnité de types et chaque type a une infnité d’élément dont nous pouvions pas rendre
compte, il nous manquait l’axiome des paires, c'est-à-dire l’axiome du choix.
L’axiome de séparation et l’axiome du choix sont les axiomes fondateurs de la théorie des
ensembles, nous permettant d’éviter la génération de classe monstrueuse. Une classe est
toujours incluse dans une classe de classes, et n’appartient jamais à elle-même au une
classe du même type qu’elle. C’est en ce sens que l’axiome de séparation nous permet
d’empêcher l’apparition de classe monstrueuse, on montrant qu’elle est contradictoire
avec phi(x), à savoir ne pas s’appartenir à soi même. Quant à l’axiome du choix, il nous
permet de partitionner l’univers en acte.

Vous aimerez peut-être aussi