Vous êtes sur la page 1sur 4

Démonstrations du théorème du minimax

Cet article ne fait que recenser des preuves du théorème du minimax de John von Neumann. L'énoncé du
théorème ainsi qu'une présentation globale de la variété de ses démonstrations sont disponibles dans l'article
principal Théorème du minimax de von Neumann auquel on se réfèrera donc.

Toutes les preuves commencent par la même remarque, selon laquelle l'inégalité
, information signalée dans l'article principal qu'on supposera donc

connue ici.

Sommaire
1 Preuves par arguments de convexité
1.1 La preuve de Jean Ville
1.2 Démonstration par la dualité en optimisation linéaire
2 Notes
3 Bibliographie

Preuves par arguments de convexité


La preuve de Jean Ville

La preuve qui suit ci-dessous est une variante de celle de Jean Ville et n'utilise que des arguments de convexité
élémentaires Note 1 .

Supposons que l'inégalité entre le maximin et le minimax soit stricte, et introduisons une constante
strictement comprise entre ces deux réels. Si on retranche à tous les coefficients de , la quantité est
diminuée de pour chaque . Quitte à modifier de cette façon, on peut donc supposer
.

Il nous suffit ainsi de montrer qu'il est impossible que le maximin soit strictement négatif tandis que le minimax
est strictement positif.

Dans l'espace des vecteurs-colonnes à entrées, notons ( ) les colonnes de la matrice et (


) la base canonique. Introduisons K enveloppe convexe des et des : est un convexe
compact. Soit enfin la projection de sur ce convexe fermé.

1er cas : si . Ceci signifie que . Il existe donc des réels positifs ou nuls et dont un au moins
n'est pas nul et pour lesquels , ce qui se réécrit

.
Dans cette égalité il n'est pas possible que tous les soient nuls (cela entraînerait la nullité de tous les ) et

cela a donc un sens de considérer le vecteur . L'identité assure alors

que est à coefficients négatifs ou nuls. Chaque vecteur étant à coefficients positifs ou nuls, le
produit matriciel est donc négatif ou nul. Par conséquent le maximum est lui-même

négatif ou nul, et enfin le minimax, qui est lui-même inférieur ou égal à , est lui aussi négatif ou
nul.

2d cas : si , notons . Pour chaque , puisque est la projection de sur et


que est un élément de , on peut écrire l'inégalité dont on déduit : le
vecteur est donc à coefficients strictement positifs. En exploitant de même pour chaque l'inégalité
, on constate que chaque est un réel strictement positif, et donc que le
vecteur est à coefficients strictement positifs. Il n'y a plus qu'à
introduire ; c'est un élément de pour lequel le vecteur ligne est à coefficients

strictement positifs. On finit alors comme au premier cas : on en déduit successivement que chaque produit
est un réel strictement positif, puis que le minimum est strictement positif, et enfin que le

maximin est lui aussi strictement positif.

Démonstration par la dualité en optimisation linéair e

On se référera à l'article Théorème du minimax de von Neumann pour de multiples informations sur le
théorème et à l'article Optimisation linéaire pour les notations utilisées dans l'écriture des problèmes
d'optimisation linéaire.

Notations :

désigne un vecteur dont tous les éléments valent 1 et dont la dimension dépend du contexte,
pour deux vecteurs et , l'écriture signifie que pour tout indice ,
désigne le simplexe unité de ,
est une matrice réelle de type {\displaystyle
.

Le théorème du minimax de von Neumann affirme que

{\displaystyle \max _{x\in \Delta .


_{k}}\min _{y\in \Delta

On note [resp. ] le membre de gauche [resp. de droite] de cette identité que l'on va à présent démontrer.

Commençons par deux observations simples à démontrer :

1. quitte à augmenter d'une même quantité tous les coefficients de , on peut supposer que et \beta
\alpha>0
, ce que nous ferons, >0
2. {\displaystyle \max est le plus grand élément de et {\displaystyle \min est le plus petit élément
de \,\{v^{\top
. }x:x\in \,\{v^{\top }x:x\in

Par ailleurs tous les problèmes d'optimisation dans l'identité de von Neumann ont une solution car on y
minimise ou maximise des fonctions continues sur un simplexe (un compact non vide) ; pour le problème
externe du membre de droite (le raisonnement est le même pour celui du membre de gauche), on utilise le fait
que l'application {\displaystyle y\mapsto est continue comme fonction convexe (enveloppe supérieure de
fonctions convexes)\max\{y^{\top
ne prenant que}Ax:x\in
des valeurs finies. L'utilisation des opérateurs \min
et \max(au lieu de \inf
et ) est donc justifiée.
{\displaystyle
On peut alors écrire la suite d'équivalences suivantes :

{\displaystyle {\begin{array}{rcl}\beta \leqslant t&\iff &\exists \,y\in \Delta


_{n},~\max\{y^{\top }Ax:x\in \Delta _{k}\}\leqslant t\qquad [{\mbox{définition
de}}~\beta ]\\&\iff &\exists \,y\in \mathbb {R} ^{n}:y\geqslant 0,~e^{\top
}y=1,~A^{\top }y\leqslant te\qquad [{\mbox{observation 2}}]\\&\iff &\exists
\,y\in \mathbb {R} ^{n}:y\geqslant 0,~e^{\top }y=1/t,~A^{\top }y\leqslant
e\qquad [y\curvearrowright ty,~t>0]\\&\iff &1/t\leqslant \sup\{e^{\top
Dès lors

{\displaystyle
{\frac {1}
{\beta
Il s'agit bien d'un \max
, car ce problème d'optimisation linéaire est réalisable (par les équivalences ci-dessus) et
borné (sa valeur optimale est 1/\beta
, qui est finie) ; il a donc une solution. Un calcul similaire montre que

{\displaystyle
{\frac {1}
{\alpha
Par le résultat de dualité forte en optimisation linéaire (les deux problèmes d'optimisation linéaire sont duaux
l'un de l'autre et ont une solution ; il n'y a donc pas de saut de dualité, ce qui veut dire que les valeurs optimales
sont égales), on obtient alors

{\displaystyle {\frac {1}{\beta


}}=\max _{y\geqslant 0 \atop
A^{\top }y\leqslant e}\,e^{\top
Le résultat est démontré.

Notes
1. On a privilégié la concision à l'intuition géométrique dans la rédaction de la preuve ; le lecteur intéressé pourra trouver
une présentation du principe de cette preuve qui met davantage en relief les idées géométriques sous-jacentes dans (en)
Jörg Bewersdorf f et David Kramer , Luck, Logic, and White Lies , Wellesley, A K Peters, Ltd., 2005, poche
(ISBN 978-1-56881-210-6 ), p. 369-372 .

Bibliographie
Michel Willem, Analyse convexe et optimisation, 136 pages, Bruxelles, Edition CIACO, 1989. (Contient une
démonstration du théorème du minimax à partir du théorème de dualité en Optimisation linéaire ainsi que la
démonstration de ce dernier ).
Ce document provient de « https://fr.wikipedia.org/w/index.php?
title=Démonstrations_du_théorème_du_minimax&oldid=131134094 ».

Cette page a été modifiée pour la dernière fois le 28 octobre 2016 à 03:35.
Droit d'auteur : les textes sont disponibles sous licence Creative Commons attribution, partage dans les mêmes
conditions ; d’autres conditions peuvent s’appliquer. Voyez les conditions d’utilisation pour plus de détails,
ainsi que les crédits graphiques. En cas de réutilisation des textes de cette page, voyez comment citer les
auteurs et mentionner la licence.
Wikipedia® est une marque déposée de la Wikimedia Foundation, Inc., organisation de bienfaisance régie par
le paragraphe 501(c)(3) du code fiscal des États-Unis.

Vous aimerez peut-être aussi