Vous êtes sur la page 1sur 124

MATHEMATICS FOR PHYSICAL SCIENCES

Pr BOUETOU BOUETOU THOMAS


UNIVERSITY OF YAOUNDÉ I

DATE
summary

0.1 INTRODUCTION : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.1.1 the purpose of this course . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.1.2 Fundamental Definitions in Theory of Partial Differential Equations . . . . . . . . . . . . . . 4
0.1.3 Examples of partial differential equations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
0.2 Some mathematical models of physical processes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
0.2.1 Deduction of the equation of heat propagation. Boundary conditions and initial conditions. . 6
0.2.2 Deduction of the equilibrium equation of the membrane and boundary conditions. . . . . . . 10
0.2.3 Deduction of the vibration equation of the membrane. Initial conditions and boundary condi-
tions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

1 INTRODUCTION TO PARTIAL DERIVATIVE EQUATIONS 14


1.1 Cauchy problem for non-linear systems : Kovalevskaïa theorem . . . . . . . . . . . . . . . . . . . . . 14
1.2 Majority series methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.1 Demonstration of the uniqueness of the analytical solution. . . . . . . . . . . . . . . . . . . . 17
1.2.2 Upper bound of analytical functions and their constructions . . . . . . . . . . . . . . . . . . 19
1.3 Demonstration of the existence of the analytical solution (inequality given coefficients and the upper
bound system, construction of the solution of the upper bound system) . . . . . . . . . . . . . . . . 20
1.4 The domain of existence of the analytical solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.5 Example of a heat conductivity equation where there is no analytical solution to the Cauchy problem 23
1.6 Cauchy problem with initial data on arbitrary surface surfaces. Possibility of transforming it into a
Cauchy problem with initial data on a hyperplane . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.7 Characteristics and characteristic directions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.7.1 Definition of the characteristic surface (the characteristics) for a PDE . . . . . . . . . . . . . 27
1.7.2 Direction of characteristic : Definition of the characteristic using the direction of characteristic. 30

2 FONCTIONS SÉCIALES 32
2.1 Γ, β hypergéometriques, de Bessel, polynôme de Legendre, de Laguerre et de Tchebytchev . . . . . . 34
2.2 Rappel sur la fonction Gamma Γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

3 TECHNIQUES DE RÉSOLUTION DES ÉQUATIONS AUX DÉRIVÉES PARTIELLES 49


3.1 Rappel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.1.1 Espace vectoriel euclidien : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.1.2 Espace de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.3 Espace normé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2 Série de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.2.1 Séries de Fourier des fonctions paires et impaires . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.2.2 Séries de Fourier des fonctions de période 2l . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.2.3 Développement en série de Fourier d’une fonction non-périodique . . . . . . . . . . . . . . . . 55
3.2.4 Série de Fourier sous forme complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.2.5 Série de Fourier en sinus ou en cosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2.6 l’Identité de Parseval et l’inégalité de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

1
3.2.7 Inégalité de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2.8 Série de Fourier de deux variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

4 TRANSFORMATION DE FOURIER 59
4.1 l’Intégrale de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.2 Formes équivalentes des énoncés du théorème de l’intégrale de FOURIER . . . . . . . . . . . . . . . 59
4.3 Transformation de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3.1 Transformée de Fourier en cosinus et sinus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.4 Identité de Parseval pour les intégrales de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.5 Convolution pour les intégrales de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.6 Proprietes des transformées de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.7 Exemple de solution utilisant la transformée de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.8 Méthode de séparation des variables (Méthode de Fourier) pour l’équation des ondes. . . . . . . . . . 62
4.8.1 Problème aux limites de l’équation de la corde vibrante . . . . . . . . . . . . . . . . . . . . . 62
4.9 Méthode de séparation des variables pour la résolution de l’équation de propagation de la Chaleur. . 65
4.10 Transformation de Fourier en dimension n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

5 SUR LES OPÉRATEURS LINÉAIRES BORNÉS OU NON DANS LES ESPACES DE HIL-
BERT. 68
5.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.2 Définition d’un opérateur fermé. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.3 Définition de l’opérateur adjoint pour l’opérateur non borné. . . . . . . . . . . . . . . . . . . . . . . 70
5.4 Définition de l’opérateur Auto-adjoint pour l’opérateur non borné. . . . . . . . . . . . . . . . . . . . 70

6 TRANSFORMATION DE LAPLACE 72
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.2 Original et image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.3 Image des fonctions particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.4 Images des Fonctions à l’échelle modifiée de la variable Indépendante : Images des fonctions cos at,
sin at . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.5 Propriétés de la linéarité de l’image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.6 Théorème du déplacement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.7 Image de fonctions e−αt , sinh αt ; cosh αt, e−αt sin at et e−αt cos at . . . . . . . . . . . . . . . . . . . 75
6.8 Dérivation de l’image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.9 Image des dérivées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.10 Dictionnaire d’image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
6.11 Equation auxiliaire d’une équation différentielle donnée . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.12 Théorème de décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.13 Exemples de résolution des équations différentielles et des systèmes d’équations différentielles par la
méthode du calcul opérationnel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.14 Théorème de Convolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
6.15 Transformée de Laplace de Quelques fonction élémentaires . . . . . . . . . . . . . . . . . . . . . . . . 84
6.15.1 Calcul d’intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
6.16 Transformation de MELLIN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.16.1 Transformation de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.16.2 Transformation de Kontorovitch-Lebedev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

7 MESURES ET INTÉGRATIONS 89
7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.2 Mesure des ensembles plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.2.1 Mesure des ensembles élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.2.2 Mesure de LEBESGUE pour des ensembles dans le plan . . . . . . . . . . . . . . . . . . . . 90

2
8 NOTIONS GÉNÉRALES SUR LES MESURES 91
8.1 Prolongement de la mesure à partir d’un sémi-anneau ou vers un anneau : additivité, sigma-additivité. 91
8.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8.3 prolongement de la mesure au sens de LEBESGUE. . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

9 FONCTIONS MESURABLES 94
9.1 Définitions et propriétés fondamentales des fonctions mesurables . . . . . . . . . . . . . . . . . . . . 94
9.2 Action sur les fonctions Mesurables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.3 Complément sur les espaces Vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
9.3.1 Fonctionnelle linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

10 INTÉGRALE DE LEBESGUE 98
10.1 Fonctions simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
10.2 Intégrale de LEBESGUE pour les fonctions simples. . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
10.2.1 Quelques propriétés de l’intégrale de LEBESGUE. . . . . . . . . . . . . . . . . . . . . . . . . 99
10.3 Définition Générale de l’intégrale de LEBESGUE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
10.3.1 Quelques propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
10.4 Sigma-additivité et la continuité absolue de l’intégrale de LEBESGUE . . . . . . . . . . . . . . . . . 101
10.5 Passage à la limite sous le signe Intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
10.6 Intégrale de LEBESGUE sur les ensembles de mesure infinie . . . . . . . . . . . . . . . . . . . . . . . 106
10.7 Comparaison de l’intégrale de LEBESGUE et l’intégrale de RIEMANN . . . . . . . . . . . . . . . . 106

11 PRODUIT DIRECT DES SYSTÈMES D’ENSEMBLES DE MESURES :THÉOREME DE


FUBINI. 108
11.1 Produit d’un système d’ensembles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
11.2 Produit des Mesures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
11.3 Théorème de FUBINI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

12 DISTRIBUTIONS 110
12.1 D0 set of distributions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
12.2 Completeness of D0 space. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
12.3 Distribution support . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
12.4 Regular Distribution. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
12.5 Singular distributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
12.5.1 SOKHOTSKY Formula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
12.5.2 Variable change in distributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
12.5.3 Product distributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
12.5.4 Derivation of distributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
12.5.5 Properties of the derivatives of distributions. . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
12.5.6 Fundamental solution of a differential equation . . . . . . . . . . . . . . . . . . . . . . . . . . 119
12.5.7 Method of construction of the fundamental solution for any operator of the form below. . . . 121
12.5.8 GREEN function for boundary problems : . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

3
0.1 INTRODUCTION :
0.1.1 the purpose of this course
With the mathematical modeling of the different phenomena of nature and of our society, we obtain differential
equations where the unknown function depends on many free variables. Thus, since the equation is differential, it
contains partial derivatives of the unknown function. The partial differential equations are widely used, and in their
study are involved different parts of contemporary mathematics such as : analysis, algebra (general and linear),
geometry (differential), functional analysis, topology , the theory of functions with complex variables and especially
the theory of functional spaces of infinite dimension.
Since most physical phenomena are described by PDEs (Partial Differential Equations), in our study we will
consider only the cases where PDEs describe physical processes, so this is called mathematical physical equations.
to put into perspective that the PDEs describe not only the physical processes but also the chemical, biological,
economic processes and many other phenomena and processes, the typical example of PDEs is the heat conductivity
equation that we will study in In this equation, the unknown is the function U (x, t) where x is the position of the
point x = (x1 , x2 , x3 ) and t is the time. In other words, temperature in different points of the body and at different
times will be defined as a solution of a certain EDP.

0.1.2 Fundamental Definitions in Theory of Partial Differential Equations


The partial differential equations of the unknown function u(x1 , ..., xn ) where u(x) with x = (x1 , ..., xn ) ∈ Ω ⊂ R
is called m-order equation if it contains at least one m-order derivative nd does not contain derivatives larger than
m m.
- The order of a system of partial differential equations is the highest order of any of these equations
- The partial differential equation is called linear if it is linear relative to the unknown function and its
derivatives.
As an example, we have the equation :

∂2u ∂2u
a(x, x1 ) 2 + b(x, x2 ) 2 = f (x1 , x2 ),
∂x1 ∂x2

which is a linear second order equation relative to u.


- The partial differential equation is called quasi-linear if it is linear relative to all major derivatives of the
unknown function.
Example :
∂u ∂ 2 u ∂u ∂ 2 u
2 + + u2 (x1 , x2 ) = g(x1 , x2 ),
∂x1 ∂x1 ∂x2 ∂x22
quasi-linear relative to u. However, the equation
 2  2
∂u ∂u
+ = u(x1 , x2 )
∂x1 ∂x2

is a non-linear equation.
Any EDP in the case of n variables is in the form

∂αu
 
∂u ∂u
F x1 , x2 , ..., xn , , ..., , ..., α1 α2 = 0, (1)
∂x1 ∂xn ∂x1 ∂x2 ...∂xα
n
n

with α = α1 + α2 + ... + αn .
If the equation is linear it will come in the form :
X
aα (x)D|α| u = f (x), (2)
|α|≤m

4
with
∂ |α|
D|α| = 1 α2 αn
.
∂xα
1 ∂x2 ...∂xn

The summation is made for αi ≤ m. Some writers prefer α instead of |α|.


the EDP can be considered either in Rn or in an Open set Ω ⊂ Rn .
In the quality of Ω for some mathematical or physical problems, we can consider the set

Ω = Rn+ = {x : x0 ∈ Rn−1 , xn > 0}

where x0n = (x1 , ..., xn−1 ).


We can consider a limited domain or not, namely a ball or the outside of a ball, a rectangle or the outside of a
rectangle,...
In general, PDEs can admit many sets of solutions. For the equation to accept a solution (or in the most
complicated cases a certain well defined solution) that is to say that the problem is determinative, it is necessary
to set certain conditions on the sought solution called initial conditions. and boundary conditions that usually arise
from the physical meaning of the problem. For PDEs, always indicate the class of functions u(x) from which the
solution is sought. Usually it can be a functional space defined in functional analysis. But we will consider what is
called classical solution and the generalized solution (distribution).In the study of the classical solution, we consider
the space of continuous functions.
C(Ω) is the space of continuous on Ω,
C k (ω) is the space of continuous functions k-times
C ω Ω = C ∞ (Ω) is the space of the analytic functions.

0.1.3 Examples of partial differential equations


physical phenomena are described by EDP equations or systems. We will give examples of EDP that we meet
very often.
-Propagation equation or heat distribution
If the environment in which we study the temperature of the body is dimension 3 and homogeneous, if the tempe-
rature is a function of time, the propagation equation is in the form :

∂u ∂2u ∂2u ∂2u


= + + (3)
∂t ∂x21 ∂x22 ∂x23

u(t, x1 , x2 , x3 ) = u(t, x), x = x(x1 , x2 , x3 ).


Equation (3) also describes the diffusion phenomena.
-Wave propagation equation
If we are in dimension 3 and the propagation of waves depends on time, its equation takes the form

∂2u ∂2u ∂2u ∂2u


= + + (4)
∂t2 ∂x21 ∂x22 ∂x23

Stationary processes : If the processes of waves and heat propagation are stationary, meaning that

∂u ∂2u
= 0 et = 0,
∂t ∂t2
so, (3) et (4) have the form
∂2u ∂2u ∂2u
+ + =0 (5)
∂x21 ∂x22 ∂x23
which is called Laplace equation.

5
The sum of the partial derivatives of order 2 is noted
n
X ∂2
∆= .
∂x2k
k=1

(5) becomes ∆u = 0.
The equations in (5) also describe the potential of a liquid.
Equations (3), (4) and (5) have a constant coefficient equal to 1. This takes place because we consider a
homogeneous medium. The resolution of equations (3), (4) and (5) is defined when the initial and limit conditions
are given. For example for equation (3), we can give as initial conditions.
Par exemple pour l’éqution (3), on peut donner comme conditions initiales

u(x, t)|t=t0 = u(t0 , x), x ∈ Ω,

u(x, t)|∂Ω = φ(t, x), ∂Ω = border or edge of Ω

0.2 Some mathematical models of physical processes


0.2.1 Deduction of the equation of heat propagation. Boundary conditions and initial
conditions.
Consider the body Ω, the temperature which in a coordinate point x = (x1 , x2 , x3 ) and at time t is defined as
being a function of x and t, which admits continuous derivatives up to order 2 with respect to xi , i = 1, 2, 3 for all
t and a continuous derivative with respect to time ; so this can be symbolically noted :
1,2
u(x, t) ∈ Ct,x (Ω).

The deduction of the equation describing the propagation of heat is based on the following experimental law : "If
different parts of a body have different temperatures, then in the body appears a directed heat flow from the highest
point of temperature to the lowest point of temperature : Carnot’s Principle"
Let us consider the surface S inside the body Ω suppose that on it is defined a normal vector ~n and continue ;
then the quantity of heat that passes through the surface S in the time interval ~n dans l’intervalle de temps t1 to
t2 being defined by Z t2 Z Z 
∂u
q=− k(x) ds dt (6)
t1 S ∂~n
∂u
∂~
n is the derivative at the point x of the surface S with respect to the direction of the normal ~n in the orientation
of the decrease of the heat,
∂u ∂u ∂u ∂u
< 0, = cos α + cos β + ...
∂~n ∂~n ∂n1 ∂n2

6
Figure 1 –

the double Integral is taken with respect to the surface S. The positive coefficient k(x) is the coefficient of
conductivity of the heat at point x. The formula (6) is equivalent to the fact that through an infinitely small body
Ω through dS et and at an infinitely small instant t , passes through a quantity of heat dq such that
∂u
dq = −k(x) dS dt. (7)
∂~n
This is the physical law of Fourier in the theory of the propagation of heat. We will consider an isotropic body in
relation to the propagation of heat, that is to say we will consider that the function k(x) does not depend on the
direction of the normal on a point x of the surface S ; where k(x) ∈ C 1 on all coordinates. For the deduction of the
equation of heat propagation, select inside the bodyΩ with volume D, a portion delimited by the smooth surface
S and consider the variation of the quantity of heat in this volume in the interval t1 to t2 . Through the surface S,
there emerges a quantity of heat defined by the formula (6) where the derivative of u with respect to ~n is given by
∂u
n inside S.
∂~
On the other hand, this amount of heat can be defined through the temperature variation in the volume D in
the time interval t1 to t2 . The variation of the quantity is known and is proportional to the temperature difference
between the instants t1 to t2 , hat is to say it is equal to :
Z Z Z
C(x)ρ(x)[u(x, t2 ) − u(x, t1 )] dx (8)
(D)

where ρ(x) s the density at the point x and C(x) the mass heat at the point x ; and the integral is taken with
respect to the volume (D). Let us determine the heat balance by equating formulas (6) and (8). First, we transform
(6) by Gauss Ostrogradski’s formula. We have
Z t2 Z Z  Z t2 ( Z Z Z X n   )
∂u ∂ ∂u
− k(x) ds dt = − − k(x) dx dt.
t1 S ∂~n t1 D i=1 ∂xi ∂xi

We will use in equation (6) the fact that :


Z t2
∂u
u(x, t2 ) − u(x, t1 ) = dt.
t1 ∂t
Thus, by equating (6) and (8), we obtain the following equation :
Z t2 (Z Z Z " n  # )
∂u X ∂ ∂u
C(x)ρ(x) − k(x) dx dt = 0 (9)
t1 D ∂t i=1
∂xi ∂xi

Since the function is continuous, the volume being arbitrary, and the integral being arbitrary, then the zero equality
of (9) causes the integral to be zero. So
n  
∂u X ∂ ∂u
C(x)ρ(x) − k(x) =0
∂t i=1
∂xi ∂xi

7
It is the equation of propagation of heat in a non-homogeneous but isotropic body.
If the body is homogeneous, then C(x), ρ(x) et k(x) become constants.
n
CS ∂u X ∂ 2 u
= = ∆u. (10)
k ∂t i=1
∂x2i

By posing
k
a2 = ,
CS
we get
∂u
= a2 ∆u. (11)
∂t
If we pose t0 = kt
CS , we get
∂u
k
=∆
∂( CS )t
, then
∂u
= ∆u ayant posé t0 = t.
∂t
Equations (10) and (11) admit several solutions, to obtain in the solution collection, which is close to our problem,
we must set additional conditions. These additional conditions are boundary conditions, that is to say the conditions
defined at the limit of the domain where the solution is sought. Then there are the initial conditions.
With the modeling of physical, chemical, ecological and other problems, these conditions are defined empirically.
However, in most cases, one must ask whether these conditions are true or meaningful.
Let us consider the initial conditions and limits of the propagation equation which emerge from physical consi-
derations. For a physicist, it is clear that knowledge of the body temperature at a given time and the heat regime
at the limit of the body defines the temperature at any time.
Besides this, the heat regime at the border of the body can be defined in different ways. If the domain coincides
with all the space, then we can demonstrate that the limiting solution of the heat propagation equation for t ≥ t0
is uniquely defined by an initial condition with value u(x, t) for t = t0 or u(x, t0 ). If Ω is a bounded domain or an
open domain of Rn , so apart from the initial function, we can define the temperature at each limit point of the
body for t ≥ t0 , by setting as initial condition

u(x, t)|t=t0 = u0 (x, t) = y(x, t0 ), (12)

and the boundary condition :


u(x, t)|∂Ω = φ(x, t), t ≥ t0 . (13)
Formulas (12) and (13) define what is called the first boundary problem.
Instead of defining on the border of the problem t ≥ t0 , for the definition of the uniqueness of the solutions
of the heat propagation equation, we can define the derivative with respect to the normal directed inwards at the
border of the domain ∂Ω of the function u(x,t).
We will encounter such problems in the case where we would like to study the temperature of the body Ω with
the conditions that we know the quantity of heat given by the body to the external medium (or from the external
medium to the body) through a ’arbitrary’ surface dS at the border of the body. this amount of heat is defined by
the formula
∂u
−k(x) dSdt
∂~n
∂u
Knowing the heat transfer law for each element dS at the border of the domain ∂Ω, we can search the value ∂~ n at
the boundary of the domain ∂Ω.In particular, if there is no heat exchange at the bottom of the estate, then we will
have :
∂u
= 0.
∂~n ∂Ω

8
In the general case
∂u
= ψ(x, t), t ≥ t0 (14)
∂~n
Formulas (12) and (14) define what is called the second boundary problem. One can as a boundary condition for
t ≥ t0 define at the border ∂Ω a linear combination
∂u
k(x) + k1 (x)u(x, t),
∂~n
where k1 (x) is the external coefficient of heat propagation which crosses the exterior spaces towards the body
and k(x) the internal coefficient of heat propagation. These functions are assumed to be known. Towards such
mathematical problems, we will get there if we study the temperature of u(x, t) of the body Ω under the condition
that we know the temperature u1 (x, t) from the ambient medium to the body and that on the surface surface of the
body therefore takes place the exchange of heat with the surrounding environment. The heat exchange law can be
complicated, we will consider the simplest variant known as Newton’s law. For Newton’s law, the amount of heat
which crosses through the surface during a time interval t1 to t2 towards the ambient environment is equal to :
Z t2 Z Z
k1 (x)(u1 − u) dS dt,
t1 S

with u1 (x, t) and u(x, t) which are defined on S as the transfer limit from the outside to the inside of the corres-
pondence body. On the other hand, the amount of heat given during this time interval through the surface S inside
the body is equal to Z t2 Z Z
∂u
− k(x) dS
t1 S ∂~
n
So we have two expressions two expressions for the heat flow. By equalizing the integrals, we have :
∂u
k1 (x)(u1 (x, t) − u(x, t)) = −k(x) ,
∂~n
which implies :  
∂u
− h(x)u = ψ1 (x, t), (15)
∂~n
k1 (x)u1 (x)
ψ1 (x, t) = .
k(x)
If u1 = 0, then equation (15) becomes
∂u
− h(x)u = 0 (16)
∂~n ∂Ω

Formulas (12) and (15) define what is called the third boundary problem.
Let us Suppose that the temperature at each point of the body is fixed, that is to say
∂u
= 0,
∂~n
then the heat propagation equation is written
∆u = 0
If we associate the first boundary problem, that is to say :

∆u = 0
u(x, t)|t=t0 = u(x, t0 )

This system gives the Dirichlet equation. To define u(x, t), the initial condition must not be defined beforehand ; it
is enough simply to define the boundary condition which does not depend on time.

9
Sometimes, we study the temperature of a bar or a plate knowing the wall of the bar, or the top and bottom of
the plate are isolated. So the heat propagation equation in the case of the bar is :

∂u ∂ 2 u ∂u ∂2u ∂2u
= ; = + .
∂t ∂x 2 ∂t ∂x21 ∂x22

The resolution of this equation will only be complete if we consider the initial condition (12) and one of the boundary
conditions (13), (14) or (15).

0.2.2 Deduction of the equilibrium equation of the membrane and boundary condi-
tions.
Consider a glumella (thin, elastic body) stretched in all directions, we can assume that the glumella is thin
enough, not to resist bending, that is to say that the change in its shape does not cause the surface change and
that it resists stretching (surface change).
The work of the external forces which cause the surface change of a part of the membrane is proportional to this
change. The proportionality coefficient is positive and noted T . Let us note that the work of the elastic internal
forces is equal in absolute value and of opposite sign to the work of the external forces which involve the change of
surface.
There, in the fixed state the membrane is located in the plane R2 and has the form of a surface domain Ω with
border b. Suppose that on the membrane acts the external force, of density which at the point x = (x1 , x2 ) equal
to f (x), and its direction is perpendicular to the plane R2 . Upon the action of this force, the membrane will react
and take the superficial form, of which we will write the equation u = u(x1 , x2 ).
Figure :

Figure 2 –

Let us deduce the equation that checks the function u(x) in the unbalanced state according to the following
conditions :
a) Suppose that in the situation which interests us, at the equilibrium position, the surface of the glumella is
∂u
slightly curved, ie ∂xi
, i = 1, 2 is small and we can neglect their exponents superiors.
b) Suppose that the action of the external force on the points of the glumella are mixed such that their
coordinates x1 , x2 in addition does not change.
The deduction of the equation is based on a mechanical property : principe du moindre déplacement. It stipulates
that the sum of the elementary works of all the forces which act on the system ;for any lesser displacement is equal
to zero. To calculate all the elementary work, let us seek to calculate the work carried out by the forces which act
on the membrane, starting from a displacement which brings it from the initial state to the position defining the

10
function u(x) = u(x1 , x2 ). The work of forces, the density being f (x), is defined by the integral
Z Z
f (x)u(x) dx1 dx2

as on the element of the membrane dx1 dx2 acts the force f (x1 , x2 )dx1 dx2 , the change of the surface of the membrane
for this displacement is equal to :
v 
Z Z u 2  2
u X ∂u
t1 + − 1 dx1 dx2
Ω i=1
∂x i

the initial surface here is supposed to be the uniqueness and the work of the elastic internal forces due to this change
is the following expression : v 
Z Z u 2  2
u X ∂u
−T t1 + − 1 dx1 dx2 ,
Ω i=1
∂x i

∂u ∂u
et us decompose the interior function of the integral in series of ∂x 1
, ∂x 2
: it comes that for the work of the elastic
internal forces we obtain the following expression :
Z Z " 2  2 #
T ∂u ∂u
− + dx1 dx2
2 Ω ∂x1 ∂x2

Thus, the work of all the elastic internal forces acting on the membrane and the external forces causing the
displacement from the equilibrium position to the position defining the function u(x) is equal to :
Z Z ( " 2  2 # )
T ∂u ∂u
A(u) = − + + f.u dx1 dx2 (17)
Ω 2 ∂x1 ∂x2

Note that the integral (17) is almost equal to the energy potential of the membrane at the equilibrium position.
Now let’s make a certain displacement of the membrane (let’s move there a little) which gives us the possibility
of using the principle of the least displacement, that is to say adding to u(x) a certain function δu(x). The work of
all the active forces in this displacement is equal to the variation (change) of the integral (17) ; We have :
Z Z
δA = A(u + δu) − A(u) = [−T (u0x1 δux1 + u0x2 δux2 ) + f δu] dx1 dx2 (18)

The variation of this integral must be equal to zero in accordance with the principle of the least displacement.
Integrate formula (18) by part of the first two members into the integral (here we assume T constant) we get
Z Z Z Z     
0 0 ∂ ∂u ∂ ∂u
− [ux1 δux1 + ux2 δux2 ] dx1 dx2 = δu + δu dx1 dx2
Ω ∂x1 ∂x1 ∂x2 ∂x2
ZΩ Z Z
∂u
= − δu dS + ∆uδu dx1 dx2
L n
∂~ Ω


δ is the Laplace operator, ∂~n the derivative with respect to the external normal of the border of the field Ω. So
Z Z Z
∂u
δA = − T δu dS + (T ∆u + f )δu dx1 dx2 (19)
L ∂~n Ω

Here δu represents the least displacement of the membrane, that is to say the displacement due to the links applied
to the membrane. These links are generally applied at the edge of the membrane ; this is why at the interior point
the function δu(x1 , x2 ) is an arbitrary continuous function ; which means that from zero equality of δA we can

11
conclude that in all positions, the equilibrium function u(x1 , x2 )if each interior point of the domain Ω satisfies the
equation
T ∆u + f = 0, (20)
this equation is called Poisson equation.
If f = 0, then Poisson equation is reducted to Laplace equation.
As regards the constraints, they are linked to the boundary conditions which can be varied. We will study some
cases, the most encountered..
A- he membrane is fixed at its ends : Suppose that the membrane is fixed at its ends along a spatial curve
which projects onto L. If the parametric equations of the curve are defined by

x1 = x1 (s), x2 = x2 (s),

where s is the length of the arc, we want the membrane to go through a certain spatial curve

x1 = x1 (s), x2 = x2 (s), u = φ(s).

In addition, we will impose in a unique way on δu, that δu = 0 on L. hanks to this condition, in formula (19),
the curvilinear integral disappears, and we get from the problem, from the resolution of l equation (20) with the
boundary condition
u|L = φ(s); (21)
this is called Dirichlet problem.
B- Free membrane : One can not impose conditions on the border, like that, it can move in the direction of
the vertical of the walls of the cylinder with for base L. In this case, δu is arbitrary as inside that the border. For
equation (20), the condition on L will be :
∂u
L = 0. (22)
∂~n
C- Arbitrary action on the border of the membrane : Suppose that apart from the external force with
density f , which acts on the interior points of the membrane that at its end, acts another vertical force, with
density f1 , at point that on the element ds, of the border L acts the force f1 ds. If we seek the equilibrium position
of the membrane, in this case, to the integral (17) we must add the term (member)
Z Z u
( f1 du) ds;
L 0
Ru
hen in (19) we will add the term (member) 0
f1 du , that is to say the curvilinear integral in (19) with the view
Z  
∂u
−T + f1 δu ds.
L ∂~n

So we got the boundary condition for the Poisson equation




T = f1 . (23)
∂~n L

The problem posed with the boundary conditions (22) and (23) is called the problem of Neumann
D- Elastic fixed membrane :This is the case where the force acting on the end is proportional to the
declination f1 (s) = ku(s). So the boundary condition for the Poisson equation is :

∂u
T = 0. (24)
∂u L

And the corresponding problem is called the third boundary problem.

12
0.2.3 Deduction of the vibration equation of the membrane. Initial conditions and
boundary conditions.
Let us Consider the equation of movement of the membrane, here we will deal with small movements, that is to
∂u
say the u, ∂x 1
∂u
and ∂x 2
, are small quantities. The speed of points x1 and x2 is equal to u(t,x∂t1 ,x2 ) and its acceleration
∂2u
∂t2 . To obtain the equation of movement of the membrane, it is necessary, by D’Alembert’s principle, to take into
2
account the energy of the membrane. The density of this energy is equal to ρ ∂∂t2u , where ρ(x1 , x2 ) is the density of
the membrane at point x = (x1 , x2 ). We get the transverse vibration equation of the membrane. If in equation (20),
2
we add the term (member) −ρ ∂∂t2u , the vibration equation the membrane is

∂2u
T ∆u − ρ +f =0 (25)
∂t2
The boundary conditions remain as we had studied except that they can depend on time. We can for example define
the initial conditions
∂u(x, t)
u(x, t)|t=0 = φ(x), = ψ(x), x = (x1 , x2 ) ∈ Ω. (26)
∂t t=0

If f = 0 in (25), we will get

∂2u ∂2u T
T ∆u = ρ =⇒ = a2 ∆u, avec = a2 un certain paramètre .
∂t2 ∂t2 ρ
In the spatial case we have
∂2 ∂2u ∂2u ∂2u
 
= a2 + + , (27)
∂t2 ∂x21 ∂x22 ∂x23
which is the wave equation.
On the question of the boundary problems of mathematical physics.

For non-stationary problems (which depend on time), it is necessary to the equation, to add to it the initial
conditions to define the solution. If, in addition to x, we consider all Rn , then such a problem is called the Cauchy
problem. When we consider the problem in all space (Cauchy problem), or in a limited domain (exterior of a compact
for example), sometimes we have to take into account the behavior of the solution at infinity (the distant points
of the field of study) and only after certain assumptions of this behavior, the solution can be found in a unique
way. Thus the problem of mathematical physics arises as a problem of solving the partial differential equation in
the light of certain additional conditions, called initial and boundary conditions, which are often fixed by physical
considerations of the problem.

13
Chapitre 1

INTRODUCTION TO PARTIAL
DERIVATIVE EQUATIONS

1.1 Cauchy problem for non-linear systems : Kovalevskaïa theorem


Definition 1. :
Given a system of EDP with independent variables (t, x) = (t, x1 , x2 , ..., xn ) and unknown functions u1 , u2 , ..., uN
∂ ni u i ∂ α uj
= F (t, x, u 1 , u2 , ..., u N , αn ...), (1.1)
n
∂t i ∂t 0 ∂xα
α
1 ...∂xn
1

where α = α0 + α1 + ... + αn , α ≤ nj , α0 < nj , i, j = 1, 2, ..., N .


The number of equations is equal to the number of unknowns.
From the equations written above, we show that each unknown function ui has its highest degree ni in t in the
system. ni
a)Among the derivatives, the degree ni each function entering the system must contain ∂∂tnuii .
b) The system is solvable relatively to its derivatives. Generally, t represents time and x1 , ..., xn the spatial
variables.
Conditions a) and b) are satisfied for example by the equation

∂2u
= ∆u.
∂t2
but the equation
∂u
= δu
∂t
and the system
~
 ∂~
v
∂t = gradρ
div~v = 0

do not verify these conditions.


the system (1.1) satisfying conditions a) and b) will be called the Kovalevskaïa type system.
Definition 2. :
The complex function F (x) defined in a certain domain Ω is called analytic in the neighborhood of the point
P = (x01 , ..., x0m ) if it can be decomposed into series of the form
P∞ P∞ P∞
F (x) = Pα1 =0 α2 =0 ... αm =0 Aα1 ,...αn (x1 − x01 )α1 (x2 − x02 )α2 ...(xm − x0m )αm
∞ 0 α
= α Aα (x − x ) .

14
which converges absolutely for (x − x0 ) weak enough. In this case, we can show that the function F (x) admits at the
point x0 derivatives with arbitrary degrees. Let us introduce in a reduced way the derivatives of the initial conditions
Ψki (x) by x.
0
∂ α Ψki (x)
αn , (1.2)
∂xα1 ...∂xn
1

where
α0 = α1 + α2 + +...αn , αi ≥ 0, i = 1, ..., N

Theorem 1. of Kovalevskaïa (on the uniqueness and local solubility of the Cauchy problem for a Kovalevskaïa
type system)
If all the functions Ψki (x) are analytical in the neighborhood of the point x0 = (x01 , ..., x0n ) and the functions Fi
are defined and analytical in the neighbourhood of the point (t0 , x01 , ..., x0n , ..., Ψki,α (x0 ), ...) then the Cauchy problem
(1.1) (1.2) admits an analytical solution in a certain neighborhood of the point (t0 , x0 ) = (t0 , x01 , ..., x0n ) in fact
unique in the class of analytical functions.

1.2 Majority series methods


By studying the Cauchy problem, we admit that the given functions and the unknown functions are real functions
and independent real variables differentiable up to a certain order. In what follows, we will show that, the Cauchy
problem admits a unique solution.
Let be given an integer series of m variables

X
Φ(z1 , ..., zm ) = ap1 ...pm z1p1 ...zm
pm
(1.3)
p1 ,...,pm =0

convergent for
|z1 | ≤ R1 , ..., |zm | ≤ Rm (1.4)
Here we admit that the convergence radii of the series (1.3) are slightly greater than the numbers Rk . Let M be
the modulus of function (1.3) under condition (1.4). We see that the entire series of the function

M
z1 zm (1.5)
(1 − R1 )...(1 − Rm )

has all its coefficients that are strictly positive and greater in modulus than those of the series (2.3). We express
this fact by saying that the series (1.5) is an upper bound series of the series (1.3). In general, we call majorante
series of the series
X∞
cp1 ...pm z1p1 ...zm
pm
(1.6)
p1 ,...,pm =0

a series of the same form and of which all the coefficients are positive and greater in modulus than the respective
coefficients of the series (1.6). We know that any entire series absolutely converges within its convergence discs. If
an increasing series of the series converges for |Zk | ≤ ρk , with k = 1, ..., m,then we can clearly state that the series
(1.6) converges inside its disks |Zk | ≤ ρk . Suppose that in (1.5) all Rk are equal ( this is equivalent to replacing the
Rk by the smallest of them) and consider the functions

M
z1 (1.7)
(1 − R1 )(1 − Rz22 )...(1 − zm
Rm )

and
M
z1 +z2 +...+zm (1.8)
1− R

15
The respective integer series of these functions are
∞ ∞
X z1p1 ...zm
pm X (z1 + ... + zm )p
M p
and M
p1 ,...zm =0
R 1 +...+p m
p=0
Rp

By expanding ((z1 + ... + zm )p ) we make sure that the respective coefficients of the expansion of (1.7), i.e. that the
function (1.8) (or the corresponding integer series) will be also upper bound of the function (1.6) (respectively of
the integer series of the corresponding integer series).
The integer major series method is used to deny the existence of the solution of differential equations when the
functions involved are analytical. Let us perform this proof for an ordinary first order differential equation. Let be
given a differential equation
dy
= f (x, y),
dx
dwhose second member is an integer series in x and y converging in the neighborhood of x = y = 0 that is to say

dy X
= apq xp y q (1.9)
dx p,q=0

We ask for a solution which is regular at x = 0 and which satisfies the initial condition

y|x=0 = 0. (1.10)

To find this value, it suffices to compose its Maclaurin series, that is to say to calculate the values of the derivatives
for x = 0.The constant term of this series is given by the initial condition (1.10) and is zero . the value of the first
derivative at x = 0 is given by the differential equation, that is y00 = a00 . Let us differentiate the first two members
of the equation with respect to x o determine the second derivative :

X ∞
X
y 00 = papq xp−1 y q + qapq xp y q−1 y 0 ,
p,q=0 p,q=0

By carrying x = 0, y = 0 and y00 = a00 in the second member, we find the value of the second derivative in x = 0,
that is to say :
y000 = a10 − a01 a00 .
Continuing this procedure, we define the derivative of any order for x = 0 and we form the Maclaurin series :
y y 00
y0 + x + 0 x2 + ... (1.11)
1 2
From the previous calculations, it appears that there is only a regular solution satisfying the given initial condition.
But to affirm that this solution does exist, it must be shown that the series (1.11) has a radius of convergence
greater than zero. Note that all the operations performed on the series are lawful by virtue of the fundamental
properties of the entire series inside their convergence discs. If the series (1.11) is convergent, its sum is the solution
of equation (1.9) by virtue of the process used to form the coefficients. If we replace the series of the second member
of equation (1.9) by an increasing series, then the series (1.11) will also be replaced by an increasing series. If this
majorante series converges near zero, it will be the same a fortiori for the series (1.11). Suppose that the series of
the second member of equation (1.9) absolutely converges for |x| ≤ R and |y| ≤ R and let M be the maximum of
its sum under the conditions indicated. Going through the increasing series, we get the differential equation
dy M
= x y (1.12)
dx (1 − R )(1 − R)

which is with separate variables .


y M
(1 − )dy = x dx
R 1− R

16
By integrating and taking into account (1.10), we obtain :

y2 x
y− = M R ln(1 − ),
2R R
Therefore r
x
y =R−R 1 + 2M ln(1 − ). (1.13)
R
The radical must take the value 1 for x = 0 for condition (1.10) to be verified. This causes the existence and
uniqueness of a regular solution satisfying the condition (1.10). Consider the system
N n N
∂ui XX ∂uj X
= akij (t, x) + bij (t, x)uj + fi (t, x) (1.14)
∂t j=1
∂xk j=1
k=1

with the analytical coefficients akij (t, x) bij (t, x) fi (t, x).

ui (t, x)|t=t0 = ψi (x), i = 1, ..., N

This system can be written as


∂~u
= A~u + f~
∂t
 
u1
 . 
~u =  
 . 
uN
and A a differential operator such that A~u is a vector of n components.
N X
n N
X ∂uj X
akij (t, x) + bij (t, x)uj , i = 1, ..., N.
j=1 k=1
∂xk j=1

les conditions non homogènes peuvent être transformées en homogènes par

ui (t, x)|t=t0 = 0 i = 1, ..., N. (1.15)

The system (1.14) can be changed by

~
vi = ui − ψi ou ~v = ~u − ψ.
∂~n ~ + f~,
=⇒ = A~v + Aφ (1.16)
∂t
with the initial condition
v(x, t)|t=t0 = 0. (1.17)
If we can show the existence of the solution of (1.16) with the condition (1.17), this will lead to the solution of the
initial problem.

1.2.1 Demonstration of the uniqueness of the analytical solution.


Let us transport the point P (t0 , x0 ) in the neighborhood where we will find the solution (solve the problem)
(1.16) and (1.17) and prove the uniqueness of the solution in the class of analytical functions neighboring the point
P (0, 0), that is to say in any neighborhood of this point, one cannot find analytical solutions different from the

17
system (1.16), satisfying at point t = 0 the same initial condition. Suppose that at point P there exists an analytical
solution of the Cauchy problem with the vector function
 
u1
 . 
~u =  
 . 
uN

The coordinate functions ui (t, x) are analytical in the neighbourhood of zero and we can decompose them into
integer series for t, x1 , ..., xn .As we know, these coefficients are calculated from the derivatives of the different
functions ui (x, t) then in each corresponding point.
Denote by aiα1 ...αn where aiα is the coefficient for t, x1 , ..., xn . In the decomposition of the function ui (t, x) in the
vicinity of the origin of the coordinates :
 α0 +α1 +...+αn 
i i 1 ∂ ui 1
aα = aα1 ...αn = α α α
≡ Dα ui |t=0,x=0 . (1.18)
α0 !α1 !...αn ! ∂x ∂x ...∂x
0 1 n α!

Thus the solution of the problem (1.14) and (1.15) of the existence of the solution we have assumed can be written
as follows : X
ui (t, x) = aiα1 ...αn tα0 xα αn
1 ...x1 ,
0
(1.19)
α

where aiα1 ...αn is defined by the formula (1.18).


the uniqueness of the solution of the Cauchy problem will be demonstrated if we show that the system (1.14)
and the initial condition (1.15) in a unique way define the coefficients of the decomposition ui (t, x) dof the whole
series. We will define these coefficients such that they are the derivatives of ui (t, x) at point P (0, 0) successively.
The initial conditions uniquely define all tangential derivatives at the point P (0, 0) i.e. the derivative with respect
to x1 , x2 , ..., xn .
0
∂ α ui (t, x)
∂xα1 ...∂xαn

t=0,x=0

and all are equal due to the condition (1.15).


As we have assumed that the solution exists, substitute it in the system (1.14) and we get identities (or mathe-
matical expressions). Let us differentiate the α1 with respect to x1 , the α2 pwith respect to x2 and so on. In the left
part, we get
0
∂ α +1 ui
(1.20)
∂t∂xα1 ...∂xαn
and in the right part, only the derivatives with respect to x of u and the coefficients, that is to say the quantities
well defined at the point P (0, 0) (since we had already defined them) : are present. Thus, the derivative (1.18) at
point P (0, 0) is uniquely defined. By differentiating (1.14) once with respect to t, α1 with respect to x1 , α2 with
respect to x2 and so on, we uniquely define at point P (0, 0) the derivatives of the type
0
∂ α +2 ui
∂t ∂xα1 ...∂xαn
2

Since the derivative (1.20) is defined in a unique way, we continue this process and in a unique way, we define all
the derivatives of (1.18) which on their side define the decomposition (1.19) of our solution of the series integer,
which as we have seen is defined in a unique way (we can even use the induction method).
Thus two analytical solutions of the problem (1.14) and (1.15) with the same initial data are obligatorily equal.
In a certain neighbourhood of the origin of the coordinates this demonstrates the uniqueness of the solution of the
Cauchy problem in the space of analytical functions. To demonstrate the existence of the solution of the problem
(1.14) - (1.15), it suffices to show that the entire series (1.17) is defined by the coefficients (1.16) in a certain
neighbourhood of the origin of the coordinates.

18
These series will verify the initial zero conditions (1.15) and the system (1.14) since in the construction of these
series (in the calculation of their coefficients) we used the fact that the left part of the system (1.14) was equal to
its right part in a certain neighbourhood of the origin of the coordinates.
For the proof of the convergence of integer series, we can use the upper-bound series method

1.2.2 Upper bound of analytical functions and their constructions


Definition 3. s called the upper bound of the analytic function (or of the series) ψ(t, x) in a neighbourhood of
(t0 , x0 ) each analytic function Ψ(t, x) in all this neighbourhood and of which all the coefficients in the decomposition
of the Taylor series for the exponents of t − t0 , x1 − x01 , ..., xn − xn1 are positive and are not small in absolute value
to the values of the Taylor series decomposition of the considered function ψ(t, x) that is to say
0
C (t − t0 )α0 (x − x0 )α
P
ψ(t, x) =
P α 0
Ψ(t, x) = |Cα |(t − t0 )α0 (x − x0 )α
Cα ≤ |Cα |.

Let us translate the origin of the coordinates at the point P (t0 , x0 ) and construct for the analytical function
ψ(t, x) in this point a special type upper bound that we will use in the following. The function ψ(t, x) can be
decomposed into series as follows : X
ψ(x, t) = Cα0 α1 ...αn tα0 xα αn
1 ...xn
1
(1.21)
αi

and suppose it converges at the point (t = b0 , x = b) with b = (b1 , ..., bn ) where all |bk | > 0, k = 1, ..., n. Then, there
exists a constant M > 0 such that for all positive integers αi we have |Cα0 α1 ...αn bα 0 α1 αn
0 b1 ...bn | ≤ M , that is to say

M
Cα0 α1 ...αn ≤ . (1.22)
|b0 |α0 |b1 |α1 ...|bn |αn

Let’s consider the function


M
Ψ(t, x) = t x1 xn (1.23)
(1 − |b0 | )(1 − |b1 | )...(1 − |bn | )

where |t| < |b0 |, |xk | < |bk |


1
Let us decompose each x
1− |b k|
type multiplicative factor in integer series by the formula
k


X
−1
(1 − x) = , |x| < 1
k=1

that is to say we will write Ψ(t, x) in the form


" ∞  α0 X∞  α1 ∞  αn #
X t x1 X xn
Ψ(x, t) = M ... (1.24)
α =0
|b0 | α =0
|b1 | α =0
|bn |
0 1 n

X M
= tα0 xα αn
1 ...xn
1

α0 α1 ...αn
|b0 |α0 |b1 |α1 ...|bn |αn

It is clear that Ψ(t, x) is upper bound of ψ(t, x) due to (1.22) and (1.24).
We can construct the upper bound in different ways. For example for ψ(t, x) defined by the series (1.21), an
upper bound can be
M
Ψ1 (t, x) = t+x1 +...+xn ,
1− d

19
where α = min(|b0 |, ..., |bn |), |bk | =
6 0, k = 1, ..., n and the b = (b0 , ..., bn ) are points of convergence of the series
(1.21) for ψ(t, x). Indeed, for |t| + |x1 | + ... + |xn | < d this function breaks down into convergent series
M
Ψ1 (t, x) = t+x1 +...+xn ,
1−
P∞ d t+x1 +...+xn α

= M Pα=0 (1.25)
∞ 1
P∞d α!
= M α=0 dα α0 +α1 +...+αn =α α0 !α1 !...αn !tα0 xα1 αn ,
1 ...xn

but
α! (α0 +α1 +...+αn )!
α0 !α1 !...αn ! ≡ α0 !α1 !...αn ! ≥ 1;
1 1
dα ≥ |b0 |α0 |b1 |α1 ...|bn |αn .

This is why the coefficients of the series Ψ(t, x) are positive and increase the coefficients of the series (1.24) and as
we have shown the series (1.24) increases the series (1.21) which leads to Ψ1 (t, x) also majorizes (1.21), that is to
say the function ψ(t, x).In the same way for Ψ(t, x) the upper bound will be the function
∞  α
M X tγ + x1 + ... + xn
Ψ2 (t, x) = tγ+x1 +...+xn =M ,
1− d α0
d

where α is the same defined previously and the number γ > 1.


Indeed, if we decompose (tγ + x1 + ... + xn )α into an integer series of t, x1 , ..., xn then we get the series in (1.25)
only that the coefficients will be more numerous because of the multiply by γ α0 with γ > 1.

1.3 Demonstration of the existence of the analytical solution (inequa-


lity given coefficients and the upper bound system, construction
of the solution of the upper bound system)
After having learned how to construct the upper bound, we will turn to the proof of the convergence of the
series for the solution (1.14) and (1.15).
Let us gross up the coefficients of the system (1.14) using the function we have built Ψ2 (t, x) such that the
function
M
Ψ2 (t, x) = tγ+x1 +...+xn
1− d
for γ > 1 is upper bound for all the coefficients of the system except perhaps the free terms. The free terms fi will
be increased by the function
M1
Ψ2 (t, x) =
1 − tγ+x1 +...+x
d
n

with another constant M1 which does not depend on M . This can be done insofar as the upper bound of this type
exist for each coefficient and for the construction of the upper bound of all the system, it is necessary to take a
coefficient greater than the numbers M and M1 and the smallest number of all the values which correspond to the
different coefficients of the system.
By choosing the numbers M , M1 and α in this way, we obtain the upper bound system in the form
 
N Xn N
∂ui X ∂u j
X
= A(t, x)  + uj + m , (1.26)
∂t j=1
∂xk j=1 k=1

M1
where A(t, x) = Ψ2 (t, x), m = M . and the initial condition we take it in the form

ui (t, x)|t=0 = u0i (x), (1.27)

20
where u0i (x) is an upper bound of zero (for u|t=0 = 0),that is, such functions which decompose into a Taylor series
with positive coefficients. The system (1.26) is simpler than the system (1.14) and its solution, we can build it easily
and directly. As we have already said above, we are going to find the solution of (1.14) and (1.15) in the form of an
integer series and the coefficients of this series are taken as those which we used in the proof of the uniqueness of
the solution. This series is presented in the following form :
X
ui (t, x) = aiα0 α1 ...αn tα0 xα αn
1 ...xn
1
(∗)

Suppose that the solution of the problem (1.26) - (1.27) in the form of the following convergent series :
X
ui (t, x) = Cαi 0 α1 ...αn tα0 xα αn
1 ...xn
1
(1.28)

(In the following we will build this solution). Let us show in this case that we will have an inequality between the
coefficients of the series (*) and (1.28)
|aiα0 α1 ...αn | ≤ Cαi 0 α1 ...αn (1.29)
Since we have assumed that (2.28) converges then the inequalities (1.29) prove the convergence of the series (*)
at the neighbourhood of (0, 0)
Let us prove (1.29) with the condition that all the coefficients Cαi 0 α1 ...αn are ≥ 0.
0
For the derivatives with respect to xi with i = 1, ..., n or for Dα ui , for t = x = 0, the inequality (1.29) is verified,
since from the condition ui |t=0 = ui0 (x) and ui0 (x) is an upper bound of zero. For zero derivatives which admit a
derivative with respect to t, that is to say α0 6= 0 the relations (1.19) we will prove it by the method of induction
(recursion) in α0
let us suppose that for all α starting from α0 < k. The inequality (1.29) is verified. Let us prove (1.29) for
0
α0 = k + 1. Let us denote by Dα ui the derivative corresponding to the index (or multi-index) α0 = (0, α1 , ..., αn )

and suppose that D0 = ∂t , Dk = ∂x∂ k .
By differentiating (deriving) the system (1.14) we get
 
N X n N
0 0 X X
Dα D0k D0 ui (t, x) = Dα D0k  akij Dk uj + bij uj + fi  (1.30)
j=1 k=1 j=1

Let us take the corresponding derivative and for the upper bound system
 
N X
n N
0 0 X X
Dα D0k D0 ui (t, x) = Dα D0k A(t, x) Dk uj + uj + m (1.31)
j=1 k=1 j=1

In the left part of (1.30) and (1.31) we find the derivatives of ui (t, x) only of type Dα with α0 < k and for them,
(1.29) is verified with respect to the induction hypothesis. As the left part of equality (1.31) contains only the
positive terms which in modulus (or in absolute value) are greater than the term of those in (1.30) and the left
parts of (1.30) and (1.31) express themselves from the right side ; then we have.
0 0
|Dα D0k+1 ui (0)| ≤ Dα D0k+1 ui (0).

Thus the inequality is demonstrated.


It remains to show that the analytical functions ui (t, x) are solutions of (1.26) - (1.27) and that they are defined
in the neighbourhood of the points t = 0, x = 0.
Without fixing the initial data, we will look for the solutions of the system in the form of a function of independent
variables
u1 (t, x) ≡ u2 (t, x) ≡ uN (t, x) = u(x, t) = u(tγ + x1 + ... + xn ) = u(y)
where y = tγ + x1 + ... + xn , |y| < d. By substituting this supposed solution in (1.26) we obtain that u(y) is to
verify the equation
du du
γ = A(y)(N n + N u + m) (1.32)
dy dy

21
M
where A(y) = 1− y
. The ordinary differential equation (1.32) with separable variables can be written in the form
d

γdu − A(y)N ndu = A(y)(N u + m)dy

or
Nu
(γ − A(y)N n)du = m( + 1)A(y)dy
m
then
du mA(y)dy
Nu
= ≡ B(y)dy (1.33)
m +1 γ − N nA(y)
mA(y)
where B(y) = γ−N nA(y) . Let us choose the positive γ large enough so that γ − N nA(y) > 0 in the neighbourhood
of y = 0.
Then B(y) in this neighbourhood will be analytical.
By integrating (1.33), we will find a particular solution of (1.32).

N y
  Z
Nu
ln +1 = B(ζ) dζ.
m m 0

Hence  Z y 
N N
u = exp B(ζ) dζ − 1,
m m 0

then   Z y  
m N
u= exp B(ζ) dζ − 1 . (1.34)
N m 0
Let us show that this particular solution defines the upper bound for the problem (1.14) and (1.15).
As the functions ui (y) = ui (t, x) verifying the system (1.26) increase the initial system, and like the equality
(1.29), we had already proved, then to show the fact that (1.34) is the solution of (1.14) - (1.15), we have to prove
that u(y)|t=0 majors zero.
Let u(y) for t = 0 decompose in series x1 , x2 , ..., xn awith positive coefficients. We prove this fact :
M
the function A(y) = 1− y is a function with positive coefficients in the decomposition with respect to y
d

M y y2
y =1+ + + ...
1− d d d2

which leads to :
 −1 "  2 #
A(y) Nn m Nn Nn
B(y) = m 1− A(y) = A(y) 1 + A(y) + A(y) + ...
γ γ γ γ γ

also has positive coefficients in the y-decomposition, a property that the function must also verify

N y
Z
(y) = B(ζ) ζ
m 0
2
since e(y) − 1 = (y) +  2!(y) + ...
So it is clear that the function u(y) also admits exponent decompositions of y. This is why the coefficients of
the decomposition u(tγ + x1 + ... + xn ) with respect to the exponents (integer series) t, x1 , ..., xn are also positive,
i.e. u(0, x)is a higher than zero. So ui = u(tγ + x1 + ... + xn ) is a solution of our problem, i.e. is an upper bound of
the solution of problem (1.14) - (1.15).
The analysis of the solution ui = u(tγ + x1 + ... + xn ) fact that, as we had shown above, it breaks down into
integer series of y which also leads to integer series of t, x, which leads to the convergence of the whole series (1.17)
and completes the proof of Kovalevskïa’s theorem.

22
1.4 The domain of existence of the analytical solution
During the increase of the free constant terms M1 , we have however those which do not depend on M , so that
the domain where the series converges does not depend on the initial data and the free terms of the equations.
Indeed, the domain of existence of the solution ui (t, x) which overcomes the system is defined by the maximum
value M in absolute value. The coefficients akij (t, x), bij (t, x) and the domain of analysis of these coefficients which
is defined by any number d (which we have taken for R) and does not depend on the maximum M1 of the function
|fi (t, x)|. Thus, it follows that the domain of existence of the solution of ui(t, x) of the Cauchy problem is defined
by M and d[R] and does not depend on the right side of our system.

1.5 Example of a heat conductivity equation where there is no analy-


tical solution to the Cauchy problem
For systems not having the formula of (1.1), Kovalevskaïa’s theorem is not true. The following example speaks
∂2u
of this fact, whatever the system is of Kovalevskaïa type. Consider the heat propagation equation ∂u ∂t = ∂x2 , with
1
the initial data u(0, x) = 1−x , |x| < 1
The analytical solution to this problem, if it exists in the vicinity of the origin of the coordinates is presented
in the form of a series

X (2n)! tn
u(t, x) = .
n=0
n! (1 − x)2n+1
This series diverges at each x for t 6= 0.We note that the solution of the Cauchy problem for the propagation
11
equation in the class of non-analytical functions for example in the class Cxt (Ω ∗ [0, T ]) exists and is expressed by
a formula for the t > 0.

1.6 Cauchy problem with initial data on arbitrary surface surfaces.


Possibility of transforming it into a Cauchy problem with initial
data on a hyperplane
let us consider the following linear equation of order n :
X
aα (x)Dα u = f (x), x = x0 , x1 , ...xn (1.35)
|α|≤m

Suppose that in the neighborhood P of the points of Ω there exists a smooth surface surface of dimension n, S of
class C m and its equation is : F (x0 , x1 , ..., xn ) = 0, let ~n be the normal on S and suppose that S does not admit
regular points, ie |∇F | =
6 0 and suppose that on S is given the condition
k
∂ u
∂~nk = φk , k = 0, 1, ..., m − 1. (1.36)

S

23
Figure 1.1 –

Instead of the normal ~n in condition (1.36) we can take any direction ~v not perpendicular to the surface S.
Consider the general Cauchy problem : Find u(x) satisfying the conditions (1.35) and (1.36) in a certain neigh-
bourhood of Ω of the point P. There appears a question ; For which superficial surface equations S and initial data
φk : k = 0, 1, ..., m − 1 this problem admits a solution in the neighbourhood of the point P ? Let us transform the
problem (1.25) and (1.36) to the Cauchy problem which was considered in the next point. Let’s make a change in
variables such that the surface F = 0 transforms into coordinates of a hyperplane. Such a change can be made in
the following form

y0 = F (x0 , x1 , ..., xn )
yj = xj , j = 1, ..., n

which is non-singular since the Jacobian


∂F ∂F ∂F


∂x0 ∂x1 ... ∂xn


1
6= 0
J =
1 ...

... 1

∂F
For this, without restricting ourselves to generality, we can assume ∂x 0
6= 0. In the new variables y is given the
form y0 = 0. After the change of variables, equation (1.35) becomes :
X
bα (y)Dα ũ = f˜(y). (1.35)0
|α|≤m

So that this equation can be written in the form


X
D0m ũ = b̃α (y)Dα ũ(y) + f1 (y)
|α|≤m,α0 ≤m−1

It is necessary that the coefficients bα (y),corresponding to α = (m, 0, ..., 0) are not zero in the vicinity of the point
P . If we calculate the coefficients bα (y) ∀α = α0 , ..., αn such that |α| = m that is to say for the upper derivative we
will see that it is equal to :
 α 0  α 1  αn
∂F ∂F ∂F
P
bα (y) = a α ...
P|α|=m ∂x0
α
∂x1 ∂xn (1.37)
= α=m a α (gradF )

Let us show this in an example of equations of order 2 with 2 independent variables. In this case (1.35) ’becomes :
X
aα (x1 , x2 )Dα u = f (x1 , x2 )
|α|≤2

24
or even more exactly by posing x1 = x, x2 = y

a20 uxx + 2a11 uxy + a02 uyy + a10 ux + a01 ay + a00 u = f (x, y) (1.35)00

the initial conditions we can define them on the curve L



∂u
u|L = ψ0 , = ψ1 (1.36)0
∂~n L

Suppose that the equation of the curve L is defined F (x, y) = 0 and on it there is no singular point ie |gradF | =
6 0
on L. If we make a change
ζ = F (x, y), η = φ(x, y)
where φ(x, y) is an arbitrary derivable function for which on the curve the Jacobian of the transformation is

∂F ∂F
∂x ∂y
J = ∂φ ∂F 6= 0
∂x ∂y

We can assume that φ(x, y) = y i.e. ζ = y. So the Jacobian becomes :


∂F ∂F

∂x ∂y 6= 0
0 1

Then this function "straightens" the curve L, transforming it into an end of line of coordinate ζ = 0 one can show
that the initial conditions in this case are written in the form :

∂u
u|ζ=0 = φ0 (0, η), (1.36)00
∂ζ ζ=0

and for the transformation of equation (1.35) we will have

ux = uζ ζx + uη ηx
uy = uζ ζy + uη η y
uxx = uζζ (ζx )2 + 2uζη ζx ηx + uηη (ηx )2 + uζ ζxx + uη ηxx
uxy = uζζ ζx ζy + uζη (ζx ηy + ζy ηx ) + uηη ηx ηy + uζ ζxy + uη ηxy
uyy = uζζ (ζy )2 + 2uζη ζy ηy + uηη (ηy )2 + uζ ζyy + uη ηyy

If we substitute these derivatives in (1.35) ”we will get a new equation

b20 uηη + 2b11 uζη + b02 uηη = f˜

where f˜ ccontains linear members containing first derivatives of u in ζ and η ; u(ζ, η) itself and free members.
Here we introduced notations

b20 = a20 ζx2 + 2a11 ζx ζy + a02 ζy2


b11 = a20 ζx ηx + a11 (ζx ηy + ζy ηx ) + a02 ζy ηy
b02 = a20 ηx2 + 2a11 ηx ηy + a02 ηy2

So that our new equation is of Kovalevskaïa for initial data (1.36) ”it is necessary that

b20 ≡ a20 ζx2 + 2a11 ζx ζy + a02 ζy2 6= 0,

and this corresponds to expression (1.37) for the general equation of order m with n independent variables
Let us show that if on the surface S is defined the function u(x) and its derivatives by orientation with respect
to the normal up to the order m − 1 inclusive (or the derivative with respect to any tangent of orientation). Then
is defined all these derivatives (of u(x)) up to the order m − 1with respect to each xi

25
Figure 1.2 –

For m = 2 and n = 2 that is to say for equation (2.35) ”this is easily demonstrated.

∂u ∂u
n L = ∂x cos(~
∂~ n, x) + ∂u n, y) = φ,
∂y cos(~
(1.38)
∂u
∂~
τ L = ∂u
∂x τ
cos(~ , x) + ∂u
∂y τ
cos(~ , y) = ∂φ
∂~
τ
0

Suppose that |~n| = 1, |~τ | = 1 and set the coordinates of these vectors by n1 , n2 , τ1 , τ2 correspondingly. The system
(1.38) admits a unique solution ∂u ∂u
∂x , ∂y since its determinant

n1 n2 π
τ1 τ2 = |[~n, ~τ ]| = |~n||τ | sin 2 = 1 6= 0

(Note that if we take in place ~n another tangent then the determinant will always be different from 0.)
Let us show that by this approach, we can prove this fact for all m and n. Let us introduce the local curvilinear
coordinates ζ0 , ζ1 , ..., ζn in the neighbourhood of the surface S, so that the equation of the surface F (x) = 0 becomes
ζ0 = 0 and the normal in S coincides with the coordinate lines ζ0 = c0 , ..., cn = ζn . by assumption the surface S is
smooth ; this is why the parameters ζ1 , .., ζn for the equations
x1 = x1 (ζ1 , .., ζn )
.
. (1.39)
.
xn = xn (ζ1 , .., ζn )
define the surface S and the rank of the matrix

∂xi
∂ζk , i = 0, 1, ..., n, k = 1, ..., n

since to be equal to n at each point of S (we say that the surface S is regular) and that the right matrix of (1.39)
is made up of diferentiable easy functions.
Suppose the equations
x0 = X0 (ζ1 , .., ζn )
x1 = X1 (ζ1 , .., ζn )
.
(1.40)
.
.
xn = Xn (ζ1 , .., ζn )
coincide with the equations (1.39) for ζ = 0 and suppose also that these equations define the normal in S at the
point (ζ1 , ζ2 , ..., ζn ) under the action of ζ0 that is to say if we let us vary ζ0 along the normal and (ζ1 , ζ2 , ..., ζn ) the
parameters of the points of intersection of the normal with the surface S.

26
Suppose now that ζ0 is such that at least one of the derivatives ∂X
∂ζ0 6= 0. i = 0, 1, ..., n.
i

Then in the points of S, that is to say for ζ0 the determinant



∂X0 ∂X1 ... ∂Xn
∂ζ0 ∂ζ0 ∂ζ0
∂X0 ∂X1
∂ζ1 ∂ζ1 ... ∂X n
∂ζ1
∂(X)
.
≡ 6= 0 (1.41)

∂(ζ) .
.


∂X0 ∂X1 ∂X
∂ζ ∂ζ
n
... ∂ζ
n
n
n


∂xi
since these last n lines are linearly independent because the rank of the matrix ∂ζ k
, i = 1, ...n; k = 1, ..., n is
equal to n according to our assumptions and the first line cannot be a linear combination of the other lines because
the last n lines represent vectors which belong to the plane tangent to the surface S and the first line represents
the vector perpendicular to S.
By continuity, (1.41) cannot be equal to zero and even in any neighbourhood of S. this is why in the neighbou-
rhood of (ζo , ζ1 , .., ζn )we can take other coordinates (x0 , x1 , ..., xn ).
Thus
∂ j u ∂ j u

≡ ≡ φj (ζ1 , ..., ζn ), j = 0, 1, ..., n − 1
∂ζ j ζ=0 ∂~nj ζ=0
and these equalities, we can differentiate with respect to ζ1 , ..., ζn and we get all the coordinates of ζ up to the order
m − 1 inclusive. by returning to the variables x0 , x1 , ..., xn in agreement with equality (1.40) we obtain on S all the
derivatives of u(x) up to the order m − 1 inclusive with respect to the variables x0 , x1 , ..., xn .

1.7 Characteristics and characteristic directions


1.7.1 Definition of the characteristic surface (the characteristics) for a PDE
Consider the Cauchy problem for the following equation :
X
aα (x)Dα u = f (x). (1.42)
|α|≤m

With the initial data on a surface area S given by the equation F (x) = 0 with x ∈ Rn

∂ k u

= φk , k = 0, 1, ..., (m − 1) (1.43)
∂~n S
Let us reduce the problem (1.42) - (1.43) to the problem that allowed us to establish the Kovalevskaïa problem.
There, the data was defined on an area x0 = cte. For this x variables, we can transform into new variables

yk = F (xk ) k = 0, 1, ..., n (1.44)



Of course, assuming that the transformation in (1.44) is regular, that is to say ∂F ∂xi 6= 0. In addition we will
k
assume that F0 = F that is to say in the new coordinates, y0 = 0 in the neighbourhood of the point P which defines
the surface S. We had shown that for initial data on S, we can define all the derivatives of the function u(x) on the
surface S up to the order (m − 1) included with respect to the variable x the same also for the variable y. These
derivatives with respect to ydefine the hyperplane y0 = 0. We want to use Kovalevskaïa’s theorem with respect to
the new equations. This is why we will be interested in the coefficients of the higher order derivative with respect
to y0 . This coefficient for Dym0 u is equal
X X
aα (x)(D0 F )α0 (D1 F )α1 ...(Dn F )αn = aα (gradF )α
|α|=m |α|=m

27

où Dj = .
∂xj
Suppose that the surface S is defined by the equation F (x) = 0 such that in the neighbourhoods of the point P
X
aα (x)(D0 F )α0 ...(Dn F )αn 6= 0.
|α|=m

So if we divide the equation (1.42) by this coefficient considered in the new variables we get

∂mu X
= bα (y)Dα u + f (y). (1.42)0
∂y0m
|α|≤m, α0 ≤m−1

To this eqution, we can apply Kovalevskaïa’s theorem in the case where the function F (x) is defined on the surface
S and the coefficients of the equation as well as the initial data of the analytical problem. The problem is the
condition on S that X
aα (x)(D0 F )α0 ...(Dn F )αn 6= 0. (1.45)
|α|=m

Definition 4. :
The surface S : F (x) = 0 for which the equation is verified

X X
aα (x)(D0 F )α0 ...(Dn F )αn ≡ aα (gradF ) = 0 (1.46)
|α|=m |α|=m

is called quite simply characteristic surface or quite simply characteristic of the equation (1.42) For the equation
which we considered above, that is to say in the case where (m = 2, n = 2), the characteristic equation is
 2    2
∂F ∂F ∂F ∂F
a20 + 2a11 + a02 = 0.
∂x ∂x ∂y ∂x

Remark 1. :
The characteristic equation is defined from the higher order derivatives in an equation
Exemple 1. a) Consider the heat propagation equation in Rn

∂u ∂2u ∂2u ∂2u


= + + , x ∈ Rn . (1.47)
∂x0 ∂x21 ∂x22 ∂x23

The equation of characteristics


 2  2  2
∂F ∂F ∂F
+ + = 0. (1.48)
∂x1 ∂x2 ∂x3
The function F = x0 − c = 0 verifies the equation (1.48) that is why x0 = cte is characteristic for the heat equation
b) Wave equation
∂2u
= a2 ∆u, x ∈ R3 .
∂x20
its equation of characteristic est
 2 " 2  2  2 #
∂F 2 ∂F ∂F ∂F
−a + + =0
∂x0 ∂x1 ∂x2 ∂x3

P  21
3
We can verify that the cone at ± Ω where Ω = k=1 x2k is the characteristic area of the wave equation

28
remarque : on a characteristic surface, it is recommended not to define the initial data in an arbitrary way.

Particularity of the Cauchy problem with data on the characteristics.


m
Suppose that the surface S is a characteristic, Then the coefficients are zero ∂∂ymu = 0 and the equation (1.42)
0
transforms on S into a relation where the derivatives of u with respect to the variables y0 , y1 , ...yn are of the form
Dα u, with α0 ≤ m − 1.
As on S are defined the data of Cauchy,

∂ k u

= φk (y 0 ), k = 0, 1, ..., (m − 1, )
∂y0k y=0

So the equation on the characteristic surface cannot be set arbitrarily. they are related to the corresponding relations
due to the equations.

A. Consider the Cauchy problem for the heat equation (1.47) with initial data

u| x0 =0 = φ0 (x)
∂u (1.49)
∂x0 = φ1 (x)
x0 =0

If the solution of the problem (1.47) - (1.49) exists, then the initial data must verify the relation

φ1 = ∆φ0 pour x0 = 0 (1.50)

B. It may happen that the solution of the Cauchy problem with initial data (1.43) on the characteristic exists,
but not in a unique way. Consider the vibration equation of the string

∂2u ∂2u
2 = a2 2 (1.51)
∂x0 ∂x1

The relation (1.46) for her is written


 2  2
∂F ∂F
− a2 =0
∂x0 ∂x1
Then the line x1 − ax0 = cte and x1 + ax0 = cte are characteristics of equation (1.51). By changing variables
x1 − ax0 = y0 and x1 + ax0 = y1 , we transform the equation into

∂2u
=0 (1.52)
∂y0 ∂y1

Let us define for equation (1.52) the initial data on the characteristic.

u| y0 =0 = φ0 (y1 )
∂u (1.53)
∂y0 = φ1 (y1 )
y0 =0

The solution to problem (1.52) - (1.53) exists only for certain conditions φ0 and φ1 and it is not unique. Let’s show
this :
Indeed, any solution of (1.52) takes the form

u(y0 , y1 ) = Φ1 (y0 ) + Φ2 (y1 ) (1.54)

29
Where the functions Φ1 and Φ2 are defined from (1.53). We will have φ0 (y1 ) = Φ1 (y0 ) + Φ2 (y1 )

=⇒ Φ2 (y1 ) = φ0 (y1 ) − Φ1 (0),

The solution (2.54) takes the form


u(y0 , y1 ) = Φ1 (y0 ) + φ0 (y1 ) − Φ1 (0)
Now, let’s use the second initial condition in (1.43) for the definition of φ1 (y0 ). We have

∂u(y0 , y1 ) ∂Φ1 (y0 )
= = φ1 (y1 ) ≡ cte (1.55)
∂y0
y=0 ∂y0 y=0

i.e. the initial function φ1 (y1 ) must be constant.


Let us now show that under this condition, the problem (1.42) - (1.43) admits an infinity of solutions. Indeed
the function Φ1 (y0 ) is an arbitrary function of class C 2 (R), satisfying only the condition (1.55). Such a function
can be represented in the form
Φ1 (y0 ) = f (y0 ) − f (0) + y0 [φ1 (0) − f 0 (0)] (1.56)
where f (y0 ) is any function of class C 2 (R). It is easy to see that (1.56) satisfies the condition (1.55) namely :

∂Φ1 (y0 )
= f 0 (y0 )|y0 =0 + φ1 (0) − f 0 (0) = φ(0).
∂y − 0 y0 =0

The solution of the problem (1.52) - (1.53) under the condition that φ0 (y1 ) ∈ C 2 (R) is written in the form :

u(y0 , y1 ) = φ0 (y1 ) + f (y0 ) − f (0) + y0 [φ1 (0) − f 0 (0)],

hence the demonstration.

1.7.2 Direction of characteristic : Definition of the characteristic using the direction


of characteristic.
Consider equation (1.42), its left part can be represented by a polynomial with several indeterminate ζ =
ζ0 , ζ1 , ..., ζn in the form X
aα (x)ζ α , (1.57)
|α|=m

where ζ = ζ0α0 , ζ1α1 , ..., ζnαn i.e. introduce the relations

∂ ∂α
−→ ζk , −→ ζ0α0 ζ1α1 ...ζnαn .
∂xk ∂xα α1 αn
0 ∂x1 ...∂xn
0

The polynomial in (1.57) is called the characteristic polynomial for equation (1.42) or the symbolic main part of
equation (1.42). The main solid part of equation (1.42) is called the polynomial of ζ which takes the form
X X
aα (x)ζ α ≡ aα0 α1 ...αn ζ0α0 ζ1α1 ...ζnαn .
|α|=m |α|≤m

Remark 2. :
Sometimes in the case of using the Fourier transformation, the main and full symbolic part are called polynomials
X X
aα (x)(iζ)α et aα (x)(iζ)α
|α|=m |α|≤m

30
Definition 5. :
the vector ζ = (ζ0 , ζ1 , ..., ζn ), |ζ| 6= 0. The orientation of ζ is called characteristic for equation (1.42)
Consider P
at point x if |α|=m aα (x)ζ α = 0 or in a simple way
X
aα0 α1 ...αn ζ0α0 ζ1α1 ...ζnαn = 0.
α0 +α1 +...+αn =m

the surface F (x) = 0 is characteristic if at each of its points the direction of the normal is a characteristic direction.
Indeed, gradF is oriented along the normal to the surface F = 0, and the equation of the characteristics has the
form  α0  αn
X ∂F ∂F X
aα (x) ... ≡ aα (x)(gradF )α = 0
∂x0 ∂xn
|α|=m |α|=m

Exemple 2. A)Consider the Laplace equation


2
X ∂2u
= 0,
∂x2k
k=0

the expression ζ02 + ζ12 + ζ22 = 0 is the character expression for the Laplace equation. We obtain from this equation
ζk = 0 ∀ k = 0, 1, 2 that is to say the Laplace equation does not admit a real characteristic direction or does not
admit a characteristic. This is why the Cauchy problem for this problem can be considered with initial data on any
surface.
B) Consider the heat equation
3
∂u X ∂2u
=
∂x0 ∂x2k
k=0

the vector ζ = (ζ0 , ζ1 , ζ2 , ζ3 ) satisfying the equation ζ12


+ ζ22 + ζ32 = 0 defines the characteristic direction. Thus,
ζ = (1, 0, 0, 0) is a characteristic direction for the heat equation so the normal is oriented parallel to the axis (OX0 )
which defines the plane x0 = cte.

31
Chapitre 2

FONCTIONS SÉCIALES

Nous allons introduire ce chapitre par les exemples


Exemple 3. : Résoudre l’équation suivante à partir des séries entières

y 00 + xy = 0.

Écrivons la série entière



X ∞
X ∞
X
y= Ck xk , =⇒ y 0 = kCk xk−1 , y 00 = k(k − 1)Ck xk−2
k=0 k=1 k=2


X ∞
X
=⇒ Ck xk−2 + Ck xk+1 = 0.
k=2 k=0

Posons p = k − 2 ⇒ k = p + 2

X ∞
X
(p + 2)(p + 1)Cp+2 xp + Ck xk+1 = 0
p=0 k=0


X
=⇒ ((k + 2)(k + 1)Ck+2 + Ck x)xk = 0
k=0

D’óu le système


 2 ∗ 1 ∗ C2 = 0
3 ∗ 2 ∗ C3 + C0 = 0




4 ∗ 3 ∗ C4 + C1 = 0



.
.




.




k(k − 1)Ck + Ck−3 = 0 ∀ k 6= 1

Ck
=⇒ Ck+3 = .
(k + 2)(k + 3)
En posant C0 = 1 et C1 = 0, seront donc non nuls tous les coefficients de la forme
C3m
C3(m+1) = − ∀m ∈ N,
(3m + 2)(3m + 3)

32
d’où
(−1)m
C3m = ∀m ∈ N∗ .
2 ∗ 3 ∗ 5 ∗ 6 ∗ ... ∗ (3m − 1) ∗ 3m
D’où une première solution est de la forme :

X (−1)m
y1 (x) = 1 + x3m .
m=1
2 ∗ 3 ∗ 5 ∗ 6 ∗ ... ∗ (3m − 1) ∗ 3m

La deuxième solution sera liéairement inédependante de la première. On peut l’obtenir en posant C0 = 0 et C1 = 1.


Ainsi seront différents de zéro tous les coefficients de la forme :
C3m+1 (−1)m
C3m+4 = − =⇒ C3m+1 = ∀m ∈ N∗ .
(3m + 3)(3m + 4) 3 ∗ 4 ∗ 6 ∗ 7 ∗ ... ∗ 3m ∗ (3m + 1)
d’où la deuxième solution de la forme :

X (−1)m
y2 (x) = x + x3m+1 .
m=1
3 ∗ 4 ∗ 6 ∗ 7 ∗ ... ∗ 3m ∗ (3m + 1)

les séries y1 (x) et y2 (x) convergent ∀x et sont des fonctions analytiques ; ainsi toutes les fonctions solutions de
notre équation sont analytiques et peuvent donc s’écrire :
y(x) = C1 y1 (x) + C2 y2 (x), C1 , C2 ∈ R.
Exemple 4. Résoudre cette équation
y 00 + xy 0 + y = 0.
Écrivons la série entière

X
y= C k xk . = 0
k=0
L’équation devient :

X ∞
X ∞
X
Ck k(k − 1)xk−2 + x Ck kxk−1 + Ck xk = 0.
k=2 k=1 k=0
En égalant à 0 tous les coefficients de même degré que x, on obtient les équations pour les coefficients Ck , soit :
(k + 1)(k + 2)Ck+2 + (k + 1)Ck = 0 ∀k ∈ N.
en posant C0 = 1 et C1 = 0, on va trouver
(−1)m
C2m = , C2m=1 = 0, ∀m ∈ N.
2 ∗ 4 ∗ 6 ∗ 2m
D’où
x2 x4 x6 (−1)m x2m
y1 (x) = 1− 2 + 2∗4 − 2∗4∗6 + ... + 2∗4∗6∗...∗(2m) + ...
2
− x2
= e .
La deuxième solution est linéairement indépendante de la première ; on peut la trouver en posant C0 = 0 et C1 = 1.
Ce qui implique
(−1)m (−1)m
C2m = 0, C2m+1 = = ∀m ∈ N
1 ∗ 3 ∗ 5 ∗ ... ∗ (2m + 1) (2m + 1)!!

X (−1)m
=⇒ y2 (x) = x2m+1 .
m=0
(2m + 1)!!
D’où
y(x) = C1 y1 (x) + C2 y2 (x) ∀C1 , C2 ∈ R,
y1 et y2 calculés en haut.

33
Remark 3. Considérons l’équation : x2 y 00 +xp(x)y 0 +q(x)y = 0. La méthode de Frobenius (théorie de l’intégrabililté)
consiste à chercher au voisinage d’un point singulier-régulier une solution de cette équation de la forme :

X
µ
y(x) = x C k xk ,
k=0

où µ est solution de l’équation caractéristique

µ(µ + 1) + µp(0) + q(0) = 0.

2.1 Γ, β hypergéometriques, de Bessel, polynôme de Legendre, de La-


guerre et de Tchebytchev
Fonctions hypergéometriques. Elle se présente sous la forme :

x(x − 1)y 00 + [−γ + (α + β + 1)x]y 0 + αβy = 0

Les points x = 0 et x = 1 sont les points singuliers de l’équation au voisinage de x = 0, l’équation hypergéométrique
peut s’écrire sous la forme :
P∞ P∞
00 ( k=0 xk ) 0 ( k=0 xk+1 )
y + [γ − (α + β + 1)x] y − αβ y = 0.
x x2
D’après Frobenius, on va avoir
λ(λ − 1) + γλ = 0
=⇒ λ = 0 ou λ = 1 − γ.
Alors on peut donc trouver deux solutions indépendantes en posant

X ∞
X
y= Ck xk , ou y = x1−γ Ck xk .
k=0 k=0

Alors on peut trouver deux solutions indépendantes de l’équation hypergéométrique sous la forme de séries entières
qui convergent pour |x| < 1.
Nous allons donc chercher cette solution sous la forme

X
y1 (x) = C k xk .
k=0

En substituant notre équation, on va avoir :



X ∞
X
x(x − 1) k(k − 1)Ck xk−2 + [−γ + (α + β + 1)x] kCk xk−1 + αβCk = 0.
k=2 k=1

En égalant à 0 tous les coefficients de même dégré que x on obtient un systs̀eme d’équations pour les Ck

k(k − 1)Ck − (k + 1)kCk+1 − γ(k + 1)Ck+1 + (α + β + 1)kCk + αβCk = 0

k(k − 1) + k(α + β + 1) + αβ
Ck+1 = Ck
(k + 1)(k + γ)
(α + k)(β + k)
= ∀k ∈ N.
(k + 1)(k + γ)

34
αβ α(α+1)β(β+1)
En posant C0 = 1, C1 = γ et C2 = 2!γ(γ+1), on a

α ∗ (α + 1) ∗ ... ∗ (α + k − 1) ∗ β ∗ (β + 1) ∗ ... ∗ (β + k − 1)
Ck =
k! ∗ γ ∗ (γ + 1) ∗ ... ∗ (γ + k − 1)
La solution recherchée vas écrire

X α ∗ (α + 1) ∗ ... ∗ (α + k − 1) ∗ β ∗ (β + 1) ∗ ... ∗ (β + k − 1)
y1 (x) = 1 + xk
k! ∗ γ ∗ (γ + 1) ∗ ... ∗ (γ + k − 1)
k=1

Cette série est appelée série hypergéométrique. Elle converge pour |x| < 1 et sa somme est appelée fonction
hypergéométrique

X α ∗ (α + 1) ∗ ... ∗ (α + k − 1) ∗ β ∗ (β + 1) ∗ ... ∗ (β + k − 1)
F (α, β, γ, x) = 1 + xk
k! ∗ γ ∗ (γ + 1) ∗ ... ∗ (γ + k − 1)
k=1

La seconde solution peut être recherchée sous cette forme mais nous nous allons nous en prendre autrement. Dans
l’équation hypergéométrique, on peut opérer le changement de variables suivant :

y = x1−γ z,
=⇒ y 0 = x1−γ z 0 + (1 − γ)x−γ ,
y 00 = x1−γ z 00 + 2(1 − γ)x−γ z 0 − γ(1 − γ)x( − γ − 1)z

En substituant y et ses dérivées, l’équation hypergéométrique devient

x(x + 1)z 00 + {−(2 − γ) + [1 + (α + 1 − γ) + β + 1 − γ)]x}z 0 + (α + 1 − γ)(β + 1 − γ)z = 0,

qui nous donnes une équation hypergéométrique de paramètre (α + 1 − γ), (β + 1 − γ) et (2 − γ) qui admet donc
pour solution particulière
z = F (α + 1 − γ, β + 1 − γ, 2 − γ, x),
soit la deuxième solution admet pour équation

y2 (x) = x−1−γ F (α + 1 − γ, β + 1 − γ, 2 − γ, x),

et la solution générale de l’équation hypergéométrique va s’écrire

y(x) = C1 F (α, β, γ, x) + C2 F (α + 1 − γ, β + 1 − γ, 2 − γ, x),

Polynôme de Legendre Les polyômes de Legendre sont des fonctions notées Pn (x) et définies par

1 dn (x2 − 1)n
Pn (x) = .
2n n! dxn
Chacune de ces fonctions est solution de l’équation :

(1 − x2 )y 00 − 2xy 0 + n(n + 1)y = 0,

appelée équation de Legendre. Il est à noter que les polynômes de Legendre peuvent être obtenues à partir des
fonctions hypergéométriques par un bon changement de variable.
Pour cela, montrons que l’équation hypergéométrique peut être obtenue à partir de l’équation de Legendre. Pour
le faire, posons le changement de variable suivant :
Posons
−x + 1
x = 1 − 2t =⇒ t =
2
dy dy dt 1 dy
= =−
dx dt dx 2 dt

35
d2 y 1 d2 y
   
d dy d dy dt
= = =
dx2 dx dx dt dx dx 4 dt2
D’où (1 − x2 )y 00 − 2xy 0 + n(n + 1)y = 0 devient :

d2 y dy
t(t − 1) + (−1 + 2t) − n(n + 1)y = 0
dt2 dt
Nous obtenons une équation hypergéométrique de paramètre

α = n + 1, β = −n, γ = 1

Une des solutions de l’équation hypergéométrique va être :

y1 = F (n + 1, −n, 1, t).

Soit une des solutions de l’équation de Legendre :


1−x
y1 (x) = F (n + 1, −n, 1, )
2
Montrons que y1 (x) = Pn (x).
En réalité F (n + 1, −n, 1, 1−x
2 ) représente un polynôme de dégré n en t, avec comme coefficient de terme de
dégré n :
(n + 1)(n + 2)...(2n)(−n)(−n + 1)...(−1) (−1)n (2n!)
=
n! ∗ 2 ∗ 3 ∗ ... ∗ n n2
or on montre que

dk h γ+k−1 i
k
x (x − 1)α+β−γ+k F (k) (α, β, γ) = (−1)k α(α+1)...(α+k−1)∗β(β+1)...(β+k−1)xγ−1 (x−1)α+β−γ ∗F (α, β, γ, x)
dx
En posant α = n + 1, β = −n et γ = 1, on obtient :

(−1)n 2n
F (n) (n + 1, −n, 1, t) =
n!
On peut aussi montrer qu’en dérivant F n fois

α(α + 1)...(α + n − 1) ∗ β(β + 1)...(β + n − 1)


F (n) (α, β, γ, x) = F (α + n, β + n, γ + n, x)
γ(γ + 1)...(γ + n − 1)

En égalant ces deux expressions et après simplification, on obtient :

(−1)n dn (tn (t − 1)n )


F (n + 1, −n, 1, t) = ,
n! dtn
soit
1−x 1 dn (x2 − 1)n
F (n + 1, −n, 1,
)= .
2 n!2n dxn
Soit les polynômes de Legendre sont un cas particulier des fonctions hypergéométriques avec pour paramètre

α = n − 1, β = −n, γ = 1.

On obtient :
1−x
P1 (x) = F (2, −1, 1, )=x
2
1−x 1
P2 (x) = F (3, −2, 1, ) = (3x2 − 1)
2 3

36
1−x 1
P3 (x) = F (4, −3, 1, ) = (5x2 − 3x)
2 2
1−x 1
P4 (x) = F (5, −4, 1, ) = (35x4 − 30x2 + 3)
2 8
...
Montrons que l’ensemble des polynômes de Legendre forment un système orthogonal dans le segment [−1, 1] avec
pour poids(contrainte) ρ(x) = 1
Z
[fn (x)gm (x)ρ(x)] dx = 0 si n 6= m

6= 0 si n = m

Il s’agit de montrer que Z 1


Pn (x)Pm (x) dx si n 6= m
−1

En effet les polynômes de Legendre Pm (x) et Pn (x) vérifient les identités :


 
d dPm (x)
(1 − x2 ) + m(m + 1)Pm (x) = 0
dx dx
 
d dPn (x)
(1 − x2 ) + n(n + 1)Pn (x) = 0
dx dx
(qui n’est vrai que si les Pn vérifiant l’équation de Legendre)
En multipliant la première équation par Pn (x) et la seconde par Pm (x) et en faisant la soustraction membre par
membre le résultat obtenu, en l’intégrant dans le segment [−1, 1], on obtient :
Z 1 Z 1    
d dPn (x) d dPm (x)
(m(m + 1) − n(n + 1)) Pn (x)Pm (x) dx = Pm (x) (1 − x2 ) − Pn (x) (1 − x2 ) dx
−1 −1 dx dx dx dx

En faisant une intégration par partie, on obtient :


Z 1   1 Z 1
d 2 dPn (x) dPn (x)
2 dPm dPm
Pm (x) (1 − x ) dx = Pm (x)(1 − x ) − (1 − x2 ) dx
−1 dx dx dx −1 −1 dx dx
Z 1
dPm (x) dPn (x)
= − (1 − x2 ) dx
−1 dx dx
Z 1   Z 1
d dPm dPm (x) dPn (x)
(1 − x2 )
Pn (x) dx = − (1 − x2 ) dx
−1 dx dx −1 dx dx
Z 1
dPm (x) dPn (x)
=⇒ (m(m + 1) − n(n + 1)) dx = 0
−1 dx dx

D’où Z 1
m 6= n ⇒ Pn (x)Pm (x) dx = 0
−1

a. Équation de Bessel : l’équation de Bessel se présente sous la forme

x2 y 00 + xy 0 + (x2 − ν 2 )y = 0

On suppose que ν ∈ / Z, mais ν ∈ R.


Pour la résoudre, on remarque d’abord qu’en changeant x par −x, l’équation n’est pas fortement modifiée. Il
est suffisant d’étudier cette équation pour les x positifs.

37
Il est aussi à remarquer que cette équation admet un seul point singulier, qui est donc le point x = 0. l’équation
caractéristique au point x = 0 est définie par

λ(λ − 1) + λ − ν 2 = 0,

c’est-à-dire
λ2 − ν 2 = 0 =⇒ λ ± ν.
Cherchons la solution de l’équation de Bessel dans le cas général sous forme d’une série généralisée définie par :

X
y= Ck xk+λ ; C0 6= 0.
k=0

En dérivant cette série deux fois, on obtient :



X ∞
X
y0 = (k + λ)Ck xk+λ−1 ; y 00 = (λ + k)(λ + k − 1)Ck xk+λ−2
k=1 k=2

En remplacant dans l’équation de Bessel, on a :


X ∞
X ∞
X ∞
X
xλ = 0∞ Ck xk + xλ (k + λ)Ck xk + xλ Ck xk+2 − xλ ν 2 Ck xk
k k=0 k=0 k=0


X ∞
X
[(λ + k)(λ + k − 1) + λ + k − ν 2 ]Cxk + Ck xk+2 = 0
k=0 k=0

C’est-à-dire

X ∞
X
((λ + k)2 − ν 2 )Ck xk + Ck xk+2 = 0
k=0 k=0

Pour que la série obtenue identiquement nulle, il faut que ses coefficient vérifient la condition (λ2 − ν 2 )C0 = 0,
[(λ + 1)2 − ν 2 ]C1 = 0 et de manière générale

(∗)[(λ + k)2 − ν 2 ]Ck + Ck−2 = 0, ∀ k = 2, 3, ...

Cherchons la solution correspondante à la solution de l’équation caractéristique λ = ν.


En substituant λ = ν dans (∗), on voit qu’en qualité de C0 , on peut prendre n’importe quel C0 6= 0 et C1 = 0
D’où :
Ck−2
Ck = −
k(2ν + k)
Il vient donc que
C2n+1 = 0 ∀n ∈ N
C0 C0 (−1)k C0
C2 = − , C 4 = , C 2k =
22 ∗ 1 ∗ (ν + 1) 24 ∗ 2!(ν + 1)(ν + 2) 22k k!(ν + 1)(ν + 2)...(ν + k)
Ainsi on retrouve donc tous les coefficient Ck

X (−1)k C0
y1 (x) = x2k+ν
22k k!(ν + 1)(ν + 2)...(ν + k)
k=0

On montre sans peine à partir du critère de D’Alembert que cette série converge dans tout segment de la forme
[0, α]. Ainsi y1 (x) est bel et bien solution de l’équation de Bessel ∀C0 . En général, en qualité de C0 , on ose poser :
1
C0 = ,
2ν Γ(ν + 1)

38
où Γ est la fonction Gamma. avec
Z ∞
Γ(α) = xα−1 e−x dx, Γ(ν + 1) = νΓ(ν).
0

On a ;

X (−1)k .2ν  x 2k+ν
y1 (x) =
2ν k!Γ(ν + 1)(ν + 2)...(ν + k) 2
k=0

Ici y1 (x) sera noté Jν (x) D’où



X (−1)k  x 2k+ν
Jν (x) =
k!Γ(ν + k + 1) 2
k=0

est appelé fonction de Bessel de premier genre et d’ordre ν


La deuxième solution de l’équation de Bessel linéairement indépendante de y1 (x) est recherchée sous la forme

X
y2 (x) = Ck xk−ν
k=0

En substituant y2 (x) dans l’équation de Bessel, il vient pour les coefficients Ck avec λ = −ν,

(ν 2 − ν 2 )C0 = 0, (1 − 2ν)C1 = 0, [(−ν + k) − ν 2 ]Ck + Ck−2 = 0

=⇒ C0 6= 0, C1 = 0
C2k−2
C2k = − , C2k+1 = 0.
22k k(ν + k)
Par hypothèse, ν ∈ Z, on peut donc estimer les coefficients d’indices paire d’expression :
C0
C2k = (−1)k
22k k!(−ν + 1)(−ν + 2)...(−ν + k)

X C0
=⇒ y2 (x) = (−1)k x2k−ν
22k k!Γ(−ν + 1)(−ν + 2)...(−ν + k)
k=1
1
Posons C0 = 2−ν Γ(−ν+1) d’où


X C0
y2 (x) = (−1)k x2k−ν
22k k!(−ν + 1)(−ν + 2)...(−ν + k)
k=0

∞  x 2k−ν
X 1
=⇒ J−ν (x) = (−1)k .
k!Γ(−ν + k + 1) 2
k=0

Elle est appelée fonction de Bessel de premier genre et d’ordre −ν.


Remark 4. :
a. Nous avions etudié l’équation hypergéométrique

t(t − 1)x00 + [γ − (α + β + 1)t]x0 − αβx = 0

et nous avions donné une solution pour |x| > 1


X α(α + 1)...(α + k − 1)β(β + 1)(β + k − 1)
F (α, β, γ) = 1 + tk
γ(γ + 1)...(γ + k − 1)
k=0

39
/ Z−
ceci est le cas où α, β, γ ∈
Si β < 0, par exemple si β = −n, alors l’équation hypergéométrique a pour solution un polynôme (polynôme de
Jacobi). Les polynômes de Jacobi sont définis par

Φn (t) = F (α + n, −n, γ, t).

Ils sont orthogonaux dans le segment [−1, 1] avec pour densité ou poids tγ−1 (1 − t)γ−1 , c’est-à-dire
Z 1
Φn (t)Φm (t)tγ−1 (1 − t)γ−1 dt = 0.
−1

Une autre forme de présentation de la solution de l’équation hypergéométrique pour β > 0 et γ > β est définie par
Z 1
Γ(γ)
F (α, β, γ, t) = sβ−1 (1 − s)γ−β+1 (1 − ts)−α ds,
Γ(β)Γ(γ − β) −1

β > 0, γ > β, |t| < 1.


b. Equation de Legendre : Nous l’avons définis comme

(1 − t)2 x00 − 2tx + λx = 0, λ = n(n + 1)

cette équation admet pour solution les polynômes de Legendre qui sont Pn (t) et nous avons monté que les polynômes
de Legendre sont orthogonaux dans le segment [−1, 1] avec pour poids ρ(x) = 1.
c. Equation d’Hermite : Il est défini sous la forme :

x00 + (λ − t2 )x = 0.

Pour λ = 2n + 1, cette équation admet pour solution


t2
e− 2 Hn (t)
2
, où les Hn (t) sont les polynômes d’Hermite qui sont orthogonaux dans R avec pour poids ou densité e−t . Les
polynômes d’Hermite vérifient l’équation différentielle

x00 − 2tx0 + 2nx = 0.

d. Équation de Laguerre : Elle est donnée par


t
tx00 + x0 + (λ − )x = 0.
4
t
Pour λ = n + 21 , cette équation admet pour solution e− 2 Ln (x), où les Ln (x) sont appelées polynômes de Laguerre,
orthogonaux dans R+ et pour poids e−t . Les polynômes Ln (x) vérifient l’équation différentielle

tx00 + (1 − t)x0 + nx = 0.

e. Équation de Tchebitcheff : Elle est donnée sous la forme :

(1 − t2 )x00 − tx + λx = 0.

Pour λ = n2 , cette équation admet pour solution les polynômes de Tchebicheff qui sont notés Tn (x). Les polynômes
1
de Tchebicheff sont orthogonaux dans [−1, 1] et pour poids √1−t 2
.
f. Équation de vibrations simples : Elle est donnée par

x00 + λx = 0.

40
Pour λ = n2 , cette équation admet pour solutions sin(nt) et cos(nt) dont les propriétés d’orthogonalité dans le
segment [−1, 1] sont bien connues. On passe de cette équation à celle de Tchebicheff par un bon changement de
variable.
u = cos(t) ⇒ Tn (t) = cos(nt) = cos(arccos u)
g. Équation de Bessel : Elle est définie par

t2 x00 + tx0 − (t2 − λ2 )x = 0.

Elle admet pour solution la fonction de Bessel notée Jλ (t). De l’équation de Bessel, pour t > 0 on en déduit par
des changements de variables trois équations qu’il est utile de connaitre.
L’on obtient donc l’équation
t2 u00 + (t2 − µ)u = 0

à travers le changement de variable u = x t, µ = 14 − λ2 où

tu00 + (2λ + 1)u0 + tu = 0 par le cangement de variable u = xt−λ

ou encore
t2
su00 + (λ + 1)u0 + u = 0par le changement de variables = , u = xt−λ .
4
h. Équation différentielle de Laplace. On appelle équation différentielle de Laplace toute équation différentielle
linéaire homogène de second ordre dont les sont des fonctions linéaires indépendantes. D’où :

(at + a1 )x00 + (bt + b1 )x0 + (ct + c1 )x = 0

On note que les deux équations de Laguerre, l’équation d’Hermite et les deux equations équivalentes de Bessel sont
des équations de Laplace. Pour résoudre cette équation, il faut utiliser la transformée de Laplace encore appelée
calcul opérationnel
Exercice
Soit à calculer l’intégrale Z 1
cos(tx)
I(x) = √ dt.
0 1 − t2
Ici, il faut utiliser le calcul opérationnel
Z 1
L(cos(tx))
L(I(x)) = √ dt,
0 1 − t2
p
or L(cos(tx)) = p2 +t2 , soit
Z 1 Z 1
P 1
L(I(x)) = √ dt = p √ dt.
0 (p2 + t2 ) 1 − t2 0 (p2 + t2 ) 1 − t2

En posant t = p sin(φ), dt = p cos(φ)dφ.

2.2 Rappel sur la fonction Gamma Γ


Nous allons nous intéresser à des objets mathématiques qui sont la fonction Gamma et Beta. En général, ce qu’il
faut noter est que la fonction Gamma est le prolongement par continuité de la notion factoriel. Il faut rappeler que
la notion factoriel est définie pour les entiers naturel de la manière suintante ∀ n ∈ N, 0! = 1, n! = 1×2×...×n, soit
n! c’est le produit des nombres en commençant par 1 jusqu’à n. Si nous voulons construire la fonction f (n) = n!,
on obtient une collection des points discrets tel qu’indique la figure ci-contre

41
Figure 2.1 –

La question qui c’était posée était de savoir si on ne peut pas prolonger la fonction f (n) = n! pour les points
intermédiaires. Essayons de joindre les points obtenus

Figure 2.2 –

Notre but est d’obtenir la courbe ci-après :

Figure 2.3 –

42
On voit que ce n’est pas ne interpolation. En effet, est-ce que nous pouvons définir une fonction définie dans R+
qui va se comporter comme aussi bien pour les nombres entiers que les réels ? En général la fonction Gamma est
une découverte du mathématicien allemand Léonard Euler, elle est appelée intégrale de Euler. En effet, c’est le
problème que c’était pose Euler, à savoir construire une fonction définie dans R+ qui vérifie la propriété de factoriel.
Dans les péripéties de trouver une telle fonction, il a obtenu un objet lié à une transformation intégrale donc
nous allons définir et étudier leurs propriétés. Nous allons d’abord définir la fonction Beta qui est une fonction
définie à l’aide de deux paramètres a et b.
Z 1
β(a, b) = ta−1 (1 − t)b−1 dt.
0
Les fonctions Gamma et Beta sont définies pour le nombre complexe et réels. Dans notre cours, nous allons nous
interessera des fpmctopms Gamma et Beta definies pour les nombres reels. Si a > 1 et b < 1, alors cette integrle
est imprompre pour a > 0 et b > 0, la fonction Beta converge. Nous pouvons former un changemen rde variable en
posant
√ π
t = sin φ ⇒ t = 0 ⇒ φ = 0, t = 1 ⇒ φ = ,
2

t = sin φ ⇒ t = sin2 φ ⇒ 1 − t = 1 − sin2 φ = cos2 φ.
La différentielle de t donne dt = 2 sin φ cos φ. En substituant dans l’intégrale, on obtient :
Z 1
β(a, b) = ta−1 (1 − t)b−1 dt
0
Z π
2
= (sin φ)a−1 (cos2 φ)b−1 2 sin φ cos φdφ
0
Z π
2
= 2(sin φ)2a−1 (cos2 φ)2b−1 dφ.
0

Si a = 12 , b = 21 , il vient 2a − 1 = 0, 2b − 1 = 0. En substituant dans l’intégrale, on obtient


Z π2
1 1 π
β( , ) = 2dφ = 2φ|02 = π.
2 2 0
Pour les autres valeurs de la fonction β(a, b) nous allons y revenir. Maintenant, occupons-nous de la fonction
Gamma, elle est définie par l’intégrale impropre :
Z ∞
Γ(a) = ta−1 e−t dt.
0
Cette fonction est définie pour les nombres complexes
R∞mais nous allons nous intéresser aux nombres réels. Cette
fonction converge pour les a > 0. Calculons Γ(a + 1) = 0 ta e−t dt. En faisant une intégration par partie, il vient
u = ta ⇒ du = ata−1 dt
dv = e−t dt ⇒ v = −e−t
On obtient Z ∞ Z ∞
Γ(a + 1) = −ta e−t |∞
0 +a t a−1 −t
e dt = a ta e−t dt = aΓ(a).
0 0
Nous remarquons que la fonction Γ vérifie la propriété de la fonctionnelle
Z ∞
Γ(1) = e−t dt = e−t |∞
0 =1
0
Γ(2) = 1Γ(1)
Γ(3) = 2Γ(2) = 2 × 1 = 2!
Γ(4) = 3!

43
Ainsi,
Γ(n) = (n − 1)!, ∀ n ∈ N
soit pour n ∈ N, Γ(n) = (n − 1)! ∀a ∈ R+ , Γ(a + 1) = aΓ(a) Gauss a définie une façon analogue à la fonction Γ
et l’a noté Z ∞
Π(a) = ta e−t dt et pour n ∈ N, Π(n) = n!.
0

Riemann a aussi défini une telle fonction liée a la fonction qui porte le nom "zeta(ζ(x))"
Z ∞
Π(s − 1)
e−π xs−1 =
0 ns

xs−1
Z
Π(s − 1)ζ(s) = dx.
0 ex − 1
Sur la base de cette fonction ζ(s) il voulait trouver tous les points s pour lesquels cette fonction s’annule et ceci est
appelé l’hypothèse de Riemann, qui reste un problème jusqu’à nos jours et donc la solution coute 1 million de
dollars. Essayons de donner le graphique de cette fonction.

Figure 2.4 –

C’est vrai nous avions dit que la fonction Γ est définie pour les a > 0, nous pouvons la définir pour les a < 0 tel
que représentée sur la figure ci-contre

44
Figure 2.5 –

Maintenant trouvons le lien entre la fonction Γet B. Pour cela, posons



x= t
D’où
Si t = 0, ⇒ x = 0
Si t = ∞, ⇒ x = ∞

x = t ⇒ t = x2 ⇒ dt = 2xdx
Z ∞ Z ∞
2
a−1 −t
Γ(a) = t e dt = (x2 )a−1 e−x 2xdx
0 0
Z ∞
2
⇒ Γ(a) = 2x2a−1 e−x dx. (1)
0
Rappelons nous que nous avons aussi définie la fonction
Z π
2
β(a, b) = 2(sin φ)2a−1 (cos2 φ)2b−1 dφ. (2)
0

En observant (1) et (2), on voit que le lien entre la fonction Gamma et B n’est pas claire car la fonction Gamma
est définie avec un paramètre alors que la fonction B en a deux. Mais en faisant quelques petites écritures, par
exemple en écrivant la fonction Gamma avec pour paramètre b, il vient
Z ∞
2
Γ(b) = 2y 2b−1 e−y dy,
0
Z ∞  Z ∞ 
2a−1 −x2 2b−1 −y 2
Γ(a)Γ(b) = 2x e dx 2y e dy .
0 0

Les variables étant indépendants, nous obtenons une intégrale double


Z Z
2 2
Γ(a)Γ(b) = 4x2a−1 y 2b−1 e−x −y dxdy,
D

45
le domaine d’intégration "D" étant le premier quadrant

Figure 2.6 –

En faisant un changement de variable en utilisant les coordonnées polaires


π
x = r cos φ, y = r sin φ, dxdy = rdrdφ, r ∈ [0, ∞], φ ∈ [0, ], x2 + y 2 = r2
2
2
−y 2 2
⇒ e−x = e−r .

π
Z 2
Z ∞
2
β(a, b) = dφ 4(r cos φ)2a−1 (r sin φ)2b−1 e−r rdr
0 0
π
Z 2
Z ∞
2
= 2a−1
2(cos φ) (sin φ) 2b−1
dφ 2r2(a+b) e−r dr = β(b, a) × Γ(a + b),
0 0
Soit
Γ(a)Γ(b) = β(a, b)Γ(a + b)
D’où
Γ(a)Γ(b)
β(a, b) = = β(b, a)
Γ(a + b)
1
Si a = 2 et b = 12 , on obtient
Γ( 12 )Γ( 12 ) 1 1 1
= β( , ) ⇒ Γ2 ( ) = π,
Γ(1) 2 2 2
soit
1 √
Γ( ) = π
2
Z ∞
1 2 √
Γ( ) = 2e−x dx = π
2 0

Dans (1), en posant que a = 12 , on obtient


Z ∞ Z ∞ √
1 2× 21 −1 −x2
√ −x2 π
Γ( ) = 2x e dx = π ⇒ e dx =
2 0 0 2,
qui est l’intégrale d’Euler-Poisson. Sachant que Γ(a + 1) = aΓ(a), on a
3 1 1 1 1√
Γ( ) = Γ( + 1) = Γ( ) = π
2 2 2 2 2
5 3 3 3 1√
Γ( ) = Γ( ) = × π
2 2 2 2 2

46
1 1 × 3 × ... × (2n − 1) √ (2n − 1)!! √ (2n)! √
Γ(n + ) = n
π= n
π= π
2 2 2 n!4n
soit
1 (2n)! √
Γ(n + ) = π.
2 n!4n

1 Γ(n + 21 )Γ( 21 ) (2n)! √ π (2n)!
β(n + ) = = π × = n π
2 Γ(n + 1) n!4n n! 4 (n!)2
Autre façon de calculer
Z π
1 2
β(n + ) = 2(sin φ)2n dφ
2 0
Il vient Z π
2 (2n)! π
(sin φ)2n dφ = .
0 4n (n!)2 2
Cette intégrale porte le nom de l’intégrale de Wallis.
Faisons encore cette transformation. Nous savons que la fonction β(a, b) peut être encore écrite par :
Z 1
β(a, b) = xa−1 (1 − x)b−1 dx.
0

En posant le changement
 
1 −2 1
x=1− ⇒ dx = (t + 1) dt, 1 − x = 1 − 1 − = (t + 1)−1 , x = t(t + 1)−1
t+1 t+1
D’où
Z ∞
β(a, b) = ta−1 (t + 1)−a+1 (t + 1)−b+1 (t + 1)−2 dt
0
∞ ∞
ta−1
Z Z
a−1 −a−b
= t (t + 1) dt = dt.
0 0 (t + 1)a+b
Nous obtenons une nouvelle représentation de la fonction Beta
En posant b = 1 − a, il vient
Z ∞ a−1
Γ(a)Γ(1 − a) Γ(a)Γ(1 − a) t π
β(a, 1 − a) = = = dt = , 0<a<1
Γ(a + 1 − a) Γ(1) 0 t + 1 sin πa
soit
π
Γ(a)Γ(1 − a) =
sin πa
Cette formule est appelée formule du complémentaire.
On peut encore l’écrire en posant que :

1 1 1 π π2
a= + x, on a Γ( + x)Γ( − x) = π =
2 2 2 sin( 2 + πx) cos πx

En résumé, nous avons obtenu 3 représentation de la Beta fonction


Z 1
β(a, b) = ta−1 (1 − t)b−1 dt,
0
Z π
2
β(a, b) = 2(sin φ)2a−1 (cos2 φ)2b−1 dφ
0

47

ta−1
Z
β(a, b) = dt
0 (t + 1)a+b
Nous avons aussi montré que la Beta fonction est symétrique, à savoir

Γ(a)Γ(b)
β(a, b) = β(b, a) = .
Γ(a + b)

Nous avons dérivé deux écritures de la Gamma fonction


Z ∞
Γ(a) = ta−1 e−t dt
0
Z ∞
2
Γ(a) = 2 t2a−1 e−t dt
0

Γ(a + 1) = aΓ(a)
π
Γ(a)Γ(1 − a)
sin πa
et nous avons montré que
Γ(n + 1) = n!, n ∈ N
1 (2n)! √
Γ(n + ) = n π, n ∈ N.
2 4 n!

48
Chapitre 3

TECHNIQUES DE RÉSOLUTION DES


ÉQUATIONS AUX DÉRIVÉES
PARTIELLES

3.1 Rappel
3.1.1 Espace vectoriel euclidien :
Definition 6. :
Soit V un K − ev. La fonction rélle notée (x, y) ou < x, y > ou < x|y > pour tout couple (x, y) appartenant à
V est appelée produit scalaire si
(1) (x, y) = (y, x)
(2) (x1 + x2 , y) = (x1 , y) + (x2 , y) ∀x1 , x2 , y ∈ V
(3) (λx, y) = λ(x, y) ∀x, y ∈ V et∀λ ∈ K
(4) (x, y) ≥ 0, si (x, x) = 0 =⇒ x = 0
Definition 7. :
Tout espace vectoriel dans le quel est défini le produit scalaire est appelé espace vectoriel euclidien. Dans un
espace vectoriel euclidien, on peut définir la norme ou la distance associée à cet espace
p
||x|| = (x, x),

d(x, y) = ||x − y||.


Dans un espace vectoriel euclidien, l’inégalité de Cauchy-Schwarz est vérifiée

|(x, y)| ≤ ||x||.||y||.

Dans un espace vectoriel euclidien, si nous avons deux vecteurs x et y qui vérifient la condition (x, y) = 0, alors on
dit que les vecteurs x et y sont orthogonaux.
Si dans un espace vectoriel euclidien nous avons un système de vecteurs (xα )α∈N qui est tel que

(xα , xβ ) = 0 si α 6= β,

alors on dit que le système (xα )α∈N est orthogonal

Exemple 5. :

49
Nous avons montré que ((Rn , +, .)) est un R − ev sur le champ R. Pour montrer que ceci est un espace vectoriel
euclidien, construisons le produit scalaire suivant :

x ∈ Rn =⇒ x = (x1 , ..., xn )

y = (y1 , ..., yn )
n
X
(x, y) = xi yi
i=1

il ne va rester qu’à démontrerPles (4) propriétés.


n
Dans (Cn , +, .), (x, y) = i=1 xi y i .
Dans la suite n X o
l2 = x = (x1 , x2 , ..., xn ) x2i < ∞ ,
on a ! 21
n
X
||x|| = x2i
i=1
n
X
(x, y) = xi yi .
i=1

L’espace n X p o
lp = x = (x1 , x2 , ..., xn )/ xi < ∞

n
! p1
X
||x||p = xpi
i=1
2
L’espace C ([a, b]) est l’ensemble des fonctions qui sont dérivables deux fois dans l’intervalle [a, b].
Z b
2
∀f, g ∈ C ([a, b]), (f, g) = f (t)g(t) dt
a

Exercice 1 : Montrer que  


1 2πt
, cos n
2 b−a n∈N
2
forme un système orthogonal dans C ([a, b]).
exercice 2 : Faire de même pour  
1 2πt
, sin n
2 b−a n∈N
exercice 3 : Faire de même pour  
2πt 2πt
cos n , sin n
b−a b−a n∈N

3.1.2 Espace de Hilbert


Definition 8. On appelle espace de Hilbert tout espace vectoriel euclidien qui est infini et complet dans le sens de
la métrique définie dans cet espace.
On dit qu’un espace quelconque est complet si toute suite de Cauchy dans cet espace converge.
Theorem 2. Pour qu’un espace vectoriel normé V soit euclidien, il est nécéssaire et suffisant que pour chaque deux
éléments f et g l’égalité suivante est vérifiée :

||f + g||2 + ||f − g||2 = 2(||f ||2 + ||g||2 )

50
Exemple 6. Considérons l’espace
n X p o
lp = x = (x1 , x2 , ..., xn )/ xi < ∞

n
! p1
X
||x||p = .
i=1

On voit qu’avec cette norme ainsi définie l’espace ne sera pas toujours un espace euclidien. Essayons de voir pour
quel p il le sera :
On se donne f (1, 1, 0, ..., 0) et g(1, −1, 0, ..., 0). Essayons de calculer la norme de chaque vecteur.
1 1
||f ||p = 2 p , ||g||p = 2 p , ||f + g|| = 2, |||f − g| = 2,

||f + g||2 + ||f − g||2 = 2(||f ||2 + ||g||2 )


2 2
=⇒ 4 + 4 = 2(2 p + 2 p )
2
=⇒ 2 = 2 p
=⇒ p = 2

D’où L’espace est euclidien pour p = 2.

3.1.3 Espace normé


L’une des classes importantes parmi les espaces normés est la classe des fonctions intégrables au sens de Lebesgue.
Il s’agit des espaces L1 et L2 . Soit X un espace mesurable avec pour mesure µ. L’espace noté L1 (X, µ) et qui est
constitué de toutes les fonctions f qui sont absolument intégrables suivant X,
 Z 
L1 (X, µ) = f, |f | dµ < ∞ .
X

La norme est Z
||f || = |f (µ)| dµ
X
Cet espace est infini et complet.
L’espace L2 est l’espace
R noté L2 (X, µ) consitué de toute les fonctions qui sont donc intégrables par quadrature
suivant X si l’intégrale f 2 (x) dµ < ∞ et existe.
R de toutes ces fonctions sera notée L2 (X, µ).
L’ensemble
(f, g) = f (µ)g(µ) dµ est le produit scalaire dans L2 .
Definition 9. Espace de Banach
Tout espace vectoriel normé complet est appelé espace de Banach.
Definition 10. Espace de Schwarz

S = u(x), u(x) ⊂∞ (R), ∃ Cαβ : (1 + |x|β )|Dα u| ≤ Cαβ ∀x ∈ R, α, β > 0.




En d’autres termes, l’espace S est constitué des fonctions u(x) ∈ C ∞ (R) qui décroissent ensemble avec ses
dérivées plus vite qu’une fonction
1
∀β ∈ R.
1 + |x|β
2
Exercice : Montrer que u(x) = e−x ∈ S.

51
3.2 Série de Fourier.
On appelle série de Fourier une série de la forme
a0
+ a1 cos x + b1 sin x + a2 cos 2x + b2 sin 2x + ...
2
ou sous la forme

a0 X
+ an cos nx + bn sin nx.
2 n=1

Les constantes a0 , an , bn avec n = 1, 2, ... sont les coefficients de la série trigonométrique.


Sicette série converge, alors la somme est une fonction périodique de période 2π. Car sin nx, cos nx sont des
fonctions de période 2π.
L’objectif du travail
On se donne une fonction périodique f (x) de période 2π. On demande quelles sont les conditions imposées à
f (x) pour qu’il existe une série trigonométrique convergente vers f (x).
Tel sera le but notre travail, à savoir la détermination de la série au moyen des formules de Fourier. Supposons
que la fonction f (x) soit périodique de période 2π et peut être représentée par une série trigonométrique convergente
vers f (x) dans l’intervalle [−π, π] c’est-à-dire qu’elle se reprénte sous la forme de cette série :

a0 X
f (x) = + an cos nx + bn sin nx.
2 n=1
P∞
Supposons que a20 + n=1 an cos nx + bn sin nx. est absolument convergente c’est-à-dire l’intégrale à gauche sera
égale à la somme des intégrales du terme de droite.
Z π Z π XZ π Z π
a0
f (x) dx = dx + ( an cos nx dx + bn sin nx dx.)
−π −π 2 −π −π

Z π Z π Z π
a0
⇒ dx = πa0 , an cos nx dx = 0, bn sin nx dx = 0.
−π 2 −π −π
Z π
1 π
Z
⇒ f (x) dx = πa0 , c’est-à-dire a0 = f (x) dx.
−π π −π
Pour calculer les autres termes de la suite, nous vérifions que
Z π Z π Z π
an cos nx cos kx dx = 0, an cos nx sin kx dx = 0, an sin nx sin kx dx = 0.
−π −π −π

Si n = k, on a :
Z π Z π Z π
2
cos kx dx = π, sin kx cos nx dx = 0, sin2 nx dx = π.
−π −π −π

D’où l’équation
Z π Z π Z π
a0 X
f (x) dx = dx + ( an cos nx cos kx + bn sin nx cos kx )dx.
−π −π 2 −π

Z π Z π
1 1
ak = f (x) cos kx dx, bk = f (x) sin kx dx.
π −π π −π

Les a0 , ak et bk sont les coefficients de Fourier.

52
Exemple :
Pour la fonction f (x) = x, −π < x < π, on a

1 π
Z
2
a0 = x dx = 0, ak = 0, bk = (−1)k+1 .
π −π k
D’où la fonction f (x) se met sous la forme :
 
sin x sin 2x sin kx
f (x) = 2 − + ... − ...(−1)k+1 + ... .
1 2 k
Pour la fonction f (x) = |x|, on a
 
π 4 cos x cos 3x cos(2p + 1)x
f (x) = − + + ... + + ... .
2 π 12 32 (2p + 1)2
Pour la fonction 
−1, −π ≤ x < 0,
f (x) =
1 0 ≤ x ≤ π.
on a 
0, si k pair
a0 = 0, ak = 0, bk = 4
πk si k impair.
Pour la fonction f (x) = x2 , −π ≤ x ≤ π, on a
π2
 
cos x cos 2x cos 3x
x2 = −4 − + − ... .
3 1 22 32
D’où pour x = 0 :

π2 X 1
= .
12 n=1 n2
Pour la fonction 
0, −π ≤ x < 0,
f (x) =
x 0 ≤ x ≤ π.
On a    
π 2 cos x cos 3x cos(2p + 1)x sin x sin 2x sin 3x
f (x) = − + + ... + + ... + + + + ... .
4 π 12 32 (2p + 1)2 1 2 3
D’où pour x = 0 :

π2 X 1
= .
8 n=1
(2p + 1)2

Remark 5. :Sur le développement des fonctions périodiques en série de Fourier.


Indiquons la propriété suivante d’une fonction périodique ψ(x) de période 2π. On a :
Z π Z λ+2π
ψ(x) dx = ψ(x) dx, ∀λ ∈ R.
−π λ

En effet, comme ψ(ζ − 2π) = ψ()ζ, posons x = ζ − 2π. On peut écrire quelques soient c et d :
Z d Z d+2π Z d+2π Z d+2π
ψ(x) dx = ψ(ζ − 2π) dζ = ψ(ζ) dζ = ψ(x) dx.
c c+2π c+2π c+2π

Maintenant, en posant c = −π, d = λ, on obtient :


Z λ Z λ+2π
ψ(x) dx = ψ(x) dx
−π π

53
Par conséquent
Z λ+2π Z −π Z π Z λ+2π Z −π Z π Z λ Z π
ψ(x) dx = ψ(x) dx+ ψ(x) dx+ ψ(x) dx = ψ(x) dx+ ψ(x) dx+ ψ(x) dx = ψ(x) dx.
λ λ −π π λ −π −π −π

Cela signifie que l’intégrale d’une fonction périodique ψ(x) sur un segment arbitraire de longueur égale à la
période a toujours la même valeur.

3.2.1 Séries de Fourier des fonctions paires et impaires


Si ψ(x) est paire,on a : Z π Z π
ψ(x) dx = 2 ψ(x) dx
−π 0

et si elle est impaire on a Z π


ψ(x) dx = 0
−π

Donc si l’on a le développement limité d’une fonction impaire, le produit ψ(x) sin kx est une fonction impaire et le
produit ψ(x) cos kx est une fonction paire. Par suite :

2 π 2 π 1 π
Z Z Z
a0 = ψ(x) dx = 0, ak = ψ(x) cos kx dx et bk = ψ(x) cos kx dx
π 0 π 0 π −π

Par contre, pour le développement limité d’une fonction impaire, le produit f (x) sin kx est une fonction paire et
f (x) cos kx esgt une fonction impaire. Par suite,

1 π 1 π 1 π 2 π
Z Z Z Z
a0 = f (x) dx = 0, ak = f (x) cos kx dx = 0, bk = f (x) sin kx dx = f (x) sin kx dx.
π −π π −π π −π π 0

3.2.2 Séries de Fourier des fonctions de période 2l


Soit f (x) une fonction périodique de période 2l, en général différentede 2π. Dévellopons là en série de Fourier.
Faisons le changement de variable x = πl t ; la fonction f ( πl t) est une fonction périodique de t de période 2π et
on peut le développer en série de Fourier sur le segment −π ≤ x ≤ π.

l a0 X
f ( t) = + ak cos kt + bk sin kt,
π 2
k=1
avec Z π Z π Z π
1 l 1 l 1 l
a0 = f ( t) dt, ak = f ( t) cos kt dt, bk = f ( t) sin kt dt.
π −π π π −π π π −π π
l
Revenons à l’ancienne variable x : x = πt ⇒ t = x πl , dt = π
l dx. On aura alors
Z l Z Z Z
1 1 kπ 1 kπ
a0 = f (x) dx, ak = f (x) cos x dx, ab = f (x) sin x dx.
l −l l l l l
Le dévellopement devient alors :

a0 X kπ kπ
f (x) = + ak cos x + bk sin x
2 l l
k=1

Remark 6. Tout ce qui a été dit sur les séries de Fourier des fonctions périodiques de période 2π reste en vigueur
pour les fonctions périodiques de période quelconqu 2l.

54
Exemple : Dévelloper ensérie de Fourier la fonction périodique de période 2l définie sur le segment [−l, l] par
l’égalité f (x) = |x|
Solution Rl
bk = 0, a0 = 2l 0 x dx = l,
Z l Z l 
2 kπ 2l 0 pour k pair,
ak = x cos x dx = 2 x cos kx dx =
l 0 l π 0 − π24lk2 pour k impaire

D’où " #
l 4l cos πl x cos 3π
l x cos (2p+1)π
l x
|x| = − 2 + + ... + + ...
2 π 12 32 (2p + 1)2

3.2.3 Développement en série de Fourier d’une fonction non-périodique


Soit donnnée sur le segment [a, b] une fonction monotone par tranche f (x). Montrons que cette fonction peut
être représentée aux points de continuité par une série de Fourier. Considérons à cet effet une fonction arbitraire
périodique monotone par tranche f1 (x) de période 2µ ≥ |b − a| et coïncidant avec la fonction f (x) sur le segment
[a, b]. Nous avons prolongé f (x). Dévellopons la fonction f1 (x) en série de Fourier. La somme de cette série coïncide
partout sur le segment [a, b] sauf aux points de discontinuité avecla fonction donnée f (x), c’est-à-dire que l’on a
dévellopé f (x) en série de Fourier sur le segment [a, b].

Figure 3.1 –

Exemple
Dévelloper la fonction f (x) = x sur le segment [0, a] en série de sinus. Prolongeons cette fonction de façon
impaire. On obtient  
sin x sin 2x sin 3x
x=2 − + + ...
1 2 3

3.2.4 Série de Fourier sous forme complexe


Soit la série de Fourier de la fonction périodique de période 2π définie par

a0 X
f (x) = + an cos nx + bn sin nx. (1)
2 n=1

enxi +e−nxi enxi −e−nxi


Nous savons que cos nx = 2 et sin nx = 2i . Substituant dans la formule précédente nous avons

a0 X enxi + e−nxi enxi − e−nxi
f (x) = + an − ibn
2 n=1
2 2

a0 X an − ibn nxi an + ibn −nxi
= + e + e .
2 n=1
2 2

55
P∞ P∞
Nous écrivons alors f (x) = c0 + n=1 cn enxi + c−n e−nxi ou f (x) = −∞ cn enxi , qui est la forme complexe de
la série de Fourier. Il nous reste à exprimer les coefficients cn et c−n par des intégrales.
D’après les formules étudiées plus haut,
Z π Z π 
1
cn = f (x) cos nx dx − i f (x) sin nx dx
2π −π −π
Z π
1
= f (x)(cos nx − i sin nx) dx
2π −π
Z π
1
= f (x)e−inx dx
2π −π

de même Z π
1
c−n = f (x)einx dx
2π −π
P∞ nπ
Nous pouvons aussi l’exprimer comme f (x) = n=∞ cn ei l x où les coefficients cn de la série sont tirés de la
formule
1 l
Z

cn = f (x)e−i l x dx avec n = 0, ±1, ±2, ...
2l −l
Il est d’usage d’employer la terminologie suivante en électrotechnique et en radiotechnique. Les expréssions de la
i nπ
l x sont appelées harmoniques et les normbres α

forme eP n = l , n = 0, ±1, ±2, ... nombres d’onde de la fonction
∞ iαn x
f (x) = n=−∞ cn e . L’ensemble des nombres d’onde porte le nom de spectre.

3.2.5 Série de Fourier en sinus ou en cosinus


Un développement en série de Fourier en sinus ou en cosinus est un développement os̆euls sont présents respec-
tivement les termes en sinus ou en cosinus. Quand nous désirons obtenir ce genre de développement correspondant
à une fonction donnée, celle-ci est généralement éfinie dans l’intervalle (0, l) qui représente la moitıé de l’intervalle
(−l, l) et la symétrie de la fonction, paire ou impaire est alors specifiée de façon à ce que l’autre moitée de l’intervalle
(−l, 0) soit parfaitement définie. Nous avons dans ce cas :
Z
2 nπ
an = 0, bn = f (x) sin x dx pour le développement en sinus, (2)
l l
Z
2 nπ
bn = 0, an = f (x) cos x dx pour le développement en cosinus, (2)
l l

3.2.6 l’Identité de Parseval et l’inégalité de Bessel


Theorem 3. (Conditions de Dirichlet)
Soit une fonction f (x) supposée
1 définie et continue dans l’intervalle (x, l) à l’exception d’un nombre fini de points.
2 périodique de période 2l.
3 telle que f (x) f 0 (x) sont régulières par morceaux dans (−l, l).
Dans ces conditions, la série (1), des coefficients (2) converge vers :
- f (x) si x est un point de continuité
- f (x+0)+f
2
(x−0)
si x est un point de discontinuité.
En supposant que la série de Fourier représentent f (x) converge vers f (x) dans (−l, l), montrons que
l ∞
a2 X 2
Z
1
[f (x)]2 dx = + (an + b2n ).
l −l 2 n=1

56
On suppose que l’intégrale existe et l’identité est appelé identité de Parseval.
Démonstration : Soit la décomposition en série de Fourier de la fonction f (x) définie par

a0 X nπ nπ
f (x) = + an cos x + bn sin x.
2 n=1
l l

Multiplions de part et d’autre cette égalité et intégrons de part et d’autres aux bornes de −l et l


" #
Z l Z l Z l Z l
2 a0 X nπ nπ
[f (x)] dx = f (x) dx + an f (x) cos x dx + bn f (x) sin x dx .
−l 2 −l n=1 −l l −l l

a2 X
= l+l (a2n + b2n )
2 n=1

car Z l Z l Z l
nπ nπ
f (x) dx = la0 , f (x) cos x dx = lan , f (x) sin x dx = lbn , (∗)
−l −l l −l l
qui sont obtenus à partir des coefficients de Fourier.

3.2.7 Inégalité de Bessel


∞ l
a2 X 2
Z
1
+ (an + b2n ) ≤ [f (x)]2 dx
2 n=1
l −l

Pour l’établir, nous allons d’abord montrer que pour tout entier positif M
M l
a2 X 2
Z
1
+ (an + b2n ) ≤ [f (x)]2 dx,
2 n=1
l −l

où les an et bn sont des coefficients de Fourier correspondant ‘a f (x), f (x) étant supposé régulière sur morceaux
dans (−l, l). Soit

a0 X nπ nπ
SM (x) = + an cos x + bn sin x. (a)
2 n=1
l l
qui pour M = 1, 2, 3, ... est une séquence de somme partielles de la série de Fourier correspondant à f (x). Nous
avons Z l
(f (x) − SM (x))2 dx ≥ 0 (b)
−l
Puisque l’argument de l’intégrale est non négatif, en développant l’argument de l’intégrale, il vient :
Z l Z l Z l
2
2 f (x)SM (x) dx − SM (x) dx ≤ [f (x)]2 dx (c)
−l −l −l

En multipliant les deux membres de (a) par 2f (x) et intégrant de −l à l tout en utilisant (∗), nous obtenons :

Z l ( )
a2 X 2
2 f (x)SM (x) dx = 2l + (an + b2n ) (d)
−l 2 n=1

Puis en élévant (a) au carré et intégrant de −l à l, nous obtenons :



Z l ( )
2 a2 X 2 2
2 SM (x) dx = 2l + (an + bn ) (e).
−l 2 n=1

57
Puis en substituant (d) et (e) dans (c) et divisant par l, nous obtenons que
M l
a2 X 2
Z
1
+ (an + b2n ) ≤ [f (x)]2 dx
2 n=1
l −l

En passant à la limite quand M → ∞, on obtient


∞ l
a2 X 2
Z
1
+ (an + b2n ) ≤ [f (x)]2 dx
2 n=1
l −l

Exemple
En utilisant l’inégalité de Parseval sur f (x) = x, 0 < x < 2 en série de cosinus
On a :
4
l = 2, a0 = 2, an = 2 2 (cos nπ + 1), n 6= 0, bn = 0.
n π
D’où
l l ∞
(2)2 X 16
Z Z
2 1
[f (x)] dx = X 2 dx = + 4 π4
(cos nπ − 1)2 .
−l 2 −l 2 n=1
n

3.2.8 Série de Fourier de deux variables


L’idée du développement de série de Fourier d’une fonction d’une variable peut être étendue au cas des fonctions
de deux variables x et y c’est-à-dire f (x, y). Nous allons dans notre cadre dévelloper f (x, y) en double série de
Fourier en sinus
∞ X ∞
X mπ nπ
f (x, y) = Bmn sin x sin y
m=1 n=1
l 1 l2
où Z l1 Z l2
4 mπ nπ
Bmn = f (x, y) sin x sin y dx dy
l1 l2 0 0 l1 l2
par analogie, nous pouvons écrire la série de Fourier en cosinus. De tels résultats peuvent être obtenus pour les
fonctions de plusieurs variables supérieures à 2.

58
Chapitre 4

TRANSFORMATION DE FOURIER

Dans les études sur les transformations en séries trigonométriques de FOURIER il a été question de la théorie
et application du développement d’une fonction f (x) de période 2l en série de FOURIER . Maintenant, la question
est de savoir ce qui se passe quant l tend vers l’infini.
Au cours de ce qui va suivre nous allons montrer que la série de FOURIER devient l’intégrale de Fourier.

4.1 l’Intégrale de Fourier


Nous commençons cette partie par le théorème suivant.
Theorem 4. Supposons que f satisfasse les conditions suivantes :
1 f (x) et f 0 (x)
R ∞sont continues par morceaux dans tout intervalle fini.
2 l’intégrale −∞ f (x) dx converge c’est-à-dire est absolument intégrable dans ] − ∞, ∞[ ou bien f (x) ∈ L1 ,
alors Z ∞
f (x) = {A(α) cos αx + B(α) sin αx} dx (∗)
0
où Z ∞ Z ∞
1 1
A(α) = f (x) cos αx dx, B(α) = f (x) sin αx dx (∗∗)
π −∞ π −∞

Le résultat (∗) est vrai si x est un point de continuité de f (x). Dans le cas contraire, nous devons remplacer
f (x) par f (x+0)+f
2
(x−0)
comme nous l’avons fait dans le cas des séries de Fourier
Remark 7. Les conditions ci-dessus sont suffisantes mais pas nécéssaires. La similitude entre (∗) et (∗∗) et les
résultats correspondant dans le cas des séries de FOURIER est évidente et le membre de droite de (∗) est parfois
appelé développement en intégrale de FOURIER de f (x).

4.2 Formes équivalentes des énoncés du théorème de l’intégrale de


FOURIER
Theorem 5. Le théorème de l’intégrale de FOURIER peut être énoncé de la manière suivante :
1 ∞
Z Z ∞
f (x) = f (u) cos α(x − u) dx dα (∗ ∗ ∗)
π α=0 u=−∞
Z ∞Z ∞
1
f (x) = f (u)e−α(x−u) du dα
2π −∞ −∞
Z ∞ Z ∞
1
f (x) = eiαx dx f (u)e−iαu dx (∗ ∗ ∗∗)
2π −∞ −∞

59
f (x+0)+f (x−0)
où nous sous-entendons que lorsque f (x) n’est pas continue au point x on remplace f(x) par 2 .
Ces résultats peuvent être simplifiés si f (x) est unne fonction paire ou impaire et il vient
Z ∞ Z ∞
1
f (x) = sin αx dx f (u) sin αu dx si f est impaire
2π −∞ −∞
.
Z ∞ Z ∞
1
f (x) = cos αx dx f (u) cos αu dx si f est paire
2π −∞ −∞
.

4.3 Transformation de Fourier


R∞
L’intégrale −∞ f (u)e−iαu dx est appelée transformée de Fourier ou transformation de Fourier et l’intégrale
1
R∞
2π −∞
F (α)eiαu dx est appelée transformée inverse de Fourier ou transformation inverse de Fourier.

4.3.1 Transformée de Fourier en cosinus et sinus.


Si f (x) est fonction impaire, alors la transformée dérivante
Z ∞
Fs (α) = f (u) sin αu du est appelée transformée de Fourier en sinus et
0

Z ∞
f (x) = Fs (α) sin αu du est appelée transformée de Fourier en sinus inverse de Fs (α)
0

Si f (x) est une fonction paire, alors la transformée est la suivante :


Z ∞
Fc (α) = f (u) cos αu du est appelée transformée de Fourier en cosinus et
0

Z ∞
f (x) = Fc (α) sin αu du est appelée transformée de Fourier em cosinus inverst de Fc (α)
0

4.4 Identité de Parseval pour les intégrales de Fourier


Si F (α) et G(α) sont les transformations de Fourier des fonctions f (x) et g(x) alors l’intégrale :
Z ∞ Z ∞
1 ¯ dα
f (x)g(x) dx = F (α)G(α)
∞ 2π ∞

a un sens. La barre indique le terme complexe conjugué


Si f (x) = g(x) ⇒ F (α) = G(α), et l’intégrale devient
Z inf ty Z ∞
2 1
|f (x)| dx = |f (α)|2 dα
−∞ 2π −∞

Ces deux identités sont appelées identités de PARSEVAL pour les intégrales de Fourier
Exercice
Etablir les identités de PARSEVAL pour les cas de transformations de Fourier en sinus et en cosinus.

60
4.5 Convolution pour les intégrales de Fourier
La convolution de deux fonctions f et g est définie par :
Z ∞
f ∗g = f (u)g(x − u) du
−∞

On montre que

F (f ∗ g) = F (f ).f (g), f ∗ g = g ∗ f, f ∗ (g ∗ h) = (f ∗ g) ∗ h, f ∗ (g + h) = f ∗ g + g ∗ h.

Exemple Trouver la transformée de Fourier de



1 |x| < a
f (x) =
0 |x| > a
∞ a
e−iαu eiαa − e−iαa
Z
sin αa
F (α) = f (u)e−iαu du = = =2 , α 6= 0.
−∞ −iα −a iα a
Si α 6= 0 il vient F (α) = 2α.

4.6 Proprietes des transformées de Fourier

∂v ∂2v ∂v ∂F (v)
F( ) = iαF (v), F ( 2 ) = −α2 F (v), F ( ) = ( ,
∂x ∂x ∂t ∂t
Z ∞ Z ∞
∂v ∂v ∞
F( ) = dx = e−iαx v −∞ + iα ve−iαx dx,
∂x −∞ ∂x −∞

∂2v
F( ) = −α2 F (α),
∂x2
∂w ∂2w ∂w
v= , F( ) = iαF ( ) = (iα)2 F (w).
∂x ∂x ∂x
On peut généraliser
∂nv
 
F = (iα)n F (v).
∂xn
Z ∞ Z ∞
∂v ∂v −iαx ∂ ∂
F( )= e dx = ve−iαx dx = F (v)
∂t −∞ ∂t ∂t −∞ ∂t

4.7 Exemple de solution utilisant la transformée de Fourier


1) Considérons l’équation de propagation de la chaleur avec conditions initiales

∂u ∂2u
= k 2, u(x, 0) = f (x), |u(x, t)| < M, où − ∞ < x < ∞.
∂t ∂x
2) Donner l’interprétation physique
Solution 1) En prenant la transformée se part et d’autres de cette égalité, il vient :

∂û
= −kα2 û.
∂t

61
2
En résolvant cette équation, il vient : û = Ce−kα t ,
2
û = F (u(x, t)) = Ce−kα t .

Pour t = 0, on a : F (u(x, 0)) = C = F (f (x)).


D’où la solution 2
ū = F (u(x, t)) = F (f (x))e−kα t .
D’autre part (r )
−kα2 t 1 −(x2 /4kt)
e =F e
4πkt
(r )
1 −(x2 /4kt)
⇒ ū = F (f (x))F e
4πkt
En appliquant le théorème de convolution, il vent :
r
1
u(x, t) = f (x) ∗ e − (x2 /4kt)
4πkt

Z r
1 −(x2 /4kt)
⇒ u(x, t) = f (u) e dx (#)
−∞ 4πkt
(x−u)2 x−u
Si nous opérons un changement de variable u = f (z) définie par 4kt = z 2 ou √
2 kt
= z, l’expression (#) devient

1
Z ∞
2 √
u(x, t) = √ e−z f (x − 2z kt) dz.
π −∞

2) L’interprétation physique du problème revient à déterminer la température d’une barre mince et infinie dont
la surface est isolée et la température initiale est f (x).

4.8 Méthode de séparation des variables (Méthode de Fourier) pour


l’équation des ondes.
Une méthode répandue dans la résolution des problèmes aux limites des équations aux dérivées partielles est la
méthode de Fourier de séparation des variables. Nous allons aborder cette méthode à partir de deux exemples.

4.8.1 Problème aux limites de l’équation de la corde vibrante


Soit donnée l’équation
∂2u ∂2u
= , x ∈ (0, l), t > 0, (4.1)
∂t2 ∂x2
avec les données limites homogènes
u(t, 0) = u(t, l) = 0, (4.2)
et les conditions initiales non homogènes

∂u
u(0, x) = ϕ(x), = ψ, 0 ≤ x ≤ l. (4.3)
∂t t=0

L’équation (4.1) est linéaire et homogène, c’est pourquoi la somme des solutions particulières sera toujours une
solution de cette équation.
Cherchons une solution non triviale c’est-à-dire non nulle s’écrivant comme produit de deux fonctions :

62
u(x, t) = T (t)X(x) (4.4)
où T dépend de t et X de x.
D’autre part, nous allons rechercher cette solution telle qu’elle puisse vérifier la condition limite (4.2). Substituons
la partie droite de (4.4) à la place de u(t, x) dans (4.1) on a :

X 00 T = T 00 X,

ou bien après division par XT


X 00 (x) T 00 (t)
= . (4.5)
X(x) T (t)
La partie gauche de cette égalité ne dépend pas de t et la partie droite ne dépend pas de x. Ainsi, nous obtenons
ainsi l’égalité de deux fonctions de variables différentes :

X 00 (x) T 00 (t)
= = −λ.
X(x) T (t)
(Dans la suite nous allons montrer que cette constante est réelle).
De la relation précédente il vient que :

X 00 (x) + λX(x) = 0, (4.6)


00
T (t) + λT (t) = 0. (4.7)

Pour définir les fonctions X(x) et T (t), les conditions aux limites (4.2) donnent

u(t, 0) = X(0)T (t) = 0,


u(t, l) = X(l)T (t) = 0.

Il vient que la fonction X(x) devrait vérifier les conditions aux limites

X(0) = 0, X(l) = 0. (4.20 )

Si non on avait T (t) = 0 c’est-à-dire u(t, x) = 0 et nous cherchons la solution non triviale. Ainsi nous sommes
arrivés au problèmes des valeurs propres.
Nous devons chercher le nombre λ appelé solution propre et nous devons rechercher cette solution. Le problème
posé est celui de STURM-LIOUVILLE.
Ici nous allons considérer trois cas :
λ < 0, λ = 0, λ > 0.
1) Si λ < 0, Le problème n’admet pas de solution non triviale ; effectivement, la solution générale est
√ √
−λx
X(x) = C1 e + C2 e− −λx

et les conditions aux limites donnent


√ √
−λl
C1 + C2 = 0, C1 e + C 2 e− −λl

ie √ √
−λl
C1 = −C2 , C1 ( −e− −λl
) = 0 =⇒ C1 = 0, C2 = 0, careα − e−α6=0 , ∀α ∈ R
Ainsi,
X(x) ≡ 0,
2) Si λ > 0, la solution générale contient des exposants imaginaire ; c’est pourquoi nous pouvons l’écrire
√ √
X(x) = C1 cos λx + C2 sin λx

63

√ la condition X(0) = 0, il faut que C1 = 0. Alors la condition X(l) entraine que C2 sin
Pour vérifier λl = 0, ou
encore sin λl = 0√(car si C2 = 0, nous obtenons
√ une solution triviale).
L’équation sin λl = 0 est vérifiée si l λ ie

n2 π 2
λ= , avec n 6= 0, comme nous avions supposé que λ 6= 0.
l2
Pour les n négatifs, λ prend les mêmes valeurs que les n positifs. C’est pourquoi toutes les valeurs λ pour
lesquelles l’équation (4.6) admet une solution non triviale vérifiant la condition limite (4.2’) donne la formule

n2 π 2
λn = , n = 1, 2, 3, ...
l2
Ainsi nous avions trouvé les valeurs propres posées pour le probl‘eme. A ces valeurs propres correspondent les
fonctions propres

Xn (x) = C2 sin
x,
l
vue par l’équation (4.6), les fonctions propres se définissent à une constante près positive sur nous pouvons poser
égale à 1, ou bien la choisir telle que la fonction propre Xn (x) vérifie une condtion supplémentaire appelée condition
de normalité. Il est nécessaire d’introduire la norme telle que
Z l
Xn2 (x) dx = 1.
0

Ceci montre que r


2
C2 = .
l
En effet, nous avons
l
1 − cos 2nπ
Z l Z l
l x
Z
nπ 2 l
Xn2 (x) dx = sin x dx = C22 dx = C22 = 1.
0 0 l 0 2 2

Dans la suite,pour ne pas écrire la norme, on pose C2 = 1


Maintenant, occupons nous de l’équation posée au départ (4.1)-(4.3). Substituons dans l’équation (4.7) (pour la
fonction T (t)) la valeur λ trouvée. Il vient :

n2 π 2
Tn00 + Tn = 0.
l2
Après résolution, nous avons :
nπ nπ
Tn (t) = An cos t + Bn sin t,
l l
où An et Bn sont des coefficients.
Posons
nπ nπ nπ
un (t, x) = Xn (x)T (t) = (An cos t + Bn sin t) sin x
l l l
qui vérifie l’équation (4.1) et les conditions aux limites en (4.2) pour tout An P et Bn constantes. En vertu de la

linéarité et de l’homogénéité de l’équation, la somme des solutions particulières n=1 un (t, x) est aussi solution de
cette équation.
Essayons de définir les constantes An ,Bn telle que la série infinie
∞ ∞
X X nπ nπ nπ
u(t, x) = un (t, x) = (An cos t + Bn sin t) sin x (4.8)
n=1 n=1
l l l

64
vérifie aussi l’équation (4.1) et les conditions limites (4.2) et les conditions initiales (4.3), commençons avec les
conditions initiales.

X nπ
u(0, x) = An sin x = ϕ(x) (4.9)
n=1
l

d’autres part, si l’on pouvait différencier la série (4.8) membre par membre, nous aurions :

∂u(t, x) X nπ nπ
= Bn sin x = ψ(x). (4.10)
∂t
t=0 n=1
l l

Supposons que les fonctions ϕ et ψ peuvent être décomposées uniformément et absolument en séries convergentes
en sin nπ
l x dans le segment [0, l]. Dans la théorie des séries trigonométriques nous savons que ceci n’est possible
que si les fonctions ϕ(x) et ψ(x) sont continues ensemble avec leur dérivées premières et que ϕ(0) = ϕ(l) = 0,
ψ(0) = ψ(l) = 0, c’est-à-dire à l’extremité du segment, ces fonctions deviennent nulles. Supposons que les conditions
précédentes sont vérifiées alors nous aurons :
∞ Z l
X nπ 2 nπ
ϕ(x) = ϕn sin x, ϕn = ϕ(ζ) sin ζ dζ,
n=1
l l 0 l

∞ Z l
X nπ 2 nπ
ψ(x) = ψn sin x, ψn = ψ(ζ) sin ζ dζ.
n=1
l l 0 l

Les séries pour ϕ(x) et ψ(x) sont absolument et uniformément convergentes. Si l’on compare ces séries avec les
formules (4.9), (4.10) et (4.8), on peut différencier en membre par t, ainsi pour que les conditions initiales soient
vérifiées, il faut poser
l
An = ϕn , Bn = ψn .

ainsi la solution de l’équation (4.1)-(4.3) sera :

X nπ l nπ nπ
u(t, x) = (ϕn cos t+ ψn sin t) sin x. (4.11)
n=1
l nπ l l

4.9 Méthode de séparation des variables pour la résolution de l’équa-


tion de propagation de la Chaleur.
Pour la résolution du problème de propagation de la chaleur à travers une barre limitée on peut aussi utiliser la
méthode de séparation des variables que nous avons déjà étudié dans le cas de la corde vibrante.
Cherchons la solution de l’équation de propagation de la chaleur.

∂u ∂2u
= a2 2 , où u(x, t) ∈ Q = {x, t : 0 < x < l, 0 < t < T } (4.12)
∂t ∂x
avec condition initiale
u(0, x) = ϕ, (4.13)
et condition limite
u(t, 0) = u(t, l) = 0 (4.14)
En utilisant la méthode de séparation de variables nous obtenons :

1 T 0 (t) X 00 (x)
u(t, x) = T (t)X(x), = = −λ.
a2 T (t) X(x)

65
X 00 (x) + λX(x) = 0, T 0 (t) + a2 λT (t) = 0. (4.15)
Nous obtenons une fois de plus , le problème aux valeurs propres X 00 + λX = 0 avec X(0), X(l) = 0, que avions
déjà résolu.
 nπ 2 nπ
λ= , Xn (x) = sin x.
l l
Des valeurs de λn , correspondent les solutions de la deuxième équation de (4.15) :
2
Tn (t) = Cn e−a λn t
.

Ainsi nous obtenons la solution particulière de l’équation de propagation de la chaleur avec les données initiales
de la forme
2 nπ
un (t, x) = Cn e−a λn t
sin x.
l
Pour vérifier la condition initiale, établissons la série :
∞ ∞
X X 2 nπ
u(t, x) = un (t, x) = Cn e−a λn t
sin x. (4.16)
n=1 n=1
l

A partir de la condition initiale, déterminons les coefficients Cn à partir des coefficients de Fourier de la fonction
initiale ϕ(x).
Nous avons :

X nπ
u(0, x) = Cn sin x,
n=1
l
c’est-à-dire Cn est le coefficient de Fourier de la fonction ϕ par la décomposition en série de Fourier en sinus.
Z l
2 nπ
Cn = ϕn = ϕ(ζ) sin ζ dζ. (4.17)
l 0 l

pour achever la résolution du problème nous devons montrer que la série en (4.16) avec Cn définie par la formule
(4.17) converge uniformément avec la dérivée seconde par rapport à x et à la dérivée première par rapport à t (
c’est pour que la série (4.16) vérifie l’équation initiale (4.12)).
Si ϕ est continue et dérivable par morceaux et vérifie la condition ϕ(0) = ϕ(l) = 0, alors la série (4.16) converge
absolument et uniformément dans Q̄ = {x, t tel que 0 ≤ x ≤ l et 0 ≤ t ≤ T } c’est-à-dire définit une fonction
continu dans Q̄.
Dans la suite, il reste à montrer que la série obtenue peut être dérivée membre à membre c’est-à-dire qu’elle
vérifie l’équation de propagation de la Chaleur. Montrons que la série (4.16) pour t ≥ t0 > 0 peut être dérivée
membre à membre par rapport à t et x plusieurs fois pour tout t0 > 0. En addition, toute les séries obtenues sont
convergentes (convergence uniforme) ainsi dans ce cas les propriétés de la solution de l’équation de propagation de la
chaleur diffèrent de celle de la corde vibrante. Ceci tout simplement parce que dans la solution en S, l’exponentielle
est présente et élevée à la puissance négative (pour t ≥ t0 > 0). C’est pourquoi la série majorante

X ∞
X   nπ 2 
αn = Mnq exp −a2 t0
n=1 n=1
l

converge toujours ; ce dont nous pouvons vérifier par le critère de D’Alembert


 q − π22 a2 (n2 +2n+1)t0  q
αn+1 n+1 e l 1 2
− πl2 a2 (2n+1)t0
lim
= lim 2 = lim 1 + e
n→∞ αn n→∞ n π 2 2
e− l2 a n t0 n→∞ n

66
Ainsi, nous avons montré que si ϕ(x) ∈ C 1 (Q̄) où Q̄ = {x, t : 0 ≤ x ≤ l, t ≥ 0}, ϕ̄0 continue par morceau
ϕ(0) = ϕ(l) = 0, alors il existe une solution unique du problème

∂u ∂2u
= a2 2 , (x, t) ∈ Q, u(0, x) = ϕ(x), u(t, 0) = u(t, l) = 0
∂t ∂x
continu dans le domaine Q̄ et vérifiant l’équation donnée à l’intérieur de Q. Cette solution se presente sous la forme
de série

nπ 2 2 nπ
Cn e−( l ) a t sin
X
u(t, x) = x. (4.18)
n=1
l

La solution (4.18) est infiniment dérivable par rapport à t et x pour t > 0.

4.10 Transformation de Fourier en dimension n.


Nous allons désigner par R2 , un espace euclidien de dimension n à chaque point x on désigne ces coordonnées
cartésiennes par (x1 , x2 , x3 , ..., xn ). On désignera par Dm (R) qui sont n fois dérivables et prennent la valeur 0 dans
une certaine boule. Soit α = (α1 , ..., αn ) avec des composantes αi > 0, ∀i à travers Dα f (x) la dérivée de f (x) telle
que |α| = α1 + ... + α2 ,

∂ |α| f (x1 , ..., xn )


Dα f (x) =
∂xα α2
1 ∂x2 ...∂xn
1 αn

La transformée de Fourier de la fonction f (x) où x est pris dans Rn est définie par
Z
fˆ(ζ) = e−i(x,ζ) f (x) dx (4.19)
Rn

avec (x, ζ) = hx, ζi produit scalaire


La fonction fˆ(ζ) peut ne pas être absolument convergente dans Rn , c’est pourquoi il est nécessaire d’expliquer
dans quel sens il faut comprendre l’intégrale (4.19).

67
Chapitre 5

SUR LES OPÉRATEURS LINÉAIRES


BORNÉS OU NON DANS LES
ESPACES DE HILBERT.

5.1 INTRODUCTION
Dans ce cours nous allons nous limiter au cas simple de la théorie des opérateurs. En effet, dans le cours d’analyse
fonctionnelle, on définit l’opérateur borné dans un ensemble D(A) d’un espace de Hilbert H qui fait correspondre
chaque élément u ∈ D(A) un certain élément v ∈ H tel v = Au si dans D(A) on a : A(λu1 + µu2 ) = λAu1 + µAu2
alors l’opérateur A est dit linéaire en plus, nous supposons que D(A) est un ensemble linéaire dense dans H s’il
existe une constante C telle que ||Au|| ≤ C||u|| (#) pour tout u dans A où la norme est prise dans H, alors A est
opérateur borné dans A.
Dans le cours général d’analyse fonctionnelle, nous notons que l’opérateur borné peut être défini dans tout H
avec conservation de l’inégalité (#) le plus petit C telle que (#) soit vérifié est appelé norme de A et noté ||A||.

||Au||
||A|| = sup .
u∈H, u6=0 ||u||

Le grand intérêt représente deux classes d’opérateurs bornés


— Opérateur compact ou complètement continu
— Opérateur auto adjoint

Definition 11. L’opérateur normé est auto adjoint si et seulement si (Au, v) = (u, Av) ∀u, v ∈ H.
Definition 12. l’opérateur A est compact s’il transforme tout ensemble borné en un compact.
Dans la théorie des équations différentielles nous avons affaire aux opérateurs non bornés c’est-à-dire pour
lesquels il n’existe pas de constances C telles que l’inégalité (#) soit vérifiée. Les opérateurs non bornés ne sont pas
généralement définis pour tous les éléments de H.
considérons comme exemple l’opérateur A défini avec l’expression différentielle
d2 ∞
A = dx 2 avec pour domaine de définition C ([0, 1])
Montrons que A est non borné.
pour cela considérons la suite
Un (x) = sin nπx.
d2
AUn = sin nπx.
dx2

68
D’autre part ;
! 12
Z l  
1 sin nπ
||Un || = Un2 = −
0 2 4nπ
1
||Un || → √ , n → +∞,
2
||Au||
= (nπ)2 → ∞.
||u||
l’opérateur est non borné.
Dans la définition d’un opérateur, il faut obligatoirement donner son domaine de définition puisque l’opérateur
non borné n’est pas définit dans tout H.
Ainsi l’opérateur différentiel A peut être défini dans C 0,∞ ([0, , 1]) ou dans C ∞ ([0, , 1]), f (0) = f (1) et x ∈
F (I) ⇒ f (x) = 0 et nous obtenons deux opérateurs A et A0 comme D(A0 ) inclut dans D(A).
A est appelée extension de A0

Remark 8. Le définition de l’opérateur différentiel peut être choisie de différentes manières et à chaque fois nous
obtenons un nouvel opérateur non borné en général avec d’autres propriétés.
.
Exemple
pour l’opérateur différentiel A0 avec pour domaine de définition D(A0 ) = C 0,∞ ([0, , 1]) la relation suivante est
vérifiée : Z 1 2
0 d u
(A u, v) = 2
v dx = (u, A0 v), ∀u, v ∈ D(A0 ). (5.1)
0 dx

Alors A0 est appelée opérateur symétrique. Mais la relation (5.1) n’est pas vérifiée car
1  1  1
d2 u
Z
0 du dv
(A u, v) = v dx = (u, Av) + − u .
0 dx2 dx 0 dx 0
Dans la théorie des opérateurs non bornés on note une classe importante d’opérateurs : les opérateurs auto-
adjoints mais l’étude de leurs propriétés pour les besoins des EDP est un problème généralement compliqué. Justi-
fions cette idée.
Puisque l’opérateur non borné est défini non dans tout H alors il apparaît le problème de la fermeture de
L’opérateur. Soit A un opérateur défini dans un ensemble dense D(A) contenu dans H (dans le cas d’un opérateur
différentiel) comme ensemble dense on peut prendre les fonctions dérivables avec ou sans conditions limites et comme
H prendre L2 (Ω).

5.2 Définition d’un opérateur fermé.


L’opérateur A est appelé opérateur fermé si de l’existence des limites lim Un (x) = U (x), et lim AUn = f (x) pour
un (x) dans D(A).
Alors U (x) ∈ D(A) et f (x) = AU (x) c’est-à-dire lim AUn (x) = AU (x).
Il est clair que les opérateurs bornés c’est-à-dire continus sont toujours des opérateurs fermés mais la réciproque
n’est vraie. Si A n’est pas fermé, mais pour différentes suites {Un }, {Vn } ⊂ D(A) et convergent vers la même limite
alors les suites {AUn } et {AVn } ne peuvent pas converger vers de limites différentes, alors l’opérateur A admet une
extension fermée. De toutes extensions, on note l’extension fermée minimale par Ā et sera appelée la fermeture de
l’opérateur A. Pour obtenir Ā, il faut adjoindre à D(A) tous les éléments U ∈ D(A) ¯ (fermeture du domaine de
définition de A qui est dense dans H) que l’on peut approximer par des éléments Un ∈ D(A)qui tendent vers U et
pour lesquels AUn (x) converge et l’on peut poser que

ĀU = lim AUn .


n→∞

69
5.3 Définition de l’opérateur adjoint pour l’opérateur non borné.
Soit A un opérateur quelconque de domaine de définition D(A) qui est dense dans H. L’opérateur A∗ vérifiant la
relation (Au, v) = (u, A∗ v) pour tout u, v dans D(A) est appelé opérateur adjoint à A. On note que A∗ est toujours
fermé et même pour un opérateur non fermé A.

5.4 Définition de l’opérateur Auto-adjoint pour l’opérateur non borné.


L’opérateur A est appelé auto-adjoint s’il coïncide avec son opérateur adjoint. En d’autres termes :
- D(A) = D(A∗ ),
- (Au, v) = (u, Av) pour u, v dans D(A)
Exemple
π
Utt − 2Ut = Uxx + 4t(sin 2x − x) + et sin x, 0 < x < ,
2
π 2
U (0, t) = 0; Ux ( , t) = t , U (x, 0) = 0, Ut (x, 0) = sin x.
2
Ici il faut rendre homogène les conditions aux limites. Posons V (x, t) = U (x, t) − xt2 ; on a :
π
V (0, t) = 0 = Vx ( , t), U (x, t) = V (x, t) + xt2 , Utt = Vtt + 2x, Uxx = Vxx .
2
En substituant le tout dans l’équation de départ on obtient :

Vtt + 2x − 2(Vt + 2tx) = Vxx + 4t(sin 2x − x) + et sin x,

c’est-à-dire
Vtt + 2z − Vt = Vxx + 4t sin 2x + et sin x.
Les conditions initiales et limites nous donnent
π
V (0, t) = 0, Vx ( , t) = 0, V (x, 0) = 0, Vt (x, 0) = sin x.
2
Soit
d2
A= ,
dx2
π π
D(A) = {X, X ∈ C 2 ([0, ]), X(0) = 0; X( ) = 0}.
2 2
π π Z π2
d2 u d2 v
Z Z
2 2 du dv
(Au, v) = dx = − dx = u 2 dx = (u, Av).
0 dx2 0 dx dx 0 dx
donc A symétrique et par conséquent ses valeurs propres sont réelles.
Cherchons le signe des valeurs propres.
On a : √ √
Xn (n) = C1 cos −λx + C2 sin −λx,
D’où Xn (0) = 0 ⇒ C1 = 0, et
π √ π π
Xn ( ) = 0 → cos −λ = cos(2n + 1) .
2 2 2
D’où λ = −(2n + 1) et nous pouvons poser C2 = 1. Alors Xn (x) = sin(2n + 1)x, L2 = ([0, π2 ]).
En pré-multipliant scalairement par Xn l’équation en V (x, t) il vient :

(Vtt + 2x − 2Vt , Xn ) = (Vxx + 4t sin 2x + et sin x, Xn )

Tn00 (t)||Xn ||2 + 2(x, Xn ) − 2Tn0 (t)||Xn ||2 = Tn (t)λ||Xn ||2 + 4t(sin 2x, Xn ) + et (sin x, Xn )

70
(x, Xn ) (sin 2x, Xn )
⇒ Tn00 (t) + 2 − 2Tn0 (t) = λTn (t) + 4t + et δ0n .
||Xn ||2 ||Xn ||2
Or Tn (0) = 0, Tn0 (0) = δ0n . Pour n = 0, on a :

(x, sin x) (sin 2x, sin x)


T000 + 8 2
− 2T00 = −T0 + 16t + et
π π2
Pour n 6= 0, nous avons :

(x, sin(2n + 1)x) (sin 2x, sin(2n + 1)x)


Tn00 + 8 2
− 2Tn0 = −(2n + 1)2 Tn + 16t .
π π2
Sachant que Tn (0) = 0 et Tn0 (0) = 0, la solution est :

X
U (x, t) = Tn (t)Xn (t) + X0 T0 .
n=1

71
Chapitre 6

TRANSFORMATION DE LAPLACE

6.1 Introduction
A l’heure actuelle , le calcul opérationnel ou symbolique est l’un des domaines important de l’analyse mathéma-
tique. En physique, en mécanique, en électrotechnique et bien d’autres domaines de la science, on utilise d’autres
méthodes du calcul opérationnel pour la résolution de différents problèmes .
Le calcul opérationnel a trouver une application particulièrement large dans la technologie de l’automation et
des télécommunications.
Dans ce chapitre, nous allons exposer les notions fondamentales du calcul opérationnel, ainsi que les méthodes
de son application à la résolution des équations différentielles ordinaires.

6.2 Original et image


Soit donnée une fonction de variables réelles t, définie pour t ≥ 0 (parfois , nous estimerons que la fonction f (t)
est définie dans un intervalle infini avec f (t) = 0 pour t < 0). Nous allons supposer que la fonction f (t) est continue
par morceau ou par tranche c’est-à-dire dans chaque intervalle infini, elle possède un nombre fini de discontinuité
de premières espèces. Pour assurer l’existence de certaines intégrales dans [0, ∞[, nous imposerons précisément qu’il
existe des nombres positifs constants M et s0 tels que :

|f (t) < |M es0 t , (6.1)

pour toute valeur de t prise dans l’intervalle [0, ∞[.


Considérons le produit de f (t) par la fonction complexe e−pt de variable réelle t et p = a + ib, (a > 0) et nous
aurons comme fonction complexe :
e−pt f (t). (6.2)
La fonction en (6.2) est aussi une fonction complexe de variable réelle t :

e−pt f (t) = e−(a+ib)t f (t) = e−at f (t)e−ibt


= e−at f (t) cos bt − ie−at f (t) sin bt.

Considérons l’intégrale impropre :


Z ∞ Z ∞ Z ∞
e−pt f (t) dt = e−at f (t) cos bt dt − i e−at f (t) sin bt dt (6.3)
0 0 0

Montrons que la fonction f (t) vérifie la condition (6.1) et a > s0 , alors les intégrales du second membre de
l’égalité en (6.3) existent et la convergence de ces intégrales est absolue. Estimons d’abord la première termes de
ces intégrales :

72
Z ∞ Z ∞ Z ∞
| e−at f (t) cos bt dt| ≤ |e−at f (t) cos bt dt| < M e−at es0 t dt
0 0 0
Z ∞
= M e−(a+s0 )t dt
0
M
=
a − s0
On estime de même la seconde intégrale. Ainsi existe, elle définit une certaine fonction de p que nous allons
désigner par F (p) : Z ∞
F (p) e−pt f (t) dt (6.4)
0
La fonction F (p) est appelée transformation de Laplace ou l’image de f (t). La fonction f (t) est appelée Original
ou fonction objet de F (t). Le fait que F (p) soit l’image de f (t) est notée de la manière suivante :

F (p) −→ f (t), (6.5)


f (t) ←− F (p), (6.6)
L{f (t)} = F (p) (6.7)
Theorem 6. D’unicité :
Si deux fonctions continues ϕ(t) et ψ(t) possèdent une même image, alors ces deux fonctions sont identiquement
égales.

6.3 Image des fonctions particulières


I- La fonction ainsi définie
f (t) = 1 pour t ≥ 0,
f (t) = 0 pour t<0
est appelée fonction de Heaviside et notée σ0 (t). Le graphique de cette fonction est :

Trouvons l’image Lde la fonction de Heaviside.


Z ∞ ∞
−pt e−pt 1
L{σ0 (t)} = e dt = − = p. (6.8)
0 p 0

On peut donc noter


1
1 ←− ou plus exactement
p
1
σ0 (t) ←− .
p

73
II- Soit f (x) = sin t, on a
∞ ∞
(−p sin t − cos t)
Z
−pt −pt 1
L{sin t} = e sin t dt = e = 1 + p2 .
0 p2 + 1 0

Ainsi,
1
sin t ←− . (6.9)
p2 +1
III-f (t) = cos t ∞

(sin t − p cos t)
Z
−pt −pt p
L{cos t} = e cos t dt = e 2
= .
0 p +1
0 1 + p2
Ainsi,
p
cos t ←− . (6.10)
p2 +1

6.4 Images des Fonctions à l’échelle modifiée de la variable Indépen-


dante : Images des fonctions cos at, sin at
Considérons la fonction f (at) où a > 0, on se propose de calculer sa transformée de Laplace :
Z ∞
L{f (at)} = e−pt f (at) dt.
0

Effectuons un changement de variables dans la seconde intégrale en posant z = at ; par conséquent dz = adt.
Nous avons alors
1 ∞ −pz
Z
L{f (at)} = e a f (z) dz,
a 0
ou
1 p
L{f (at)} = F ( )
a a
Ainsi si F (p) −→ f (t),
(6.11)
alors a1 F ( ap ) −→ f (at).
Exemple 1 : Nous obtenons immédiatement de la formule (6.9), en vertu de (6.11) :
1 1 a
sin at ←− ou sin at ←− . (6.12)
a ( p 2) + 1 p2 + a2
a

Exemple 2 : Nous obtenons immédiatement de la formule (6.10), en vertu de (6.11) :


1
1 a p
cos at ←− p 2 ou cos at ←− . (6.13)
a( )+1 p2 + a2
a

6.5 Propriétés de la linéarité de l’image


Theorem 7. L’image de la somme de plusieurs fonctions multipliées par des constantes est égale à la somme des
images de ces fonctions multipliées par les constances correspondantes. Autrement dit, si :
n
X
f (t) = ci fi (t), (ci = cte), F (p) −→ f (t), Fi (p) −→ fi (t) (6.14)
i=1

alors
n
X
F (p) = ci Fi (p) (6.14)0
i=1

74
Exemple 1 : Trouver l’image de la fonction f (t) = 3 sin 4t − 2 cos 5t.
Solution En vertu des formules (6.12), (6.13) et (6.14)’ nous obtenons
4 p 12 2p
L{f (t)} = 3 −2 2 = 2 − 2
p2 +1 6 p +2 5 p +1 6 p +1 6
Exemple 2 : Trouver l’original dont l’image est donnée par l’expression
5 20p
F (p) = + 2 .
p2 +4 p +9

Solution représentons F (p) de la manière suivante :


5 2 p
F (p) = + 20 2
2 p2 + (2)2 p + (3)2
En vertu des formules (6.12), (6.13) et (6.14)’ nous obtenons
5
f (t) = sin 2t + 20 cos t.
2

6.6 Théorème du déplacement


Theorem 8. Si F (p) est l’image de f (t), alors F (p + α) sera l’image de e−αt f (t),
Autrement dit,
si F (p) −→ f (t),
(6.15)
alors F (p + α) −→ e−αt f (t).
Nous supposons ici que Re(p + α > s0 ).
Preuve : Trouvons donc l’image de e−αt f (t).
Z ∞ Z ∞
−αt
L{e f (t).} = e pt−αt
f (t) dt = e−(p+αt) f (t) dt.
0 0

Ainsi L{e−αt f (t).} = F (p + α).


Ce théorème démontré, élargi notablement la classe des images pour lesquelles l’original peut être aisément
retrouvé.

6.7 Image de fonctions e−αt , sinh αt ; cosh αt, e−αt sin at et e−αt cos at
Il découle de la formule (6.8) en vertu de la formule (6.15) que
1
−→ e−αt (6.16)
p+α
1
−→ eαt (6.16)0
p−α
Retranchant (6.16) de (6.16)’, il vient :
 
1 1 1 1
− −→ (e−αt − eαt )
2 p+α p−α 2
ou
α
−→ sinh αt. (6.17)
p2 − α2

75
En faisant la somme de (6.16) et (6.16)’, on obtient
p
−→ cosh αt. (6.18)
p2 − α2

Il en découle de la formule (6.12) en vertu de la formule en (6.15) que :


a
−→ e−αt sin at. (6.19)
(p + α)2 + a2

De la formule (6.13) en vertu de la formule en (6.15) il découle :


p+α
−→ e−αt cos at. (6.20)
(p + α)2 + a2

Exemple 1 : Trouver l’original si l’image est donnée par la formule


7
F (p) =
p2 + 10p + 41

Solution : Transformons F (P ) de façon à lui donner la formule de l’expression du premier membre de la relation
(6.19) :
7 7 7 4
2
= 2
=
p + 10p + 41 (p + 5) + 16 4 (p + 5)2 + 42
7 4
=⇒ F (p) =
4 (p + 5)2 + 42
Par conséquent, en vertu du de la formule (6.19),nous aurons
7 −5t
F (p) −→ e sin 4t.
4
Exemple 2 : trouver l’original si l’image est donnée par la formule :
p+3
F (p) =
p2 + 2p + 10

Solution : Transformons la fonction F (p).

p+3 (p + 1) + 2 (p + 1) 2 (p + 1) 2 3
= = + = + .
p2 + 2p + 10 (p + 1)2 + 9 (p + 1)2 + 9 (p + 1)2 + 9 (p + 1)2 + 32 3 (p + 1)2 + 32

En vertu des formules (6.19) et (6.20),nous trouvons l’original


2
F (p) −→ e−t + e−t sin 3t
3

6.8 Dérivation de l’image


Theorem 9.
dn F (p)
SiF (p) −→ f (t), alors(−1)n −→ tn f (t). (6.21)
dpn
La justification de cette écriture est due au fait que si f (t) vérifie la condition (6.1), alors l’intégrale
Z ∞
e−pt (−t)n f (t) dt existe (6.22)
0

76
Exemple 1 : Utilisation de la formule (6.22) pour trouver l’image de la fonction puissance.
Écrivons la formule (6.8) : p1 −→ 1
nous obtenons de cette formule en vertu de la formule (6.21)
d 1 1
(−1) ( ) −→ t ou 2 −→ t
dp p p

D’une manière analogue : p23 −→ t2 .


Pour un n quelconque, nous obtenons :
n!
−→ tn . (6.23)
pn+1
Exemple 2 : Nous tirons de la formule (6.12)
Z ∞
a
−→ e−pt sin at dt.
p2 + a2 0

Dérivons par rapport à p, on a :


2pa
−→ t sin at. (6.24)
(p2 + a2 )2
Exemple 3 : Nous obtenons de la formule (6.13) en vertu de la formule (6.21) :

−a2 − p2
−→ t cos at. (6.25)
(p2 + a2 )2
Exemple 4 : Nous obtenons de la formule (6.16) en vertu de la formule (6.21) :
1
−→ te−αt (6.26)
(p2 + α 2 )2

6.9 Image des dérivées


Theorem 10.
SiF (p) −→ f (t), alorspF (p) − f (0) −→ f 0 (t). (6.27)
Preuve : En vertu de la définition de l’image d’une fonction, nous pouvons écrire :
Z ∞
0
L{f (t)} = e−pt f 0 (t) dt. (6.28)
0

Nous supposons ici que toutes les dérivées f 0 , f 00 , f 000 , ..., f (n) que nous rencontrerons satisfont à la condition
(6.1) et par conséquent que l’intégrale en (6.28) et les intégrales analogues pour les dérivées successives existent.
Effectivement l’intégration par partie de l’intégrale du second membre de (6.28) nous donne :
Z ∞ Z ∞

L{f 0 (t)} = e−pt f 0 (t) dt = e−pt f (t) 0 + p = e−pt f (t) dt
0 0
R∞ −pt
Or d’après l’équation (6.1),on a : lim = 0 et 0
e (t) dt = F (p), c’est pourquoi :
t→∞

L{f 0 (t)} = pF (p) − f (0) −→ f 0 (t).

Ce qui achève la démonstration.


Considérons ensuite l’image des dérivées d’ordre quelconque, partant de la formule (6.27) l’expression P F (P ) −
f (0) en lieu et place de F (P ) et en remplaçant f (t) par f 0 (t) nous obtenons :

p[pF (p) − f (0)] − f 0 (0) −→ f 00 (t).

77
En ouvrant les parenthèses,
p2 F (p) − pf (0) − f 0 (0) −→ f 00 (t). (6.29)
l’image de la dérivée d’ordre n sera :

pn F (p) − [pn−1 f (0) + pn−2 f 0 (0) + ... + pf (n−2) (0) + f (n−1) (0)] −→ f (n) (t). (6.30)

Remark 9. Les formules (6.27), (6.29) et (6.30) se simplifient si f (0) = f 0 (0) = f 00 (0) = ... = f (n−1) (0) = 0.
Dans ce cas de figure,

F (p) −→ f (t)
pF (p) −→ f 0 (t)
n
p F (p) −→ f (n) (t)

6.10 Dictionnaire d’image


Pour faciliter l’utilisation des images obtenues , nous les résumons dans le tableau ci-dessous.
R∞
n0 F (p) = 0 e−pt f (t) dt f (t)
1
1 p 1
a
2 2
p +a 2 sin at
p
3 p2 +a2 cos at
1 −pt
4 p+α e
α
5 p2 −α2 sinh αt
p
6 p2 −α2 cosh αt
a −αt
7 2
(p+α) +a 2 e sin at
p+α −αt
8 (p+α)2 +a2 e cos at
n! n
9 pn+1 t
2pa
10 (p2 +a2 )2 t sin at
p2 −a2
11 (p2 +a2 )2 t cos at
12 1
(p+α)2 te−αt
1 1
13 (p2 +α2 )2 2a3 (sin at − at cos at)
n
14 (−1)n d dp F (p)
n tn f (t)
Rt
15 F1 (p)F2 (p) f1 (τ )f2 (t − τ ) dτ
0
R∞
Remark 10. Si nous prenons pour image de la fonction f (x) F ∗ (p) = p 0 e−pt f (t) dt, il convient dans les
formules 1 à 13 du tableau de multiplier des expressions de la dernière colonne par p. Quant aux formules 14 et 15,
elles seront d’une autre forme. Puisque F ∗ (p) = pF (p), en remplaçant dans le premier membre de la formule 14

F (p) par F p(p) et en multipliant p, nous obtenons 14’
n
 
n d F (p)
(−1) p n −→ tn f (t)
dp p
Partant dans le premier membre de 15
F1∗ (p) F2∗ (p)
F1 (p) = , et F2 (p) = ;
p p
et en multipliant par p, nous obtenons 15’ :
Z t
1 ∗
F (p)F2∗ (p) −→ f1 (τ )f2 (t − τ ) dτ .
p 1 0

78
6.11 Equation auxiliaire d’une équation différentielle donnée
Soit donnée une équation différentielle linéaire de n−ième ordre à coefficients constants a0 , a1 , ..., an :

dn x dn−1 x dx
a0 + a1 + ... + an−1 + an x(t) = f (t). (6.31)
dtn dtn−1 dt
On demande de trouver la solution x = x(t) pour t positif vérifiant les conditions
(n−1)
x(0) = x0 , x0 (0) = x00 , ... x(n−1) (0) = x0 . (6.32)

Pour le résoudre, nous cherchons d’abord la solution générale de l’équation (6.31) contenant n constantes arbi-
traires, ensuite nous déterminerons ces constantes de manière que les conditions en (6.32) soient vérifiées. Dans ce
cours, nous allons exposer une méthode plus simple de résolution de ce problème : La méthode de calcul opérationnel
encore appelée transformée ou transformation de LAPLACE. En effet, nous cherchons l’image L de la solution x(t)
de l’équation (6.21) vérifiant les conditions initiales en (6.32). Désignons cette image L par x̄(p) ; ainsi nous aurons

x̄(p) −→ x(t).

Supposons que l’image de la solution de l’équation (6.31) ainsi que ses dérivées jusqu’à l’ordre n inclue existent
(une fois la solution trouvée, nous pouvons vérifier la validité de cette supposition). Multiplions les deux membres
de l’égalité (6.31) par e−pt où p = a + ib et intégrons par rapport à t entre 0 et +∞.
Z ∞ Z ∞ Z ∞ Z ∞
dn x dn−1 x
a0 e−pt n dt + a1 e−pt n−1 dt + ... + an e−pt x(t) dt = e−pt f (t) dt. (6.33)
0 dt 0 dt 0 0

dans le premier membre de l’égalité, nous avons l’image L de f (t) que nous désignons par F (p). Par conséquent,
l’égalité (6.33) peut être mise sous la forme :
 n   n−1 
d x d x
a0 L n
+ a1 L n−1
+ ... + an L {x(t)} = L{f (t)}.
dt dt

Remplaçant dans cette égalité les images de la fonction et des ses dérivées par les expressions (6.27), (6.29) et
(6.30), nous obtenons :
(n−1) (n−2)
a0 {pn x̄(p) − [pn−1 x0 + pn−2 x00 + pn−3 x000 + ... + x0
]} + a1 {pn−1 x̄(p) − [pn−2 x0 + pn−3 x00 + ... + x0 ]} + ...
+an−1 {px̄(p) − x0 } + an x̄(p) = F (p)
(6.34)
L’équation (34) est appelée équation auxiliaire ou équation image . Dans cette équation, l’inconnue est l’image x̄(p)
que nous déterminerons à partir de cette équation. Transformons cette équation en laissant dans le premier membre
les termes contenant x̄(p). On a :
(n−1) (n−2)
x̄(p)[a0 pn + a1 p + ... + an−1 p + an ] − a0 [pn−1 x0 + pn−2 x00 + ... + x0 ] + a1 [pn−2 x0 + pn−3 x00 + ... + x0 ] +
... + an−2 [px0 + x00 ] + an−1 x0 = F (p).
(6.34)0

Le coefficient de x̄(p) dans le premier membre de (6.34)’ est un polynôme en p que l’on peut obtenir si dans
l’équation (6.31), on remplace les dérivées par les puissances correspondantes de P . désignons le par ϕn (p) :

ϕn = a0 pn + a1 pn−1 + ... + an−1 p + an . (6.35)

le second membre de (6.34)’ est ainsi composé


- Le coefficient an−1 est multiplié par x0 .
- Le coefficient an−2 est multiplié par P x0 + x00
- ...

79
(n−2)
- Le coefficient a1 est multiplié par pn−2 x0 + pn−3 x00 + ... + x0
(n−1)
- Le coefficient a0 est multiplié par pn−1 x0 + pn−2 x00 + ... + x0
On fait la somme de tous les ces produits e ton ajoute F (p) . Tous les termes du second membre de (6.34)0 excepté
F (p) constituent après regroupement de termes semblables un polynôme en p de dégré n − 1 dont les coefficients
sont connus . Désignons le par ψn−1 (p). Par conséquent l’équation (6.34)’ peut s’écrire :

x̄(p)ϕn (p) = ψn−1 (p) + F (p).

Nous determinons x̄(p) à partir de cette équation :

ψn−1 (p) F (p)


x̄(p) = + . (6.36)
ϕn (p) ϕn (p)

Il s’ensuit que x̄(p) ainsi déterminé est l’image de la fonction x(t) de (6.31) vérifiant les conditions initiales en (6.32).
Si maintenant nous trouvons une autre fonction x∗ (t) dont l’image est la fonction x̄(p) définie par l’égalité (6.36),
il découlera alors du théorème de l’unicité de la solution que x∗ (t) est la solution de l’équation (6.31) vérifiant les
conditions en (6.32), autrement dit
x∗ (t) = x(t)
. Si nous voulons trouver la solution de l’équation (6.31) pour les conditions initiales triviales (x0 = x00 = x000 = ... =
xn−1
0 = 0 , alors dans l’égalité (6.36), nous aurons ψn−1 = 0 et elle sera de la forme :

F (p)
x̄(p)
ϕn (p)

F (p)
ou x̄(p) = . (36)0
a0 pn + a1 pn−1 + ... + an
Exemple 1 : Trouver la solution de l’équation différentielle :
dx
+x=1
dt
vérifiant les conditions initiales : x = 0, pour t = 0.
Solution :
1 1
x̄(p)(p + 1) = 0 + ou x̄(p)
p (p + 1)p
Décomposons la fraction du second membre en éléments simples. Nous obtenons
1 1
x̄(p) = − .
p p+1
Utilisant les formules 1 et 4 du tableau, nous trouvons la solution :

x(t) = 1 − e−t

Exemple 2 : Trouver la solution de l’équation différentielle :

d2 x
+ 9x = 1
dt2
vérifiant les conditions initiales : x0 = x00 = 0, pour t = 0.
Solution : Écrivons l’équation auxiliaire (6.34’)
1 1
x̄(p)(p2 + 9) = ou x̄(p) = .
p p(p2 + 9)

80
Décomposant la fraction du second membre en éléments simples nous pouvons écrire :
− 91 p 1
9
x̄(p) = + .
p2 + 9 p
En vertu des formules9, 1 et 3 du tableau nous trouvons la solution
1 1
x(t) = − cos 3t + .
9 9
Exemple 3 : Trouver la solution de l’équation différentielle :
d2 x dx
+3 + 2x = t,
dt2 dt
vérifiant les conditions initiales : x0 = x00 = 0 pour t = 0.
Solution : Écrivons l’équation auxiliaire (6.34’)
1
x̄(p)(p2 + 3p + 2) =
p2
1 1
⇒ x̄(p) = = 2
p2 (p2
+ 3p + 2) p (p + 1)(p + 2)
Décomposant cette fraction en éléments simples par la méthode des coefficients indéterminés, nous obtenons :
1 1 31 1 1
x̄(p) = 2
− + − .
2p 4 p p + 1 4(p + 2)
D’après les formules 9, 1 et 4 du tableau nous trouvons la solution :
1 3 1
t − + e−t − e−2t .
x(t) =
2 4 4
Exemple 4 : Trouver la solution de l’équation différentielle :
d2 x dx
2
+2 + 5x = sin t
dt dt
vérifiant les conditions initiales : x0 = 1, x00 = 2 pour t = 0.
Solution : Écrivons l’équation auxiliaire (6.34’)
x̄(p)(p2 + 2p + 5) = p ∗ 1 + 2 + 2 ∗ 1 + L{sin t},
1
où x̄(p)(p2 + 2p + 5) = p + 4 +
p2 + 1
D’où nous trouvons :
p+4 1
x̄(p) = + .
p2 + 2p + 5 (p2 + 1)(p2 + 2p + 5)
Décomposant la fraction du second membre en éléments simples nous pouvons écrire :
11 1
10 p
+4 − 10 p + 15
x̄(p) = + ,
p2 + 2p + 5 p2 + 1
11 p+1 29 2 1 p 1 1
x̄(p) = 2 2
+ 2 2
− +
10 (p + 1) + 2 10 ∗ 2 (p + 1) + 2 10 p + 1 5 p2 + 1
2

En vertu des formules 8, 7, 3 et 2 du tableau nous trouvons la solution :


11 −t 29 1 1
X(t) = e cos 2t + e−t sin 2t − cos t + sin t.
10 20 10 5
En définitive :  
11 29 1 1
x(t) = e−pt cos 2t + sin 2t − cos t + sin t.
10 20 10 5

81
6.12 Théorème de décomposition
Il découle de la formule (6.36) du point des équations auxiliaires d’une équation différentielle donnée que l’image
de la solution d’une équation différentielle linéaire se compose de deux termes : le premier est une fraction rationnelle
régulière de p, le second une fraction dont le numérateur est l’image du second membre F (p) de l’équation et le
dénominateur de polynôme ϕn (p). Si F (p) est une fraction rationnelle. Il faut ainsi savoir trouver l’original dont
l’image est une fraction rationnelle régulière. Nous aborderons cette question dans le présent paragraphe. Supposons
que l’image L d’une certaine fonction est une fraction rationnelle régulière de p :

ψn−1 (p)
.
ψn (p)
On demande de trouver l’original. Dans votre cours d’analyse où d’algèbre de première année que chaque fraction
rationnelle régulière peut être représentée sous forme de somme d’éléments simple de 4 types :
A
1 p−a ,
A
2 (p−a)k ,
Ap+B a2
3 p2 +a1 p+a2 où les racines du dénominateur sont complexes c’est-à-dire : 4 − a2 < 0,
Ap+B
4 (p2 +a1 p+a2 )k
où k ≥ 2, les racines du dénominateur sont complexes.
Trouvons l’original pour chacune des quatre fractions simples. Pour les fractions du type 1 nous obtenons en vertu
de la formule 4 du tableau
A
−→ Aeat .
p−a
Pour la fraction du type 2 en vertu des formules 9 et 4 du tableau, nous trouvons :
A 1
k
−→ A tk−1 eat . (6.37)
(p − a) (k − 1)!

Considérons maintenant les fractions du type 3. Effectuons les transformations suivantes :


a1 a
Ap+B Ap+B A(p+ 2 )q
+(B−A 21 )
p2 +a1 p+a2 = q 2 = 2
2 a2 2 a2
(p+ a21 ) + a2 − 41 (p+ a21 ) + a2 − 1
4
a1
p+
2 + B − A a21 1

= A 2
q q 2
a 2 a2 a 2 a2
(p+ 41 ) + a2 − 41 (p+ 21 ) + a2 − 41

Désignant ici le premier et le second terme respectivement par M et N , nous obtenons en vertu des formules 8
et 7 du tableau :
q
a1 a2
M −→ Ae− 2 t cos t a2 − 41
q
a1 a2
N −→ B − A a21 q 1 2 e− 2 t sin t a2 − 41

a
a1 − 1
4

Ainsi en définitive :
 r r 
Ap + B a
− 21 t a21 B− A a21 a21 
−→ e A cos t a2 − +q sin t a2 − . (6.38)
p2 + a1 p + a2 4 a21 4
a1 − 4

Nous ne donnerons pas ici le cas des éléments simple du type 4 pour ne pas nous lancer dans des calculs trop
fastidieux. Pour quelques cas particuliers, cette question sera analysée plus bas.

82
6.13 Exemples de résolution des équations différentielles et des sys-
tèmes d’équations différentielles par la méthode du calcul opéra-
tionnel.
Exemple 1 : Trouver la solution de l’équation
d2 x
+ 4x = sin 3x, avec x(0) = 0, x0 (0) = 0.
dt2
Solution : Composons l’équation auxiliaire (6.34’)
3 3
x̄(p)(p2 + 4) = , x̄(p) = 2
p2 + 9 (p + 4)(p2 + 9)

− 35 3
5 1 3 3 2
ou x̄(p) = +
+ +
=− 2 + 2
.
p 9 p 4 5 p + 9 10 p + 4
D’où nous tirons la solution :
3 1
x(t) = sin 2t − sin 3t.
10 5
Exemple 2 : Trouver la solution de l’équation
d3 x
+ x = 0, x(0) = 1, x0 (0) = 3, x00 (0) = 8.
dt3
Solution : Écrivons l’équation auxiliaire (6.34’)

x̄(p)(p3 + 1) = p2 ∗ 1 + p ∗ 3 + 8,

p2 + 3p + 8 p2 + 3p + 8 2 −p + 6
x̄(p) = = =
p3 + 1 (p + 1)(p2 − p + 1) p + 1 p2 − p + 1
q
1 3
1 p − 2 11 4
=2 − q 2 + √ q 2
p+1 2 3 2
p − 12 + 3
p − 12 + 3
 
4 4

Utilisant le tableau, nous écrivons la solution :


 √ √ 
−t 1 3 11 3
x(t) = 2e +e 2t − cos t + √ sin t .
2 3 2
exemple 3 : Trouver la solution de l’équation
d2 x
+ x = t cos 2t, x(0) = 0, x0 (0) = 0
dt2
Solution Écrivons l’équation auxiliaire (6.34’)
1 8
x̄)(p)(p2 + 1) = − 2
P2 + 4 (p + 4)2
5 1 5 1 8 1
⇒ x̄(p) = − + + .
9 p + 1 9 p + 4 3 (p + 4)2
2 2 2

Utilisant le tableau, nous écrivons la solution :


 
5 5 1 1
x(t) = − sin t + sin 2t + sin 3t − t cos 2t .
9 9 3 2

83
Il est évident que la méthode du calcul opérationnel permet aussi de résoudre les systèmes d’équations différentielles
linéaires. Montrons-le sur un exemple.
Exemple 2 :
3 dt + 2x + dy
 dx
dt = 1
dx dy
dt + 4 dt + 3y = 0, x(0) = 0, y(0) = 0.
Solution :
x(t) ←− x̄(p), y(t) ←− ȳ(p).
Écrivons le système d’équation auxiliaire
 1
(3p + 2)x̄(p) + pȳ(p) = p
px̄(p) + (4p + 3)ȳ(p) = 0.
Après résolution :
4p+3 1 1 33
x̄(p) = p(p+1)(11p+6) = 2p − 5(p+1) − 10(11p+6)
 
1
ȳ(p) = − (11p+6)(p+1) = 15 1 11
p+1 − 11p+6

D’après les images nous trouvons chaque fois l’original c’est-à-dire les solutions cherchées du système :
1 1 −t 3 − 116
t
x(t) = 2 − 5e − 10
6
e ,
1 −t − 11 t
y(t) = 5 (e −e ).

6.14 Théorème de Convolution


Lors de la résolution des équations différentielles par la méthode du calcul opérationnel on se sert souvent du
théorème de convolution.
Si F1 (p) et F2 (p) sont les images des fonctions
R∞ f1 (t) et f2 (t) c’est-à-dire si F1 (p) −→ f1 (t) et F2 (p) −→ f2 (t)
alors F1 (p)F2 (p) est l’image de la fonction 0 f1 (τ )f2 (t − τ ) dτ .Autrement dit :
Z ∞
F1 (p)F2 (p) −→ f1 (τ )f2 (t − τ ) dτ . (6.39)
0
R∞
Remark 11. l’expression 0 f1 (τ )f2 (t − τ ) dτ est appelée convolution (ou produit de composition) des deux fonc-
tions f1 (t) et f2 (t). L’opération du calcul correspondant est appelé transformation de convolution de deux fonctions.

6.15 Transformée de Laplace de Quelques fonction élémentaires


Par définition la fonction Γ s’exprime :
Z ∞
Γ(K + 1) = e−t tk dt, <{k} > −1.
0

En posant t = pτ , on obtient :
Z ∞
Γ(k + 1) Γ(k + 1)
= e−pτ τ k dτ ⇒ L(tk ) = . (∗)
pk+1 0 pk+1
n!
En particulier, pour k ∈ N, L(tk ) = pk+1
, (n = 0, 1, 2, ..., ). Si nous dérivons par rapport au paramètre de (∗),

Γ(k + 1)
L(tk ln t) = [ψ(k + 1) − ln p], <{k} > −1,
pk+1

où ψ est la dérivée logarithmique de la fonction Γ. Si l’on pose k = 0, il vient : Lln t = − p1 (c + ln p), où c = −ψ(1) =
limn→∞ 1 + 21 + ... + n1 − ln n = 0.577215. elle est appelée constante d’Euler.


84
k √
Cherchons l’image de la fonction t 2 Jk (2 t), où k est un nombre complexe, < > −1 et Jk (t) la fonction de Bessel
d’ordre k.  k X ∞  2
t (−1)n 1 t
Jk (t) = n
2 n=0
n! Γ(n + k + 1) 2

En posant t = 2 z, on a :

√ k
X (−1)n zn
Jk (2 z) = z 2 .
n=0
n! Γ(n + k + 1)
Ainsi :
∞ ∞
( )
k √ X (−1)n tn+k X (−1)n 1 1 1
L{t Jk (2 z)} = L
2 = n+k+1
= k+1 e− p , <{k} > −1. (#)
n=0
n! Γ(n + k + 1) n=0
n! p p

Cas des polynômes de Laguerre


et dn n −t
Ln (t) = (t e ),
n! dtn
n!
L{g(t)} = L{tn e−t } = .
(p + 1)n+1
D’autre part g(0) = g 0 (0) = ... = g (n−1) (0) = 0, il vient :
 n
n!pn

d n −t
L n
(t e ) =
dt (p + 1)n+1

D’où  n
1 1
L{ln(t)} = 1− , (n = 0, 1, 2, ...).
p p

6.15.1 Calcul d’intégrales


Soit à calculer l’intégrale 1)
Z ∞
u sin tu
f (t) = du, t > 0.
0 1 + u2
Nous avons :
u2
L(u sin tu) =
p2 + u2
D’où ∞
u2
Z
π 1 π
L{f (t)} = 2 2 2
du = = L{ e−t }.
0 (p + u )(1 + u ) 2 p+1 2
Par identification :
π −t
f (t) = e .
2
2)
Soit Z ∞
Jk (u) n
I= du, k+1> > 0,
0 uk−n+1 2

En posant u = 2 t, on trouve √
Z ∞
1 k Jk (2 t)
I= t 2
2k−n+2 dt.
nk−n+1 0 t 2

85
Introduisons l’intégrale √
Z ∞ k
(λt) 2 Jk (2 λt)
I(λ) = 2k−n+2 dt.
0 t 2

En vertu de (#), il vient :


 k+1
k t 1 √
L{t(λt) Jk (2 λt)} =
2 e− p .
p
Donc ( n
)

Γ n2 Γ n2 λk− 2
Z  
1 n − pt
L{I(λ)} = t 2 −1 e dt = k+1− n = L  .
pk+1 0 p 2 Γ k + 1 − n2
D’où
Γ n2

1 1
I = k−n+1 I(1) = k−n+1 .
2 2 Γ k + 1 − n2
3)
soit à calculer l’intégrale suivante :

J0 (t) − cos t
Z
dt.
0 t
On a :
1 p
L{J0 (t) − cos t} = p − .
p+ 1 p2 + 1
! " #∞
∞ ∞
p
J0 (t) − cos t p + p2 + 1
Z Z
1p
⇒ dt = p − 2 dp = ln p = ln 2
0 t 0
+
p 1 p +1 p2 + 1 0

6.16 Transformation de MELLIN


La transformation de Mellin est liée étroitement aux transformations de Fourier et Laplace. Elle peut être
appliquée avec succès à la résolution d’une classe de problèmes harmoniques plans dans un domaine aréolaire, à
des problèmes de la théorie de l’élasticité ainsi qu’à l’étude des fonctions spéciales, à la sommation des séries et au
calcul des intégrales.
La transformation de Mellin est définie par :
Z ∞
F (s) = f (t)ts−1 dt, avec s = σ + iz.
0

Les théorèmes relatifs à la transformation de Mellin se déduisent des théorèmes correspondants des transformations
de Fourier et de Laplace moyennant un changement de variables. Nous en citerons :
Theorem 11. Supposons que τ σ−1 f (τ ) ∈ L]0, ∞[ où f (τ ) est à variation bornée au voisinage du point τ = t.
Alors : Z σ+iλ
f (t + 0) + f (t − 0) 1
= lim F (s)t−s ds.
2 2πi λ→∞ σ−iλ
où F (s) est la transformée de Mellin
Theorem 12. Supposons que F (σ + iλ) ∈ L] − ∞, +∞[ et qu’elle est à variation bornée au voisinage du point
u = t. Alors Z λ
1
[F (σ + i(t + 0)) + F (σ + i(t − 0))] = lim f (t)tσ+it−1 dt,
2 λ→∞ 1
λ

où Z σ+i∞
1
f (t) = F (s)t−s ds.
2πi σ−i∞

86
supposons que F (s) et G(s) des transformations de Mellin des fonctions f (t) et g(t). Il vient :

1
R h+i∞ 1
R h+i∞ R∞
2πi h−i∞
F (s)G(1 − s) ds = 2πi h−i∞
G(1 − s) ds 0 f (t)ts−1 dt
1
R∞ R h+i∞
= R2πi 0
f (t) dt h−i∞ G(1 − s)ts−1 ds

= 0 f (t)g(t) dt. (A)

De façon analogue,
Z h+i∞ Z ∞ Z k+i∞ Z ∞  
1 1 s−1 1 dt
F (s)G(1 − s) ds = g(t) dt t ds = g(t)f .
2πi h−i∞ 2πi 0 k−i∞ 0 t t

Theorem 13. Supposons que tk−1 f (t) ∈ L]0, ∞[ et G(1 − k − ix) ∈ L] − ∞, +∞[, ou que F (k + i) ∈ L] − ∞, +∞[
et tk g(t) ∈ L] − ∞, +∞[. La formule (A) est alors valable.
L’analogue du théorème de convolution est :
R∞
Theorem 14. Supposons que tk et tk g(t) appartiennent à l’ensemble L]0, ∞[ et soit h(t) = 0
f (τ )f ( τt ) dτ
τ . Alors
la fonction tk h(t)L]0, ∞[ et sa transformée de Mellin est la fonction F (s)G(s).

6.16.1 Transformation de Bessel


La transformation de Bessel est la transformation intégrale de la forme
Z ∞

f (λ) = f (t)k(λt) dt,
0

où k(z) est une fonction de Bessel.


Nous allons énumérer quelques transformations qui se rapportent à la transformation de Bessel.

Transformation de Hankel
On appelle transformation de Hankel l’intégrale :
Z ∞
fν∗ (u) = Hν [f (t)] = f (t)tJν (ut) dt, 0 < u < ∞,
0

et l’inversion est : Z ∞
f (t) = Hν−1 [fν∗ (u)] = fν∗ (u)Jν (ut)u du, 0 < t < ∞.
0

où Jν (z) est la fonction de Bessel d’ordre ν.

Transformation de Meijer
La transformation intégrale de Meijer joue un rôle important dans la résolution des équations différentielles de
type Bessel.
Elle est donnée par la formule : r Z ∞
2 1
f˜(s) = Kν (st)(st) 2 f (t) dt
π 0
où Kν (t) est la fonction de Mac Donald. La formule de l’inverse s’écrit :
1 1
f (t) = √ lim Iν (ts)(ts) 2 f˜(s) ds
i 2π λ→∞

87
6.16.2 Transformation de Kontorovitch-Lebedev
Les transformations intégrales dans lesquelles l’intégration s’effectue sur l’ordre des fonctions de Bessel jouent
un rôle très important dans la résolution de certains problèmes de physiques mathématiques. Cette forme de
transformation intégrales a été étudiée pour la première fois par KONTOROVITCH et LEBIDIEV.
Dans la transformation de Kontorovitch-Lebedev, le développement de type intégrale de Fourier :
Z ∞ Z ∞
2
xf (x) = 2 Kiτ (x)τ sinh(πτ ) dτ Kiτ f (ζ) dζ,
π 0 0

où Ku (x) est une fonction de Mac Donald, x > 0, f (x) une fonction arbitraire continue avec sa dérivée et telle que
x2 f (x), xf (x) ∈ L]0, ∞[ joue un rôle fondamentale. L’intégrale
Z ∞
F (τ ) = f (x)Kiτ (x) dx
0

la transformation de Kontorovitch-Lebedev ; et et l’inverse est :


Z ∞
2
f (x) = 2 Kix (x)τ sinh(πτ )F (s) dτ (x > 0).
π x 0

88
Chapitre 7

MESURES ET INTÉGRATIONS

7.1 Introduction
La notion de mesure d’un ensemble A est naturellement la généralisation des notions telles que :
1 la longueur d’un segment,
2 la surface S(F ) d’une figure plane F ,
3 le volume V (G) d’une figure spatiale G,
4 la variation d’une fonction croissante définie dans un segment fini,
5 l’intégrale d’une fonction prise à partir d’un domaine linéaire, superficielle ou spatial...etc.
Cette notion est apparue en théorie de fonction à variables réelles et de là, elle s’est étendue en probabilité, des
systèmes dynamiques et d’autres parties des mathématiques.

7.2 Mesure des ensembles plan


7.2.1 Mesure des ensembles élémentaires
Considérons le système d’ensembles dans le plan des coordonnées (x, y), chacune qui est définie par l’une des
inégalités suivantes 

 a ≤ x ≤ b, a ≤ x < b
a < x ≤ b, a < x < b



ou l’une des égalités suivantes
c ≤ x ≤ d, c ≤ x < d




c < x ≤ b, c < x < d,

où a, b, c et d sont nombres arbitraires. L’ensemble appartenant à ce système sera appelé rectangle. Le rectangle
fermé sera défini par
a ≤ x ≤ b, c ≤ x ≤ d
Les autres rectangles seront sans frontières ou sans bornes . La classe de tous les rectangles sera note par σ. Pour
chaque rectangle, on peut définir sa mesure en utilisant les notions élémentaires de géométrie.
1 . La mesure de l’ensemble vide est égale zéro.
2 . La mesure de l’ensemble non vide (fermé, ouvert ou sémi-ouvert) est égale à la surface de ces rectangles :
(b − a)(d − c).
Ainsi chaque rectangle se définit par un nombre m(P )-sa mesure. En plus ou en addition, les conditions suivantes
sont vérifiées :
1 . m(P ) ≥ 0, Sn T Pn
2 . m(P ) est additive, c’est-à-di P = i=1 Pi et Pi P j = ∅, alors m(P ) = k=1 m(Pk )

89
Theorem 15. : La réunion, l’intersection, la différence, et la différence symétrique de deux ensembles élémentaires
est un ensemble élémentaire.
Theorem 16. SnSi A est un ensemble
Pélémentaire, et An un système fini ou dénombrable d’ensemble élémentaires
tels que A ⊂ i=1 Ai alors m(A) ≤ n m0 (A).
Definition 13. Un ensemble élémentaire est un ensemble que l’on peut représenter comme une réunion finie de
rectangles deux-à-deux disjoins.

7.2.2 Mesure de LEBESGUE pour des ensembles dans le plan


Les ensembles élémentaires ne représentent pas tous les ensembles qui sont étudiés en analyse et en géométrie.
C’est pourquoi, il faut essayer d’une manière naturelle d’élargir la notion de mesure tout en conservant ses pro-
priétés sur la classe d’ensemble plus large telle que la réunion finie de rectangles avec cotés parallèles aux axes de
coordonnées. Ce problème a été résolu par LEBESGUE au début du 20e siècle.

Definition 14. La mesure extérieure de A est appelée le nombre µ∗ (A) = inf m(Pk ), A ⊂ Pk , où inf est pris
P S
pour tout recouvrement fini ou infini de A. On note que µ∗ (A) = m0 (A) si A est élémentaire.
Definition 15. L’ensemble A est appelé mesurable (au sens de LEBESGUE) si ∀ < 0, ∃B, µ∗ (A∆B) < . La
fonction µ∗ considérée seulement sur les ensembles mesurables et appelée MESURE DE LEBESGUE, nous allons
la noter plus simplement par µ.

Definition 16. Un ensemble A est dit mesurable, si ∀ > 0, ∃ un ouvert Θ/A ⊂ Θ et µ(Θ\A) ≤ .
L’ensemble MA des ensembles mesurables et la fonction µ nous noterons que :
1 . la collection MA des ensembles mesurables est close relativement l’opération prendre une somme finie ou
dénombrable c’est-à-dire σ -algèbre.
2 . La fonction µ est σ-additive sur MA .
Theorem 17. Si A ⊂ n An où An sont finis et dénombrables, alors µ∗ (A) ≤
S P ∗
µ (An ). En particulier : si
A ⊂ B =⇒ µ∗ (A) ≤ µ∗ (B).
Theorem 18. Le complémentaire d’ensembles mesurables est un ensemble mesurable

Remark 12. A∆B = (E\A)∆(E\B)


Theorem 19. La somme ou l’intersection finie d’ensemble mesurable est un ensemble mesurable.

90
Chapitre 8

NOTIONS GÉNÉRALES SUR LES


MESURES

8.1 Prolongement de la mesure à partir d’un sémi-anneau ou vers un


anneau : additivité, sigma-additivité.
Nous avons construit la mesure des ensembles dans le plan. Entre-autre, la mesure (ou la surface d’un rectangle)
et nous avons étendu cela dans une classe plus large. Dans notre construction, on ne notait pas concrètement
l’expression de la surface du rectangle mais plutôt ses propriétés générales . Ainsi lors de l’extension de la mesure
dans le plan d’un rectangle sur les ensembles élémentaires, nous avons utilisé seulement le fait que la surface est une
fonction positive additive d’ensemble telle que la collection de rectangles forme un semi-anneau. En construisant
le prolongement de la mesure de LEBESGUE, outre ceux dont nous venons de dire, le plus important était sa
σ-additivité. Sur la base de tout ceci, à propos de la construction de la mesure des ensembles dans le plan, on peut
donner une forme plus abstraite telle que son utilisation puisse être élargie.
Definition 17. Anneau Un système non vide KAP P A est appelé Anneau s’il vérifie la propriétés suivantes :

∀A ∈ KAP P A, ∀B ∈ K =⇒ AδB ∈ K, A ∩ B ∈ K

Definition 18. Semi-anneau Un système d’ensemble Θ est appelé semi-anneau, s’il contient l’ensemble vide et
est clos relativement à l’intersection et possède la propriété suivante : De l’appartenance Θ des ensembles A et A1
/A1 ⊂ A entraine la possibilié de représenter A = ∪nk=1 Ak où Ai ∩i6=j Aj = ∅ et A1 sera le premier.
Exercice d’application :
Montrer que [a, b] est un semi-anneau qui n’est pas un anneau.

8.2 Définition
La fonction de l’ensemble µ(A) est appelé mesure si :
1 L’ensemble Θ qui est l’ensemble de définition de la fonction µ(A) est un semi-anneau d’ensemble.
2 µ(A) ≥ 0. Pn
3 µ(A) est additive car ∀A = ∪nk=1 Ak alors µ(A) = k=1 µ(Ak ) avec A ∈ Θk .
Remark 13.
∅ = ∅ ∪ ∅ ⇒ µ(∅) = µ(∅) + µ(∅),
µ(∅) = 2µ(∅) ⇔ µ(∅) = 0(caractéristique 6= 2).
Definition 19. : La mesure µ est appelée prolongement de m si :

91
1 Θm ⊂ Θµ ,
2 ∀A ∈ Θm ⇒ µ(A) = m(A).
Definition 20. La mesure m est appeléee σ-additive si pour tout A, A1 , A2 , ..., An , ... ∈ Θm et vérifient :

A = ∪nk=1 Ak Ai ∩i6=j Aj = ∅,

X
m(A) = m(An ).
m=1

Exemple 7. Exemple de mesure additive mais qui n’est pas σ-additive. X = ensemble de tous les rationnels
du segment [0, 1] et Θm est constitué des intersections de X avec des intervalles arbitraires ]a, b[ du segment [a, b]
et des semi-intervalles [a, b[, ]a, b]. Il est clair que Θm est un semi-anneau.

∀Aab ∈ Θm , m(Aab ) = b − a

Cette mesure est additive mais n’est pas σ-additive puisque m(X) = 1, X est une somme dénombrable de nombre
dont la mesure est nulle. Dans la suite de notre cours, nous allons toujours supposer que les mesures sont σ-additives.
Comme au chapitre précédent, nous allons définir le prolongement de la mesure au sens de LEBESGUE.

8.3 prolongement de la mesure au sens de LEBESGUE.


Le prolongement au sens de LEBESGUE est défini dans un semi-anneau unitaire. Si la mesure m définie dans
un semi-anneau Θm possède seulement la propriété de l’additivité, alors son prolongement dans l’anneau R(Θm )
jouit d’une manière exhaustive de toutes les propriétés initiales de ce prolongement du semi-anneau vers une classe
d’ensemble plus large. Si la mesure considérée est σ-additive, alors elle peut être considérée avec θm dans la classe
plus large que l’anneau R(Θm ). Ceci peut se faire par le biais de ce que l’on appelle prolongement au sens de LE-
BESGUE d’un semi-anneau unitaire. Supposons que dans un semi-anneau d’ensemble Θm avec unité E soit définit
une mesure m σ-additive. Définissons dans le système U de tous les sous-ensembles de E la fonction µ∗ (A)- mesure
extérieure de la manière suivante :

Definition 21. La mesure extérieure de l’ensemble A ∈ E est appelée le nombre µ∗ (A) = inf m m(Bn ) où la
P
borne inf est prise pour tout recouvrement d’ensemble de A fini ou dénombrable du système Bn ∈ Θm .
Theorem 20. Si A ⊂ ∪An où les {An } est un système fini ou dénombrable d’ensemble, alors µ∗ ≤ n µ∗ (An )
P

Definition 22. L’ensemble A est dit mesurable(au sens de LEBESGUE) si :

∀ > 0, ∃B ∈ K(Θm )/µ∗ (A∆B) < .

De même la fonction µ∗ considérée seulement sur les ensembles mesurables est appelée mesure de LEBESGUE ou
mesure tout simplement et notée µ. Il est clair que tous les ensembles de θm et K(Θm ) sont mesurables et de plus
si A ∈ Θ ⇒ µ(A) = m(A).
Theorem 21. Le système M de tous les ensembles mesurables est un anneau.
Preuve : Nous avons :

A1 ∪ A2 = A1 \(A1 \A2 ),
A1 ∪ A2 = E\((E\A1 ) ∩ (E\A2 ))

Il faut montrer que si A1 ⊂ M , A2 ⊂ M alors A1 \A2 ∈ M . Posons A1 \A2 .

⇒ ∃B1 ∈ K(Θm ) et B2 ∈ K(Θm )tel que

92
 
µ∗ (A1 ∆B1 ) < , µ∗ (A2 ∆B2 ) < .
2 2
Posons B = B1 \B2 ∈ K(Θm ) et en utilisant la relation (A1 \A2 )∆(B1 \B2 ) ⊂ (A1 ∆B1 ) ∪ (A2 ∆B2 )

µ[(A1 \A2 )∆(B1 \B2 ) ≤ µ[(A1 ∆B1 ) ∪ (A2 ∆B2 )]


µ[(A1 \A2 )∆(B1 \B2 )] ≤ µ(A1 ∆B1 ) + µ(A2 ∆B2 )
 
µ[(A1 \A2 )∆(B1 \B2 )] ≤ +
2 2
µ[(A1 \A2 )∆(B1 \B2 )] ≤ ,

du fait que  soit arbitraire, d’où A1 \A2 est mesurable. Par conséquent M est un anneau.

Theorem 22. Dans le système M d’ensemble mesurables, la fonction µ(A) est additive.
Theorem 23. dans le système d’ensembles mesurables, la fonction µ(A) est σ-additive.
Theorem 24. Le système M d’ensembles mesurables au sens de LEBESGUE est σ-additive.

Nous laissons le soin au lecteur de démontrer les théorèmes 10,11 et 12.

93
Chapitre 9

FONCTIONS MESURABLES

9.1 Définitions et propriétés fondamentales des fonctions mesurables


Soient X et Y deux ensembles (arbitraires) et supposons qu’à chacun de ces ensembles soit défini un système
de ces ensembles ΘX et ΘY respectivement. Une fonction abstraite y = f (x) avec pour Df = X et admettant pour
valeur dans Y est appelée (ΘX , ΘY )-mesurable si pour tout A dans ΘY alors f −1 (A) appartient à ΘX .

Exemple 8. Si pour X et Y , nous prenons la droite de nombres réels et pour ΘX et ΘY nous prenons le système
de tous les ensembles ouverts de R alors la définition que nous venons de donner se traduit comme la définition de
continuité. Si par contre, on prend ΘX et ΘY comme des ensembles Boréliens, alors nous obtiendrons la notion de
fonction B-mesurable (mesure au sens de Borel).

Definition 23. D’ensemble Borélien : Un ensemble est dit Borélien quand il appartient au σ-algèbre et est
généré par tous les ensembles ouverts et fermés de R.
Definition 24. Soit X un ensemble dans le quel est défini une σ-mesure additive µ définie dans une σ-algèbre Θm .
La fonction réelle f (x) définie dans X est appelée µ-mesurable si ∀A (ensemble Borélien) on a f −1 (A) appartient
à Θµ . De même la fonction complexe φ(x) définie dans X est appelée µ-mesurable si φ−1 (A) ∈ Θµ pour tout sous-
ensemble Borélien définie dans le plan complexe. Toute fonction numérique définie dans R est Borel ou B-mesurable
si l’image inverse de chaque ensemble Borélien est un ensemble Borélien.
Theorem 25. Considérons X, Y et Z des ensembles et supposons que ΘX , ΘY et ΘZ soient les systèmes des sous
ensembles. Supposons que sur X est définie la fonction y = F (x) qui soit (ΘX , ΘY )-mesurable et que sur Y est
définie la fonction z = g(y) qui soit aussi (ΘY , ΘZ )-mesurable alors z = φ(x) = g[f (x)] est (ΘX , Θz )-mesurable.

Preuve : exercice

Theorem 26. (critère) : Pour qu’une fonction réelle f (x) soit mesurable, il est nécéssaire et suffisant que pour
x
tout réel c, { f (x) < c} soit mesurable.

Preuve :
⇒ La condition nécéssaire est claire puisque toute démi-droite ]−∞, c[ est un ensemble Borélien, donc mesurable.
⇒ Pour démontrer la suffisance, nous devons d’abord noter que la σ-algèbre engendrée par le système Σ de
toutes les démi-droites ] − ∞, c[ coïncide avec la σ-algèbre des ensembles Boréliens de la droite. Ainsi il s’en
suit que l’image réciproque des démi-droites appartenant à Σ c’est-à-dire mesurables.
Ce théorème démontré est souvent pris comme définition de la mesurabilité c’est-à-dire une fonction f (x) est
x
mesurable si tous les ensembles de la forme sont mesurables, { f (x) < c} ou d’une manière où nous pouvons définir
une fonction f (x) définie avec l’ensemble E est dite mesurable ou mesurable sur E si pour tout a fini ou infini
x x x x
{ f (x) ≥ a} ou { f (x) < a} ou { f (x) ≤ a} ou { f (x) = a} sont mesurables.

94
Theorem 27. Le produit d’un nombre fini ou dénombrable d’ensemble mesurables est mesurable.
Theorem 28. La différence d’ensemble mesurables est un ensemble mesurable.

9.2 Action sur les fonctions Mesurables


Dans cette partie nous allons énoncer le théorme suivant :
Theorem 29. La somme, la différence et le produit de deux fonctions mesurables est une fonction mesurable.
Le quotient de deux fonctions mesurables avec pour condition que la fonction au dénominateur ne s’annule pas
est une fonction mesurable.
Definition 25. La mesure µ est dite complète si µ(A) = 0 et A0 CA alors A0 mesurable.
En effet, nous aurons µ(A) = 0 et A0 CA avec µ(A) = 0 , µ∗ (A0 ) = 0 et pour tout C tel que µ∗ (C) = 0 est
mesurable comme ∅ ∈ K(Θm ) et que nous pouvons écrire que µ∗ (C∆∅) = µ∗ (C) = 0.
D’autre part nous pourrons dire que toute mesure ∆-additive sur la σ-algèbre peut être prolongée jusqu’à une
mesure complète en posant celle-là égale à zéro pour tout sous ensemble de chaque ensemble ayant une mesure égale
à 0.
Équivalence Très souvent, dans l’étude des fonction mesurables, on peut négliger leur valeurs sur un ensemble
de mesures égales à 0. En relation avec ces concepts, nous donnons la définition suivante :
Definition 26. Deux fonctions f et g définies dans un ensemble E sont appelées équivalentes ou dites équivalentes
et notées f ∼ g si la mesure µ{x; f (x) 6= g(x)} = 0.
Introduisons la terminologie suivante : On dit qu’une propriété est vérifiée presque partout (P P ) sur E si elle
est vérifiée presque partout sauf peut être aux points qui forment un ensemble de mesure égal à zéro . Ainsi deux
fonctions sont dites équivalentes si elles coïncident presque partout (P P ).
Theorem 30. : Si la fonction f (x) définie dans un certain ensemble E mesurable est mesurable et si g une autre
fonction est équivalente à f dans E, alors g est mesurable.
Convergence P P : Comme dans la plupart des cas le comportement des fonctions mesurables dans tel ou tel
ensemble de mesure nulle pour nous n’est pas très essentiel. Mais il serait naturel d’introduire la propriété suivante
généralisant la notion de convergence point par point.
Definition 27. : La suite des fonctions {fn (x)}n définie dans un ensemble X avec mesure, est dite convergente
P P vers f (x) si limn→∞ fn (x) = f (x) (∗). Soit l’ensemble des points x pour lesquels (∗) n’est pas vérifié admet une
mesure nulle.
Exemple 9. : fn (x) = (−x)n définie sur [0.1], lim fn (x) = 0 quand n tend vers l’infini sauf au point x = 1.
Theorem 31. Si une suite de fonction mesurable {fn (x)} converge P P vers f (x), alors f (x) est mesurable.
Theorem 32. de ERGOROV : Soit E un ensemble avec pour mesure fini et une suite des fonctions mesurables
fn (x) convergente presque partout vers f (x) . Alors ∀σ > 0, ∃Eσ (mesurable), Eσ ⊂ E tel que :
1 µ(Eσ ) > µ(E) − σ
2 Dans l’ensemble Eσ la suite {fn (x)}n converge uniformément vers f (x).
Définition Convergence par la mesure : La suite de fonctions mesurables {fn (x)}n converge par la mesure
vers f (x), si pour tout σ > 0, lim µ{x, |fn (x) − f (x)| ≥ σ} = 0 quand n tend vers l’infini.
Theorem 33. Si la suite des fonctions mesurables {fn (x)} converge P P vers une certaine fonction f (x) finie alors
elle converge vers la même fonction par la mesure.
Theorem 34. : Supposons que la suite des fonctions mesurable {fn (x)} converge par la mesure vers f (x), alors
de cette suite, on peut extraire une sous-suite {fnk (x)} qui converge P P vers f (x).

95
9.3 Complément sur les espaces Vectoriels
9.3.1 Fonctionnelle linaire
La fonction réelle f définie dans un espace vectoriel L sera appelée fonctionnelle. Une fonctionnelle est dite
additive si :
∀x, y ∈ L, f (x + y) = f (x) + f (y)
et homogène :
∀x ∈ L, ∀α ∈ R, f (αx) = αf (x).
Exemple 10. : Soit Rn un espace vectoriel de dimension n, x = (xi )i=1,...,n ; a = (ai )i=1,...,n ;
X
f (x) = ai xi .
i=1
X
Dans Cn , f (x) = ai x̄i ,
i=1
Z b Z b
C([a, b] I(x)) = ¯
x(t) dt, I(x) = x̄(t) dt
a a

sont des fonctionnelles sur C([a, b]).


Considérons un exemple plus général, soit y0 une fonction continue fixée dans [a, b] .
Z b
∀x(t) ∈ C([a, b]), on définit F (x) = x(t)y0 (t) dt.
a

Si c’est un espace complexe :


Z b
F̄ (x) = x̄(t)y0 (t) dt
a
comme y0 fixée. F est le conjugué de F Considérons dans le même espace des fonctions qui sont continues dans
le segment [a, b], une fonctionnelle linéaire d’un autre type. En effet posons δt0 = x(t0 ) telle que la valeur de cette
Rb
fonction au point fixé en t0 . Cette fonctionnelle en général s’écrit δt0 = a x(t)δ(t − t0 ) dt.
En comprenant cela par δ, la fonction qui est égal zero partout sauf au point t = 0 et dont l’intégrale égale à
1. Cette fonction a été baptisée par δ-fonction de DIRAC. De telle fonctions ont obtenues une définition rigoureuse
dans la théorie de distribution où nous y reviendrons.

Definition 28. Soit L un espace vectoriel réel, x, y deux points de L . On appelle segment de L ,reliant les points
x et y, la collection des points qui sont tels que αx + βy où α, β, α + β = 1. Un segment sans borne sera appelé
segment ouvert. Un ensemble M C l est convexe s’il contient chaque deux points x et y et le segment de droite reliant
ces deux points . Nous l’appellerons NOYAU J(E) de tout ensemble E C l . La collection des points qui sont tels
que :
∀y ∈ L, ∃  = (y) > 0 ∀ tx + ty ∈ E.

Fonctionnelle convexe homogène. La notion d’ensemble convexe est liée à la notion de fonction convexe
homogène . Soit L un espace vectoriel réel, une fonctionnelle p est dite convexe si pour tout x, y dans L, on a :
p(αx + (1 − α)y) ≤ αp(x) + (1 − α)p(y), 0 < α < 1. La fonctionnelle p est dite homogène positive si

p(αx) = αP (x), ∀α > 0.

Pour les fonctionnelles convexes homogènes positives, l’intégralité suivante est vérifiée :

p(x + y) ≤ p(x) + p(y)

96
Preuve.

x+y x y
p(x + y) = p(2( )) = 2p( + )
2 2 2
1 1
p(x + y) = 2p( x + (1 − )y)
2 2
1 1
p(x + y) ≤ 2[ p(x) + p(y)]
2 2
p(x + y) ≤ p(x) + p(y)

Soit L un espace vectoriel réel et L0 un sous-espace vectoriel de L. Supposons que sur L0 soit définie une fonction-
nelle linéaire f0 si f (x) = f0 (x) pour x de L0 .Le problème du prolongement d’une fonctionnelle est très souvent
rencontré en analyse, et le théorème suivant résume ce fait.

Theorem 35. de Hahn-Banach Soit p une fonctionnelle convexe homogène définie dans un espace vectoriel réel
L et L0 un sous-espace vectoriel de L . Si f est une fonctionnelle linéaire dans L0 subordonnée à la fonctionnelle
p(x) c’est-à-dire si dans L0 , f0 (x) ≤ p(x) alors f0 peut être prolongée jusqu’à la fonctionnelle f dans L qui elle est
subordonnée par p(x) dans tout L .
Theorem 36. de RIESZ -FISCHER Soit R un espace vectoriel euclidien séparable et supposons que Φn un
système orthonormé qui n’est pas obligatoirement complet. De l’intgralité de BESSEL, il s’en suit : Pour que les
nombres C1 , C2 , ..., C , ... soient les coefficients de Fourier d’une fonction quelconque f de R , il est nécessaire que
Pn∞
la série de Fourier n=1 Cn2 converge . On démontre que dans les espaces complets , cette condition est seulement
nécessaire, mais pas suffisante.
Le théorème suivant résume ce fait :

Theorem 37. de (RIESZ -FISCHER). Soit {Φn } un systèmePorthonormé dans un espace vectoriel euclidien
∞ 2
R et supposons les nombres
P∞ C1 , C2 , ..., Cn , ... sont tels que la série k=1 Ck converge, alors il existe f dans R telle
que Ck =< f, Φ > et n=1 =< f, f >= ||f ||2.

97
Chapitre 10

INTÉGRALE DE LEBESGUE

Introduction
La notion de l’intégrale de RIEMANN est connue dans le cours élémentaire d’analyse. Elle est employée seulement
aux fonctions qui sont continues ou admettent un nombre fini de points de discontinuités. Pour les fonctions
mesurables, qui peuvent admettre des points de discontinuité presque partout où elles sont définies (où en général
peuvent être définies dans un ensemble abstrait dont la notion de continuité n’a pas de sens ). La construction de
l’intégrale de RIEMANN devient donc impossible. Pour de telles fonctions, il existe une notion très complète et
solide introduite par LEBESGUE. L’idée principale de la construction de l’intégrale de LEBESGUE est basée sur
le fait qu’en opposition l’intégrale de RIEMANN où les points x sont regroupés non pas par leur proximité sur l’axe
des abscisses mais par le critère de proximité des valeurs de la fonction en ces points . Ceci permet directement
d’étendre cette notion dans une classe d’ensemble plus large des fonctions. Outre cela , l’intégrale de LEBESGUE
se définit de la même manière pour une seule les fonctions qui sont définies dans les espaces avec mesure . De même
que l’intégrale de RIEMANN a été introduite pour une seule variable, avant d’être généralisée, nous en ferons autant
ici. Il est une fois de plus à noter que pour les fonctions définies dans les espaces abstraits avec mesures, l’intégrale
de RIEMANN n’a pas de sens . Dans la suite de ce cours, sauf indication particulière, nous allons considérer des
mesures σ-additives complètes définies dans une σ-algèbre, avec pour unité X. Tous les ensembles A C X que nous
allons considérer seront mesurables et les fonctions définies pour x dans X seront elles aussi mesurables. Nous allons
d’abord définir l’intégrale de LEBESGUE pour les fonctions simples et élargir cela dans une classe plus large des
fonctions.

10.1 Fonctions simples


Definition 29. : La fonction f (x) définies dans un espace X avec mesure est dite simple ou appelée fonction
simple, si elle est mesurable et admet au plus un nombre de valeurs dénombrable. La structure des fonctions simples
est caractérisée par le théorème suivant :
Theorem 38. : La fonction f (x) admettant au plus un nombre de valeurs différentes dénombrables (y1 , y2 , ..., yn )
x
est mesurable si et seulement si tous les ensembles de la forme An = { f (x) = yn } sont mesurables.

Theorem 39. : Pour une fonction mesurable f (x), il est nécessaire et suffisant qu’elle puisse être représentée
comme limite d’une suite uniformément continue des fonctions simples mesurables.

98
10.2 Intégrale de LEBESGUE pour les fonctions simples.
Soit f une fonction simple quelconque qui prend pour valeurs y1 , y2 , ..., yn ... pour yi 6= yj si i 6= j et supposons
naturellement défini l’intégrale de f par A ( sur l’ensemble A) à partir de l’égalité suivante
Z X x
f (x) dµ = yn µ(An ) (1) où An = { = yn }
A n
f (x)
P
si n yn µ(An ) converge.

Definition 30. La fonction simple f est dite intégrable ou sommable par la mesure µ dans A si la série (1)
converge absolument. Si f est intégrable, alors la série (1) est appelée l’intégrale de f par l’ensemble A. Dans la
définition précédente nous avons supposé que tous les yi sont différents, on peut cependant représenter les valeurs de
l’intégrale d’une fonction simple comme une somme de produit Ck (µ(Bk ) et ne pas supposer que les Ck sont deux
à deux différents. Ceci nous conduit au Lemme suivant :

lemme. Supposons que A = ∪k Bk où Bi ∩ Bj = ∅ si i 6= j et supposons que dans les sous-ensembles Bk la fonction


f admet une et une seule valeur unique Ck , Alors :
Z X
f (x) dµ = Ck µ(Bk ) (2)
A k

De plus la fonction f est intégrable sur A si et seulement la série (2) est absolument convergente sur A.

10.2.1 Quelques propriétés de l’intégrale de LEBESGUE.


1 Z Z Z
[f (x) + g(x)] dµ = f (x) dµ + g(x) dµ
A A A
L’existence de l’intégrale de gauche entraîne l’existence de l’intégrale de droite
Démontration :
Pour le démontrer, supposons que f prend les valeurs fi dans les sous-ensembles Fi C A et que g prend les
valeurs gi dans Gi C A.
Posons Z X
J1 = f (x) dµ = fi µ(Fi ) (3)
A i
Z X
J2 = g(x) dµ = gi µ(Gi ) (4)
A i
R P
À partir du Plemme, on a : J = A [f (x) + g(x)] dµ (5) on peut donc prendre queµ(Fi ) = j µ(Fi ∩ Gj )
et µ(Gj ) = j µ(Fi ∩ Gj ) comme les séries (3) et (4) sont absolument convergentes alors (5) absolument
convergente, donc J = J1 + J2 .
2 Homogénéité. Z Z
f (x) dµ = k f (x) dµ
A A
de l’existence de l’intégrale de gauche entraîne l’existence de celle de droite.
3 Si f est bornée sur A et intégrable,
Z

∃M ∈ A/|f (x)| ≤ M, ona : f (x) dµ ≤ M µ(A)
A

99
10.3 Définition Générale de l’intégrale de LEBESGUE
Definition 31. : Nous dirons que la fonction f est intégrable dans R A s’il existe une suite {fn } Rde fonctions simples
intégrables sur AR et qui converge vers Rf . La limite I = lim c→∞ f (x) dµ (6) , posons là A fn (x) dµ et nous
A n
allons l’appeler A fn (x) dµ = limc→∞ A fn (x) dµ. Cette définition a bien un sens si les conditions suivantes sont
bien résumées :
1 la limite en (6) pour toute suite uniformément convergente des fonctions simples intégrables sur A existe.
2 Cette limite pour f définie ne dépend pas du choix de la suite.
3 Pour les fonctions simples, la définition de l’intégrale suit la définition donnée en 7.2.
En effet toutes ces conditions sont vérifiées.
Pour la première, il suffit de remarquer qu’à partir de a, b, c nous avons donné pour la définition de l’intégrale
des fonctions simples, il vient que :
Z Z

fn (x) dµ − fm (x) dµ ≤ µ(A) sup |fn (x) − fm (x)|

A A

Pour justifier la deuxième condition, il faut considérer deux suites {f n} et {fn∗ } qui convergent vers f . Si la
limite en (6) de ces deux suites prenait des valeurs différentes, alors pour la suite obtenue en faisant l’union des
deux suites, la limite en (6) n’existerait pas ce qui contrarierait la première condition.
Pour justifier la troisième condition, il suffit tout simplement de considérer la suite {fn } où fn = f pour tout n.

Remark 14. Nous voyons que dans la construction de l’intǵrale de LEBESGUE, il existe deux étapes essentielles :
1 l’intégrale comme une série pour une certaine classe de fonctions simples. Ensuite nous avons gńéralisé cette
approche.
2 Nous avons considérer la définition de l’intégrale par le passage à la limite.

10.3.1 Quelques propriétés


1 Z
1 dµ = µ(A) (8)
A
2 Z Z
kf (x) dµ = k f (x) dµ. (9)
A A
Dans chacune de ces relations , l’existence de l’intégrale à gauche entraîne l’existence de celle de droite.
3 Z Z Z
[f (x) + g(x)] dµ = f (x) dµ + g(x) dµ (10)
A A A
4 La fonction f bornée surR A est intégrable sur A.
5 Si f (x) ≥ 0, implique A f (x) dµ ≥ 0.(11) Si nous supposons que cette intégrale existe pour les fonctions
simples, cette proposition provient de la définition. Mais dans le cas général, on peut le ressortir en constatant
que si f est mesurable et positive, alors on peut trouver une suite de fonctions simple positive uniformément
convergente. De cette propriété, il vient aussi que si f (x) ≥ g(x) alors :
Z Z
f (x) dµ ≥ g(x) dµ (12)
A A

C’est pourquoi si pour tout x dans A


Z
∃ m, M, tel que m ≤ f (x) ≤ M alors mµ(A) ≤ f (x) dµ ≤ M µ(A). (13)
A
R
6 Si µ(A) = 0 ⇒ A
f (x) dµ = 0.

100
R R
7 Si f (x) = g(x) ⇒ A f (x) dµ = A g(x) dµ
De plus les deux intégrales existent ou n’existent pas au même moment. Ces deux propositions sont consé-
quence de la définition de l’intégrale de LEBESGUE.
R sur A et P P sur RA on a |f (x)| ≤ ϕ(x), alors f est aussi Intégrable sur A.
8 Si ϕ(x) est intégrable
9 Les intégrales I1 = A f (x) dµ et I2 = A |f (x)| dµ (14) existent ou n’existent pas au même moment.
En effet l’existence de I2 entraîne celle de I1 en raison de la propriété 8. Inversement, pour les fonctions
simples, ceci provient de la définition des intégrales. Mais dans le cas général, la démonstration se fait par le
passage à la limite et de l’utilisation du théorème 2 en plus il faut utiliser |a| − |b| ≤ |a − b|.
Demonstration 1. Démonstration de la propriété 8.
En effet si f et ϕ(x) sont des fonctions simples ,alors en extrayant sur A, un ensemble de mesure nulle, le
reste, des éléments de A que nous pouvons noté A0 peut être représenteés comme une réunion finie ou dénombrable
d’ensemble dans chacun où f et ϕ(x) sont constantes.

f (x) = an , ϕ(x) = bn .

De plus on a : |a|n ≤ bn . De l’intégralité de ϕ alors :


X X Z Z
|an |µ(An ) ≤ |bn |µ(An ) = ϕ(x) dµ = ϕ(x)dµ
n n A0 A

C’est pourquoi f est aussi intégrable et nous avons :


Z Z
X Z
X
f (x) dµ = f (x) dµ = a µ(A ) ≤ |a |µ(A ) = |f (x)| dµ

n n n n

0
A A n
n A

Dans le cas général, cette propriété se démontrer par le passage à la limite.

10.4 Sigma-additivité et la continuité absolue de l’intégrale de LE-


BESGUE
Dans le point précédent, nous avons formulé les propriétés de l’intégrale de LEBESGUE dans un ensemble.
Maintenant,
R nous allons donner quelques propriétés de l’intégrale de LEBESGUE en considérant l’expression F (A) =
A
f (x) dµ comme fonction de l’ensemble défini sur une collection d’ensemble mesurables. Établissons le théorème
suivant.

Theorem 40. Si A = ∪n An avec Ai ∩ Aj = ∅, i 6= j alors


Z XZ
f (x) dµ = f (x) dµ (15)
A n An

De l’existence de l’intégrale à gauche entraîne l’existence de celle de droite .


Preuve : Dans un premier temps, il faut vérifier la proposition pour les fonctions simples f qui prennent les
valeurs y1 , y2 , ..., yn , ...
Supposons que Bk = {x; x ∈ A, f (x) = yk } et Bnk ⊂ Bk / Bnk = {x; x ∈ A, f (x) = yk }
Z X X
f (x dµ) = yk µ(Bk ) = yk µ(∪n Bnk )
A k k

alors Z X X XX XZ
f (x) dµ = yk µ(Bnk ) = ( yk µ(Bnk )) = f (x) dµ (16)
A k n n k n An

101
P
Comme la série n µ(Bnk )dans la supposition de l’intégrabilité de f dans l’ensemble A converge absolument et les
mesures de tous les ensembles présents sont positives, alors toutes les autres séries dans la chaîne (16) convergent
absolument.
Dans le cas de toute fonction arbitraire f , de son intégrabilité sur A implique que pour tout  > 0 , il existe une
fonction simple g intégrable sur A qui vérifie la condition

|f (x) − g(x)| < , (17)

or g simple alors Z XZ
g(x) dµ = g(x)dµ (18)
A n An

De plus, g est intégrable dans chaque sous-ensemble An et la série en (18) converge absolument. De cette dernière
condition et (17) alors f est aussi intégrable dans chaque sous-ensemble An et nous aurons
X Z Z X
| f (x) dµ − g(x) dµ| = µ(An ) = µ(A)
n An An n

soit Z Z


f (x) dµ − g(x) dµ ≤ µ(A),
An An
P R P R R
ce avec (18) entraîne la convergence absolue de la série n An f (x) dµ et | n An f (x) dµ − A
f (x) dµ| ≤ 2µ(A).
Comme  > 0 et arbitraire alors nous aurons que :
XZ Z
f (x) dµ = f (x) dµ
n An A

Conséquence.
Si f est intégrable dans A, alors f est intégrable dans tout ensemble mesurable A0 C A.
Nous avons montré que de l’intégrabilité de la fonction f sur l’ensemble A entraîne que si A = ∪An , Ai et Aj
distincts pour i 6= j ,alors f est intégrable dans chaque An et l’intégrale sur A est égale à la somme des intégrales
sur An .Cette proposition peut être reformulée de la manière suivante :
P R
Theorem 41. A = ∪n An , Aj 6= Aj , i 6= j et la série n An |f (x)| dµ (19) converge, alors f est intégrable sur
A et nous avons : Z XZ
f (x) dµ = f (x) dµ
An n An

preuve :
Ici l’idée par comparaison avec le théorème 28 est l’affirmation que la convergence de la série (19) implique
l’intégrabilité de la fonction f sur A. Comme dans le théorème 28, nous allons d’abord donner une démonstration
pour les fonctions simples qui prennent pour valeurs fi .

Bi = {x; x ∈ A, f (x) = fi }, Ani = An ∩ Bi


Z X
∪Ani = Bi et |f (x)| dµ = |fi |µ(Ani )
A i

de la convergence de la série (19) entraîne que la convergence de la série


XX X
|fi |µ(Ani ) = |fi |µ(Bi )
n i i
R P
veut dire que A
f (x) dµ = i fi µ(Bi ) existe.

102
Dans le cas général, il faut approximer f est des fonctions simples f˜ telle que :

|f (x) − f˜(x)| < .


(20)

Alors : An |f˜(x)| dµ ≤ An |f (x)| dµ + µ(An ) et comme la série n µ(An ) = µ(A) converge et de la convergence
R R P

de n An |f˜(x)| dµ soit à partir donc du résultat simple f˜ intégrables sur A et à cause de l’égalité (20) , f sera
P R
aussi intégrable sur A

Inégalité de Tchebychev.
Si ϕ(x) ≥ 0 sur A et soit c > 0. Alors la mesure
Z
1
µ{x/x ∈ A, ϕ(x) ≥ c} ≤ ϕ(x) dµ (21)
C A

Effectivement, soit A0 = {x; x ∈ A, ϕ(x) ≥ c},


Z Z Z Z
ϕ(x) dµ = ϕ(x) dµ + ϕ(x) dµ ≥ ϕ(x) dµ ≥ Cµ(A0 ),
A A0 A−A0 A0

d’où Z
ϕ(x) dµ ≥ Cµ(A0 ).
A

R
Conséquence. Si A |f (x)| dµ alors f (x) = 0 P P
En effet, en raison de l’inégalité de Tchebychev, nous aurons :
Z
1
µ{x/x ∈ A, |f (x)| ≥ } ≥ n |f (x)|dµ = 0 ∀n.
n A

C’est pourquoi

X 1
µ{x/x ∈ A, f (x) 6= 0} ≤ µ{x/x ∈ A, |f (x)| ≥ } = 0, d’où la justification.
n=1
n

Nous avions à montrer précédemment que l’intégrale de LEBESGUE dans un ensemble de mesure nulle est égale
à 0 pour tout f . Dans la suite, nous allons discuter de la continuité absolue de l’intégrale de LEBESGUE et le
théorème suivant illustre ce fait.
Theorem 42. (Continuité absolue de l’intégrale de LEBESGUE). R
Si f (x) est une fonction sommable dans A, ∀ > 0, ∃σ > 0/| C f (x) dµ| < . pour tout ensemble mesurable C
inclut dans A tel que µ(C) < σ.
Preuve : Notons d’abord que notre proposition est évidente si f est bornée. Supposons maintenant que f est
arbitraire intégrable sur A.
An = {x, x ∈ A, n ≤ |f (x)| < n + 1}
BN = ∪N n=0 An , CN = A − BN
R P∞ R
En raison du théorème 3, nous avons A |f (x)| dµ = n=0 |f (x)| dµ choisissons N telle que
∞ Z
X  
|f (x)| dµ < et soit 0 < σ < si µ(C) < σ,
An 2 2(N + 1)
n=N +1

alors Z Z Z

f (x) dµ ≤  
|f (x)| dµ + |f (x)| dµ < + ,

C

C∩BN C∩CN 2 2

103
donc Z

f (c) dµ < .

C

R suivant : Supposons f positive et sommable (intégrable) dans


Les propriétés ainsi établies nous mènent au résultat
l’espace X mesurable, alors la fonction F (A) = A f (x) dµ P est définie pour tout A inclut dans X, positive et
σ-additive c-à-d si A = ∪An deux à deux disjoints F (A) = n f (An )

10.5 Passage à la limite sous le signe Intégrale


La question du passage à la limite sous le signe intégrale est une question que l’on rencontre dans plusieurs
problèmes et applications. Dans l’analyse classique, il est établi que la condition suffisante de ces passages à la
limite est la convergence uniforme de la suite correspondante. Nous allons établir un tel théorème pour le passage à
la limite sous le signe de l’intégrale de LEBESGUE qui ne sera qu’une généralisation du théorème qui a été étudié
en analyse classique.

Theorem 43. : théorème de LEBESGUE


Si la suite {fn }n converge vers f dans A et si pour tout n,|f (x)| ≤ ϕ où ϕ(x) est une fonction intégrable sur A,
alors la fonction f est intégrable sur A et on a :
Z Z
fn (x) dµ →n→∞ f (x) dµ
A A

Preuve :
Des conditions du théorème, il vient que |f (x)| ≤ ϕ(x), c’est pourquoi f sera intégrable.
Soit  > 0, en raison du théorème 5, il existe donc δ positif, si µ(B) < δ alors
Z

ϕ(x) dµ < (22)
B 4

En raison du théorème de EGOROV, l’ensemble B vérifiant la condition µ(B) < δ , on peut choisir la suite {fn (x)}n
telle qu’elle converge uniformément dans C = A\B. Ainsi, on peut trouver N / pour n ≥ N et x dans C, l’inégalité
suivante soit vérifiée

|f (x) − fn (x)| <
2µ(C)
Z Z Z Z Z
⇒ f (x) dµ − fn (x) dµ = [f (x) − fn (x)] dµ + f (x) dµ) − fn (x) dµ
A A C B B

comme par hypothèse on a |fn (x)| ≤ ϕ(x).


fn (x) < ϕ(x), on a :
Z Z Z Z Z

f (x) dµ − fn (x) dµ ≤ [f (x) − f n (x)] dµ + f (x) dµ) + fn (x) dµ

A A C B B
Z Z

f (x) dµ −
  
fn (x) dµ ≤ + +

A A 2 4 4
d’où Z Z

f (x) dµ − f n (x) dµ < .

A A

Theorem 44. :Conséquence Si la suite |fn (x)| ≤ M et que f →n→∞ f alors


Z Z
fn (x) dµ →n→∞ f (x) dµ.
A A

104
Theorem 45. :LEVI
Supposons que dans A, on a une suite de fonctions croissante c-à-d f1 (x) ≤ f2 (x) ≤ f3 (x) ≤ ... ≤ fn (x) ≤ ...
De plus les fonctions fn sont intégrables et toutes leurs intégrales sont bornées c-à-d pour tout n
Z
fn (x) dµ ≤ K.
A

Alors P P dans A, il existe une limite finie limn→∞ fn (x) = f (x) (23)
La fonction f est intégrable dans A et on a :
Z Z
fn (x) dµ →n→∞ f (x) dµ
A A

En outre dans l’ensemble où la limite en (23) n’existe pas, pour la fonction f , on peut par exemple poser f (x) = 0.
preuve :
Nous allons d’abord supposer que f1 (x) ≥ 0 puisque dans le cas général nous pouvons l’obtenir en faisant un
changement de fonction f¯n (x) = fn (x) − f1 (x).
Considérons l’ensemble Ω = {x, fn (x) →n→∞ ∞}. Nous voyons finalement que nous pouvons le décomposer
(r) (r)
Ω = ∪r, n Ωn , avec Ωn = {x, x ∈ A; fn > r}.
À partir de l’inégalité de Tchebythev en (21), il vient
K
µ(Ω(r)
n )≤
r
(r) (r) (r)
car µ(Ω1 ) ⊂ µ(Ω2 ) ⊂ ... ⊂ µ(Ωn ) ⊂ .... De part l’arbitrarité de r, alors µ(Ω) = 0
Ainsi nous venons de montrer que toute suite monotone {fn (x)} admet P P sur A une limite finie qu’on note
f (x).
Dans la suite, posons Ar l’ensemble {x ∈ A, r − 1 ≤ f (x) < r}, r entier naturel et posons ϕ(x) = r sur Ar .
Si nous dé‘montrons l’intégrabilité de ϕ(x) = r sur A, alors l’affirmation de notre théorème se fera à partir de la
conséquence du théorème 7.
Posons Bs = ∪sr Ar , comme sur Bs les fonctions fn (x) et f (x) sont bornées et que toutefois nous avons ϕ(x) ≤
f (x) + 1, alors Z Z Z
ϕ(x) dµ ≤ f (x) dµ + µ(A) = lim f (x) dµ + µ(A) ≤ K + µ(A)
Bs Bs n→∞ Bs
R Ps
mais Bs ϕ(x) dµ = r=1 rµ(Ar ). Ainsi l’intégrabilité de ϕ(x) dans A est démontré . La condition de la monotonie
croissante des fonctions fn (x) peut être changée dans le théorème par la condition de la monotonie décroissante des
fonctions fn (x). .
P∞ R P∞
Conséquence. Si la suite Ψ(x) ≥ 0 et si n=1 A Ψn (x) dµ < ∞ alors P P dans A n=1 Ψn (x) converge et on
a Z ∞
X ∞ Z
X
( Ψn (x)) dµ = Ψn (x) dµ
A n=1 n=1 A
.
Theorem R 46. FATOU Si la suite des fonctions mesurables positive {fn (x)}
R converge P P dans A vers la fonction
f et que A fn (x) dµ ≤ k, alors f est intégrable dans A et on aura aussi A fn (x) dµ ≤ k.
Preuve :

Posons ϕ = inf k≥n fk (x). ϕn est mesurable puisque {x, ϕn (x) < c} peut s’écrire comme une réunion ∪k≥n {x, fk (x) <
c} D’autre part, nous avons p ≤ ϕn (x) ≤ fn (x). C’est pourquoi les ϕn sont intégrables et nous avons
Z Z
ϕn dµ fn (x) dµ ≤ K
A A

et enfin ϕ1 (x) ≤ ϕ2 (x) ≤ ϕ3 (x) ≤ ... ≤ ϕn (x) ≤ et lim ϕn (x) = f (x) P P , c’est pourquoi en appliquant le théorème
8 à la suite {ϕn }, nous obtenons le résultat.

105
10.6 Intégrale de LEBESGUE sur les ensembles de mesure infinie
Jusqu’à présent, quand nous avons parlé de l’intégrale et de ses propriétés nous avons supposé que les fonctions
mesurables considérées sont définies dans des ensembles de mesure finie.
Cependant très souvent, l’on rencontre des fonctions définies dans des ensembles de mesure infinie. Par exemple
dans tout l’ensemble des nombres réels,( la droite numérique) avec la mesure de LEBESGUE définie sur R. C’est
pourquoi il serait judicieux d’étudier ce cas aussi.
Nous allons considérer le cas où l’ensemble de mesure infinie peut être représenté comme une réunion dénombrable
d’ensembles de mesure finie.
Exemple 11. X = ∪Xn et µ(X) < ∞ (24) Si l’espace X dans lequel est défini la mesure µ peut être représenté
comme réunion dénombrable d’ensemble de mesure finie alors la mesure µ dans X, est appelée σ-finie. Les exemples
de mesure σ-finie sont : La mesure de LEBESGUE dans la droite nuérique, le plan dans un espace de dimension n.
Les mesures qui ne vérifient pas la condition de σ-finie peuvent par exemple être obtenues en écrivant chaque point
de la droite numérique lui affectant un poids égal à 1.
Ainsi tout sous-ensemble de la droite des nombres réel sera mesurable. De plus les ensembles finis auront des
mesures finies et les autres des mesures infinies. Appelons suite Numérique exhaustive chaque suite monotone
croissante {Xn } de sous-ensembles mesurables X vérifiant la condition (24).

Definition 32. La fonction mesurable f définie dans l’ensemble X avec pour mesure µ σ-finie, est dite sommable
(intégrable) sur X
R dans chaque sous-ensemble A C X de mesure finie et si pour toute suite exhaustive Xn la
limite : limn→∞ xn f (x) dµ existe et ne dépend pas du choix de la suite. Cette limite est appelée l’intégrale de f
R
par l’ensemble X et notée x f (x) dµ.
Conclusion Z Z
lim f (x) dµ = f (x) dµ (26).
n→∞ xn x

Remark 15. Il est clair que si f est nulle hors d’un ensemble de mesure finie alors en fonction de la définition
précédente, l’intégrale de cette fonction sera nulle.

10.7 Comparaison de l’intégrale de LEBESGUE et l’intégrale de RIE-


MANN
Dans ce point nous allons justifier le lieu entre l’intégrale de RIEMANN et celle de LEBESGUE. Dans notre
argumentaire nous allons nous limiter au cas simple de la mesure de LEBESGUE sur la droite numérique. Ainsi le
théorème suivant a un sens.
Rb
Theorem 47. Si l’intégrale I = (R) a f (x) dx existe {(R) signifie au sens de RIEMANN} alors f est intégrable
dans le segment [a, b] au sens de LEBESGUE et nous avons :
Z
I= f (x) dµ au sens de LEBESGUE.
[a,b]

Preuve :

Considérons une partie d’un segment [a, b] en xk = a + 2kn (b − a)et la somme de DARBOUX dans le segment
[a, b] :
2n
a X
Ωn = (b − n ) Mnk .
2
k=1
2n
a X
ωn = (b − ) mnk , xk−1 ≤ x ≤ xk
2n
k=1

106
où Mnk et mnk sont respectivement les bornes supérieures et inférieures dans ce segment. Par définition de l’inté-
grable de RIEMANN, on a :
I = lim Ωn = lim ωn .
n→∞ k=1

Posons : f¯n (x) = Mnk dans xk−1 ≤ x ≤ xk , f n (x) = mnk dans [xk−1 , xk ].
Au point x = b, les fonctions f¯n (x), f n (x) peuvent être redéfinies de manière arbitraire,nous pouvons facilement
calculer que : Z Z
¯
fn (x) dµ = Ωn , f n (x) dµ = ωn
[a,b] [a,b]

comme {f¯n (x)} est croissante et {f n (x)} est décroissante alors P P f¯n (x) → f¯(x) ≥ f (x), de même f n (x) → f (x) ≤
f (x)
À partir du théorème de LEVI, on peut écrire que :
Z Z
f¯(x) dµ = lim Ωn = I = lim ωn = f n (x) dµ
[a,b] [a,b]
Z Z
|f¯(x) − f (x)| dµ = (f¯(x) − f (x)) dµ
[a,b] [a,b]

C’est pourquoi P P , on aura : f¯(x) − f (x) = 0 c’est-à-dire


Z
¯
f (x) = f (x) = f (x) et f (x) dµ = I CQFD.
[a,b]

Nous pouvons donner aussi un exemple de fonction intégrable au sens de RIEMANN.-


Considérons la fonction de DIRICHLET

1 x ∈ Q,
f (x) =
0 x∈ / Q.

En effet les fonctions non bornées ne peuvent pas être intégrables au sens de RIEMANN, mais la plupart de
celles-ci sont intégrables au sens de LEBESGUE. En particulier toute fonction positive pour laquelle l’intégrale de
Rb
RIEMANN existe a+ f (x) dx ∀ > 0, et admet une limite I quand  → 0 est intégrable au sens de LEBESGUE
dans [a, b] et nous aurons
Z b Z b
lim f (x) dµ = f (x) dµ.
→ a+ a
Rb Rb
L’intégrale impropre lim→ a+ f (x) dµ dans le cas où lim→ a+ |f (x)| dµ = ∞ n’est pas intégrable au sens de
LEBESGUE en accord avec la propriété 8 du point C.
R1
Exemple 12. 0 x1 sin(x) dx existe comme convergente sous certaines conditions comme intégrale impropre de
RIEMANN.
si on considère la fonction dans R ou demi-droite, l’intégrale de RIEMANN peut exister seulement dans le cas
impropre. Si une telles intégrales de LEBESGUE correspondante existent et ont même valeur. Si cette intégrale
converge sous conditions, alors au sens de LEBESGUE, cette fonction n’est pas intégrable.
1
Exemple 13. f (x) = x sin(x) n’est pas intégrable au sens de LEBESGUE dans tout R car
Z +∞ Z +∞
1 1
| sin(x)| dx = ∞ mais sin(x) dx = π.
−∞ x −∞ x

107
Chapitre 11

PRODUIT DIRECT DES SYSTÈMES


D’ENSEMBLES DE
MESURES :THÉOREME DE FUBINI.

Introduction
En analyse, le théorème du passage d’une intégrale double (multiple) à une intégrale simple joue un rôle très
important. Dans la théorie des intégrales multiples de Lebesgue le résultat principal est le théorème de Fubini.
Considérons le triplet U = X ∗ Y ∗ Z si dans X, Y , Z sont définies des mesures µX , µY , µZ alors la mesure µ
peut être définie comme (µx RµY )RµZ ou bien µZ R(µY RµZ ).

11.1 Produit d’un système d’ensembles.


L’ensemble Z des paires ordonnées (x, y) où x est dans X et y dans Y est appelé produit direct de X et Y et noté
X ∗ Y . De même l’ensemble Z des n-uplets (x1 , x2 , ..., xn ) où xk dans Yn est appelé produit direct des ensembles
X1 , X2 , ..., Xn et noté Z = X1 ∗ X2 ∗ ... ∗ Xn = |X̄|Xk .
Si X1 = X2 = ... = Xn alors on a Z = X n
Si les Θ1 , Θ2 , ..., Θn sont des systèmes de sous ensembles des ensembles X1 , X2 , ..., Xn alors K = Θ1 ∗ Θ2 ∗ ... ∗ Θn
représente un système de sous ensembles de l’ensemble X = |X̄|Xk qui représente par A = A1 ∗ A2 ∗ A3 ∗ ... ∗ An où
Ak dans Θk .
Theorem 48. Si Θ1 , Θ2 , ..., Θn des semi-anneaux alors K = |X̄|Θk est semi-anneau

11.2 Produit des Mesures


Supposons que sur les semi-anneau Θ1 , Θ2 , ..., Θn soient définies les mesures. A = A1 ∗ A2 ∗ A3 ∗ ... ∗ An où Ak
dans Θk . Par souci de simplification, nous allons supposer que ces mesures sont finies.
Définissons sur le semi-anneau K = Θ1 ∗ Θ2 ∗ ... ∗ Θn (1)
la mesure µ = µ1 ∗µ2 ∗...∗µn ) (2) par la formule µ(A) = µ1 (A1 )∗µ2 (A2 )∗...∗µn (An ) (3) où A = A1 ∗A2 ∗...∗An ,
il faut ici montrer que µ(A) est une mesure c’est-à-dire que cette fonction d’ensemble est additive. Faisons cela dans
le cas où n = 2.
(k) (k)
Soit donné la décomposition A = A1 ∗ A2 = ∪k B (k) , B (i) ∩ B (j) = ∅ pour i 6= j, B (k) = B1 ∗ B2 .
(m) (n) (k) (m)
Il existe de telle décompositions A1 = ∪m C1 , A2 = ∪m C2 que B1 est la réunion de certains C1 et

108
(k) (n)
l’ensemble B2 -réunion de certains C2 . Il est alors claire que
(m) (n)
XX
µ(A) = µ1 (A1 )µ2 (A2 ) = µ1 (C1 )µ2 (C2 ) (4)
n m
(k) (k) (m) (n)
XX
µ(A(k) ) = µ1 (B1 )µ2 (B2 ) = µ1 (C1 )µ2 (C2 ) (5)
m n
(m) (n) (k)
En outre dans (5) la somme à droite est paire pour tout C1 inclut dans B1k et C2 inclut dans B2 et la partie
droite de l’égalité (4) est présente dans tous les membres qui apparaissent dans la partie droite de (5). C’est pourquoi
X
µ(A) = (µ(Bk )). CQFD
k

Theorem 49. Si les mesures µ1 , µ2 , ..., µn sont σ-additive alors la mesure µ = µ1 ∗ µ2 ∗ ... ∗ µn sera aussi σ-additive.

11.3 Théorème de FUBINI


Considérons le triple produit U = X ∗ Y ∗ Z ; si dans X, Y , Z sont définies les mesures µx , µy , µz alors la mesure
µu = µx ⊗ µy ⊗ µz peut être définie comme (µx ⊗ µy ) ⊗ µz ou µx ⊗ (µy ⊗ µz )
Theorem 50. (Fubini)
Supposons que les mesures µx et µy sont définies dans une σ-algèbre et qu’elles sont σ- additives et complètes
et supposons en plus que µ = µx ⊗ µy et la fonction f (x, y) est intégrable par la mesure µ dans A C X ∗ Y (9)
alors : Z Z Z
f (x, y) dµ = ( f (x, y) dµy ) dµx
A X Ax
Ici, dans l’affirmation du théorème il faut que les intégrales entre parenthèses existent.
Exemple 14. A = [−1, 1]2
xy
pour x2 + y 2 > 0

f (x, y) = (x2 +y 2 )2
f (0, 0) = 0
alors Z 1 Z 1
f (x, y) dx = 0 ∀y; f (x, y) dy = 0 ∀x
−1 −1
C’est pourquoi : Z 1 Z 1 Z 1 Z 1
( f (x, y) dx) dy = ( f (x, y) dy) dx = 0
−1 −1 −1 −1
mais l’intégrale au sens de l’intégrale double de Lebesgue en quadrature n’existe pas comme
Z 1Z 1 Z 1 Z 2π Z 1
| sin ϕ cos ϕ| 1
f (x, y) dx dy ≥ dr dϕ = 2 dr
−1 −1 0 0 r 0 r

Exemple 15. A = [0, 1]2


 1 1 1 1

 22n pour 2n ≤x≤ 2n−1 et 2n ≤y≤ 2n−1



1 1 1 1
f (x, y) = −22n+1 pour 2n+1 ≤x≤ 2n et 2n ≤y≤ 2n−1




0 dans les autres cas.

Montrer que Z 1 Z 1
( f (x, y) dx) dy = 0,
−1 −1
Z 1 Z 1
( f (x, y) dy) dx = 1.
−1 −1

109
Chapitre 12

DISTRIBUTIONS

Introduction
The distribution is the generalization of the classical notion of function. This generalization in one direction
makes it possible to express in mathematical form idealized notions such as the density of an electric charge of a
material point, of a dipole, the double or single density of a layer, the intensity of a luminous point, ... On the other
hand, in the notion of distribution, we find that : In reality it is not possible for example to measure the density of
matter of a point but that we can only measure the average density in a small neighborhood of this point. In other
words, the distribution is defined by the average value around each point. To justify ourselves, let us try to define
the density of a material point of unit mass by assuming that this point coincides with the origin of the coordinates.
To define this density, let us distribute the mass evenly inside the ball Ue . As a result we can obtain the average
density
 3
fε (x) = 4πε0 si |x| ≤ ε (1)
0 si |x| ≤ ε
We will define the limit of fε (x) point by point and we denote δ (x)

+∞ si x = 0
δ (x) = lim fε (x) = (10 )
ε→∞ 0 si x 6= 0

From this density we will require that its integral on the volume V From this density we will require that its
integral over the volume V gives the mass of the introduced material, ie :
Z 
1 si 0 ∈ V
δ (x) dx =
0 si 0 ∈
/0
V

En raison de (1’), the left side of equality (2) s always zero (0). The contradiction obtained shows that the point
by point limit of the sequence fε (x) when ε → 0 that is to say for any continuous function ϕ(x) we can find the
sequence Z
lim f (x)ϕ(x)dx = ϕ (0) (3)
x→∞
V

when ε → 0.
Indeed, depending on the continuity of ϕ(x) we have :
∀η > 0 ∃ε0 > 0 , |x| < ε0 ⇒ |ϕ(x) − ϕ(0)| < η
R
Let’s evaluate the difference fε (x)ϕ(x)dx − ϕ(0)
V

110

R R
fε (x)ϕ(x)dx − ϕ(0) = 3
[ϕ(x) − ϕ(0)]dx

4πε3
V
|x|<ε

R 3
R
fε (x)ϕ(x)dx − ϕ(0) ≤ |ϕ(x) − ϕ(0)|dx ≤ η0 .
4πε3
V
Thus, the weak limit of the function sequence {fε (x)} when ε → 0 is the functional ϕ(0) correspond to each
continuous function ϕ(x) the number ϕ(0).
This functional can be taken as density δ(x) of limit of the unit of mass which is concentrated at the point x = 0
it is the DIRAC function and we can write : fε (x) → δ(x) when ε → 0. Understanding this as equality (3), the
value of the functional δ(x) over the function ϕ(x) ie ϕ(0) nd very often we denote (δ, ϕ) = ϕ(0) (4). Let us now
verify that the reconstructed functional is mass. Indeed, as we have shown, the aim of the integral δ(x) is played
by the number (δ(x), 1) which is equal due to 4) (δ, 1) = 1 if the masses µk with 1 ≤ k ≤ N then the corresponding
density of this distribution is equal to
N
X
µk δ(x − xk ) (5)
k=1
N
P
The expression in (5) is a linear functional which matches each continuous function ϕ(x) the number µk ϕ(xk ).
k=1
Thus, the δ-function is defined using continuous functions as a linear functional defined on these functions, we can
therefore conclude that the continuous functions are a basis of functions for the definition of the δ-function.
Definition 33. : Support of a fraction
The support of continuous functions ϕ(x) is the closure of the set of points which are such that ϕ(x) different from
0 suppϕ = {x, ϕ(x) 6= 0}
The function ϕ(x) is taken finite if it has a compact support if ϕ(x) = 0 ∀x ∈ R\K where K is a compact of
Rn .
If ϕ(x) ∈ C ∞ (Rn ) we denote ϕ(x) ∈ C 0∞ (Rn ) . If for a basis function we take the set of all finite functions which
are indefinitely differentiable C 0∞ (Rn ). In distribution theory, this set is denoted by
D = D(Rn ) = C 0∞ (Rn ). Let us introduce a convergence into this set in a natural way. The sequence of functions
ϕk ∈ D converge to ϕ ∈ D if there exists a number R > 0 and a ball KR such that suppϕk ⊂ KR
Dα ϕk → Dα ϕ when K → ∞
α = (α1 ...αn ) with αi ≥ 0 ∀i
Exemple 16. Example : Of fonction D.
( 2
χh exp( h2−h
−|x|2
) si |x| ≤ h
ωh (x) =
0 si |x| > h
−1 −1
ωh (x) dx = 1 , χh = [hn
R R
where χh is chosen such that exp( 1−|x|2 ) dx]
Rn |x|≤1
D s the distribution set of the open set Ω which are therefore continuous linear functionals defined in a set D(Ω).

12.1 D0 set of distributions.


The distribution is continuous over space D at each linear functional.
— The distribution f is a linear function on D i.e. in D we can match a complex (f, ϕ) by :
ϕ, ψ ∈ D, ∀λ, µ ∈ C
(f, λϕ + µψ) = λ (f, ϕ) + µ (f, ψ)
— the distribution f is a continuous functional, that is to say :
ϕk → 0 ⇒ (f, ϕk ) → 0
k→∞ k→∞

111
Let’s denote D0 = D0 (Rn ) the set of distributions.
The set D’ is a linear set.
If the linear combination λf + µg of the functions f and g is defined as functional acting according to the formula
(λf + µg, ϕ) = λ (f, ϕ) + µ (g, ϕ).
Let us verify that λf + µg is continuous over D ie D’. Indeed
∀ϕ, ψ ∈ D∀α, β ∈ C
(λf + µg, αϕ + βψ) = λ (f, αϕ + βψ) + µ (g, αϕ + βψ)
(λf + µg, αϕ + βψ) = α[λ (f, ϕ) + µ (g, ϕ)] + β[λ (f, ψ) + µ (g, ψ)]
(λf + µg, αϕ + βψ) = α (λf + µg, ϕ) + β (λf + µg, ψ)
It is a linear functional its continuity comes from that of the functional f and g. Indeed, if (f, ϕk ) and (g, ϕk ) → 0
when k → 0 then

Definition 34. : The sequence of distributions f, f1 , f2 , ..., fn , ... converges to f de D0 if ∀ ϕ̃ ∈ D, (fk , ϕ) → (f, ϕ)
k→+∞
in this case we will write fk → f
k→+∞
The linear set D0 with the convergence defined above is called the distribution space.

12.2 Completeness of D0 space.


Theorem 51. Suppose that the distribution sequence f1 , f2 , ...fn is such that ∀ϕ ∈ D then the functional f on D
is defined by the equality (f, ϕ) = lim (fk , ϕ) is linear and continuous on D c’est-à-dire f in D0 .
k→+∞

Theorem 52. Suppose that the sequence of functionals f1 , f2 , ...fn , ... of D0 satisfies the conditions of Theorem 40
and the sequence of basic functions ϕ1 , ϕ2 , ... of D converges to 0 on D then (fk , ϕk ) → 0 .
k→+∞

12.3 Distribution support


Indeed, the distribution in general does not have well-defined point values but we can speak of the cancellation
in a certain domain. We will say that the distribution is zero in a domain G if (f, ϕ) = 0 ∀ϕ ∈ D(G). we will write
f = 0 for x in G or straightforwardly f (x) = 0 for all x in G.
In relation to this definition f and g are said to be equal in G if f − g = 0 for x in G andwe will simply write
f = g for x in G.
In particular the distributions f and g are equal if ∀ϕ ∈ D, (f, ϕ) = (δ, ϕ). Let’s suppose the distribution f is
zero in G. It will also be zero in each neighborhood of point in this domain, the reciprocal is true.

Theorem 53. If the distribution f is zero in each neighborhood of each point of G then it will be zero in all the
domain G.
Let’s suppose that f in D0 and consider the union of all the neighborhoods where f is zero, it forms an open Of
called the set of the distribution f . By the previous theorem all Of is the greatest open-ended in which f is zero.
The support of the distribution is the complement Of in Rn .
suppf = Rn − Of .
If Suppf is bounded then the distribution f is said to be finite.

12.4 Regular Distribution.


The example of the distribution is the functional which is generated by a local integration on Rn of the function
f(x) Z
(f, ϕ) = f (x)ϕ(x)dx (∗)
R

112
From the property of linearity of the integral leads to the linearity of the functional (f, λϕ + µϕ) = λ(f, ϕ) +
µ(f, ϕ)and the theorem of the passage to the limit in the integral ⇒ the continuity on D.
(f, ϕk ) → 0
k→+∞
Thus (*) defines a D0 distribution.
Definition 35. Distributions which are defined by locally summable (integrable) functions are called regular dis-
tributions. The rest are singular distributions.

LEMMA OF DU BOIS RAYMON.


For a function f (x) locally integrable on G to be zero in G in the sense of distributions, it is necessary and
sufficient that f (x) being zero almost everywhere on G G.
Any function Locally summable on Rn defined by the formula (*) a regular distribution.
From Du BOIS RAYMON’s lemma it comes that any regular distribution is uniquely defined by locally integrable
functions .
Thus between the local integration on Rn and the distributions, there is a one-to-one correspondence. This is why
we will always make a bijection between the locally integrable function f (x) and the distribution it defined by the
formula (*) and we denote (f, ϕ) .
In this sense the integrable functions on Rn are regular distributions.
Finally let us note that if the sequence of functions locally summable on Rn fk (x) converges uniformly towards the
function f (x) in the sense of the distributions, f that is to say it converges towards f dans ∀ϕ ∈ D
Z
(fk , ϕ) = f (x)ϕ(x) dx → (f, ϕ)
k→+∞
R

if in the domain f of C P (G) if in the domain G, it coincides with the ∀ϕ ∈ D(G), (f, ϕ) =
R
f (x)g(x)dx function
G
fG (x) which is of class Cp (G)
if moreover fG ∈ C P (Ḡ), we will say that f ∈ C P (Ḡ).

12.5 Singular distributions


In relation with the definition given in 9.4, the singular distribution cannot be put in bijection with a locally
integrable function, a simple example is the δ-function of Dirac
(δ, ϕ) = ϕ(0)
Let us show that δ ∈ D0 , δ(x) = 0 if x 6= 0 suppδ = 0.
Let us show that δ(x) is a singular distribution. Let’s suppose there is a locally integrable function f locally
integrable function Rn such that :
Z
∀ϕ ∈ D, f (x)ϕ(x)dx − ϕ(0) = 0 (∗∗)
R

Let x1 be the first coordinate x. Since


Z
x1 ϕ(x) ∈ D si x ∈ Dalors f (x)x1 ϕ(x)dx = x1 ϕ(0)|0 = (x1 f, ϕ) = 0
R

within the meaning of distributions (x1 f, ϕ) localy integrable on R is equal to 0 within the meaning of distributions.
Thus, by the Lemma of DU BOIS RAYMON
x1 f (x) = 0P P
Let f (x) = 0 almost everywhere which contradicts (**) and therefore δ is a singular distribution.

113
Let us have ωε (x) let’s show that ωε (x) → δ(x) (∗ ∗ ∗)
ε→0
0
ndeed, by the definition of convergence in D the relation (***) is equivalent to the equality
Z
lim ωε (x)ϕ(x) = ϕ(0) ∀ϕ ∈ D
ε→0
R
.
By continuity of ϕ(x),

∀η >
R 0, ∃ε0 > 0/ |x| < ε0 ⇒
R |ϕ(x) − ϕ(0)| < η R
⇒ ωε (x)ϕ(x) − ϕ(0) ≤ ωε (x) |ϕ(x) − ϕ(0)|dxη ωε (x)dxη
R Rn
⇒ lim ωε (x)ϕ(x)dx = ϕ(0) ∀ϕ ∈ D
ε→0 Rn

considering the approximation of ωε (x) when ε → 0 given by the figure. The distribution δ is better represented by
the following figure. The distribution δ is a single layer in space. Let S be a continuous surface by fragments and
µ(x) a continuous function defined on S. Let us introduce the distribution (µδS , ϕ) defined by

Figure 12.1 –

R
µ(x)ϕ(x)ds ∀ϕ ∈ D
µδS ∈ D0 µδS = 0 si x 6= 0
The distribution µδS is called a single layer on the surface S with the density µ.
Remark 16. The locally integrable functions and the δ -function describe the distribution (density of mass or
particles or charge or force), which is why generalized functions are also called distribution. This term (distribution)
was used for the first time by the French mathematician Laurent SCHWARTZ in his treatise theory of distributions.
If for example, the distribution f is the mass density or electric charges then the expression (f, 1) is the corresponding
total mass or charge. (If f has a meaning on the function which is identically equal to 1 then this function does not
belong to D) in particular (δ, 1) = 1.

12.5.1 SOKHOTSKY Formula


Introduce the linear functional ι x1 which acts according to the following formula :

Z∞
 ε 
Z Z
ϕ(x) ϕ(x) ϕ(x)
(ι x1 , ϕ) = VP dx = lim  dx + dx
x ε→0 x x
−∞ ε

We prove the continuity of this functional on D.


Let (ϕk ) be a sequence which converges to 0 when k tends to 0 that is to say ϕk (x) for |x| > R

Dα ϕk → 0 quand k → ∞

114

Z ϕ (x) ZR 0
ZR

k ϕk (0) + ϕ (x̄)
|ϕ0k (x̄)| dx ≤ 2R M ax(ϕ0k (x)) → 0
k

ι x1 , ϕ(x) = VP dx = VP dx ≤

x x
−R −R
ι 1 ∈D 0
x

The distribution ι x1 coincides (in the sense of the definition of the regularity) with the function 1/x for different
from 0 it is called finite part or principal value of the integral of the function 1/x.
Let’s establish equality Z Z
ϕ(x) ϕ(x)
lim dx = −iπµϕ(0) + ν.P dx ∀ ϕ ∈ D
x + iε x
R R
Indeed, if
ZR
x − iε
Z
ϕ(x)
ϕ(x) = 0 pour |x| > alors lim dx = lim ϕ(x)dx
ε→0 x + iε ε→0 x2 + ε2
−R

ZR ZR
x − iε x − iε
Z
ϕ(x)
lim dx = ϕ(0) lim dx + lim ϕ(x)dx A 6= 0
ε→0 x + iε ε→0 x2 + ε2 ε→0 x2 + ε2
−R −R

ZR ZR
−iε
Z
ϕ(x)
lim dx = ϕ(0) lim dx + lim dx
ε→0 x + iε ε→0 x2 + ε2 ε→0
−R −R

ZR
ϕ(x) − ϕ(0)
Z Z
ϕ(x) R ϕ(x)
lim dx = −2iϕ(0) lim arctan + dx = −iπϕ(0) + VP dx
ε→0 x + iε ε x x
−R
1 1
on pose lim =
x + iε x + i0
1
= −iπδ(x) + ι x1
x + i0
1
= −iπδ(x) + ι x1
x − i0

12.5.2 Variable change in distributions


Let f (x) be a function Rn and x = Ay + b with detA 6= 0.
Z Z
1
f (x)ϕ A−1 (x − b) dx

∀ϕ ∈ D, (f (Ay + b) , ϕ) = f (Ay + b)ϕ (y) dy =
|det A|
!
ϕ A−1 (x − b)
f (Ay + b) = f,
|det A|
We will take this equality as the definition of the distribution
!
ϕ A−1 (x − b)
f (Ay + b) = f,
|det A|

As the operation ϕ (x) → ϕ A−1 (x − b) is linear and continues D to D then the functional f (Ay + b) ∈ D0 .


In particular if A is a rotation
b = 0, At = A−
⇒ (f (Ay) , ϕ (y)) = f, ϕ At x


The distribution f (x + b) is called translation of the distribution, f (x) by the vector b.

115
Exemple 17. δ (x − x0 ) is the translation of δ by the vector −x0
(δ (x − x0 ) , ϕ (x)) = (δ (x) , ϕ (x + x0 )) = ϕ (x0 )

12.5.3 Product distributions


R let f (x) be a locally integrable function on Rn and a(x) in C∞ (Rn ) then for all ϕ ∈ D we have : (af, ϕ) =
a (x) f (x) ϕ (x) dx = (ϕ, af ).
We will take this equality as the definition of the product af of the distribution f with a function a of C∞ (Rn ),
(af, ϕ) = (ϕ, af ) ∀ϕ ∈ D (∗).
As the operation multiplication by a(x) of C∞ (Rn ) is linear and continuous from D to D then the functional
af defined by (*) belongs to D0 .
From its definition, it comes that the operation multiplication with a function a of C∞ (Rn ) is linear and
continuous from D0 to D0 and we have

a (λf + µg) = λ (af ) + µ (ag)

if fk → 0 then afk → 0 in D0
k→∞ k→∞
Similarly, if f ∈ D0 the equality f = ηf where η ∈ C ∞ or η = 1 on suppf .

Exemple 18. a (x) δ (x) = a (0) δ (x)


xι 1l = 1
Question

Is it forbidden to define the product of two distributions as it still gives us one distribution ?
−1 2
−1
For locally integrable functions this is not true because if we take for example |x| 2 = |x| . Likewise with

the distributions of space D then we can speak neither of associativity let alone of commutativity.

Counter-example

0 = 0ι x1 = (xδ (x)) ι x1 = δ (x) xι x1 = δ (x) which is absurd.




But to define the product of two distributions, one must be regular and the other irregular at the same point.

Exemple 19. δ (x − a) δ (x − b) = 0 si a 6= b

12.5.4 Derivation of distributions


let f a function of C P (Rn ) ∀α, |α| < p and ϕ ∈ D the integration formula by part is verified :
Z Z
|α| |α|
(∂ α , ϕ) = (∂ α f (x))ϕ (x) dx = (−1) f (x)∂ α ϕ (x) dx = (−1) (f, ∂ α ϕ)

|α|
It is this equality that we will take as the definition of the derivation (∂ α , ϕ) = (−1) (f, ∂ α ϕ)

Exemple 20. 
1 si x ≥ 0
θ=
−1 si x ≤ 0
 +∞ 
Z
(θ0 , ϕ) = − (θ, ϕ0 (x)) = −  θ (x) ϕ0 (x) dx
−∞

116
Z0 +∞
Z
0 0
(θ , ϕ) = ϕ (x) dx − + ϕ0 (x) dx = 2ϕ (0) = (2δ (x) , ϕ (x))
−∞ 0

12.5.5 Properties of the derivatives of distributions.


— The differentiation operation ∂ α is linear and continuous from D0 vers D0 .

∂ α (λf + µg) = λ∂ α f + µ∂ α g

if fk → 0 then∂ α fk → 0
k→∞ k→∞

— Any distribution is infinitely differentiable because if


 
0 ∂f ∂ ∂f
f ∈D ⇒ ∈ D0 ; ∈ D0
∂xi ∂xj ∂xi

— The result of differentiation does not depend on the order of differentiation

∂ α+β f = ∂ α ∂ β f = ∂ β (∂ α f )


— If f ∈ D0 and a ∈ C ∞ (Rn ) then the LEIBNITZ formula for the differentiation of the product of functions is
verified :

∂ ∂a ∂f
∂x1 (af ) = f ∂x 1
+ a ∂x 1

Proof

     
∂a ∂ϕ ∂ϕ
f , ϕ = − af, a = − f, a
∂x1 ∂x1 ∂x1
∂aϕ ∂a ∂ϕ
=ϕ +a
∂x1 ∂x1 ∂x1
∂ϕ ∂aϕ ∂a
⇒a = −ϕ
∂x1 ∂x1 ∂x1
   
∂aϕ ∂aϕ ∂a
⇒ , ϕ = − f, −ϕ
∂x1 ∂x1 ∂x1
if f = 0∀x ∈ G then ∂ α f = 0 ∀x ∈ G
⇒ sup ∂ α f ⊂ sup f
Indeed, if ϕ ∈ D (G) then ∂ α ∈ D (G)
|α|
this is why (∂ α f, ϕ) = (−1) (f, ∂ α )

(∂ α f, ϕ) = 0 si (f, ϕ) = 0

P
— If the series Uk (x) = s (x) Uk (x) locally integrable function.
k=1

if s(x) converges uniformly in each compact then we can differentiate it as many times member by member
and the series obtained converges in D.

117
Primitive of a Distribution
In this part, we will assume that n = 1.
Every continuous function admits in a unique way, up to an additive constant near te, an primitive noted
0
f (−1) (x) such that f (−1) (x) = f (x). This equality is the definition of the primitive of a distribution.
Definition : 0
The distribution f (−) of D0 (R) is called the primitive of the f de D0 (R) if f (−1) = f and (f − , ϕ0 ) =
− (f, ϕ) ∀ϕ ∈ D (ν).
The equality shows that the functional f (−1) is not established for any function of D but for the first derivatives.
Our problem is to extend this functional in any D such that the extended functional is linear and the arbitrariness
in such an extension.
Suppose first that fR(−1) exists. Let’s construct the function ∀ϕ ∈ D(R) for this, represent it as follows :
ϕ (x) = ψ 0 (x) + wε (x) ϕ (ξ)dξ (α) wε (x) the hat function
+∞
ϕ (x0 ) − wε (x0 ) ϕ (ξ)dξ dx0
R  R 
and ψ (x) =
−∞
Let us show that ϕ ∈ D(R) Indeed ψ ∈ C ∞ (R)

ψ (x) = 0 if x < − max (R, ε) ϕ (x) = 0 si x > max (R, ε)


+∞ +∞ +∞
 +∞ 
Z Z Z Z
ψ (x) = ϕ (x0 ) dx0 − wε (x0 ) dx0 ϕ (ξ)dξ  wε (x0 ) dx0 = 1
−∞ −∞ −∞ −∞

then ψ ∈ D
apply f (−1) to the equality (α) it comes
     Z
f (−1) , ϕ = f (−1) , ψ 0 + f (−1) , wε ϕ (ξ)dξ (γ)

  Z  
f (−1) , ϕ = − (f, ψ) + C ϕ (ξ)dξ C = f (−1) , wε

So if f (−1) exists, then it is expressed as the above equality where ψ is defined by the formula (γ).

Theorem 54. Every distribution f admits an primitive


 up to a ready additive constant and each primitive f (−1) of
(−1)
f is expressed according to the formula f , ϕ = − (f, ψ) + (C, ϕ) ϕ defined by (γ) and C = cte arbitrary.

This theorem that the solution of the differential equation u0 = f exists in D0 and is written u = f (−1) + C,
(−1)
f primitive of f , C = arbitrary constant.
In particular, if f is continuous then any solution in D0 of the following equation is classical u0 = 0 then
u = c = constant.
Likewise,
n we can define the primitive of order (n − 1) of the distribution such that :
f (−n) = f
0 0 0
Using the induction on the string n − k for k arbitrary and k < n, f (−1) = f, f (−2) = f (−1) , f (−n) =
f (1−n) , then f (−n) exists uniquely up to an additive polynomial of order n − 1.

Example

Let us calculate the density of the charge of an electric dipole with the electric moment =+1 at the point x = 0
on the set of real numbers.

This dipole by approximation corresponds to the charge density 1ε δ (x − ε) − 1ε δ (x)

118
 
1 1 1 1
δ (x − ε) − δ (x) , ϕ (x) = (δ (x − ε) − δ (x) , ϕ (x)) = (ϕ (ε) − ϕ (0)) = ϕ0 (0)
ε ε ε ε
 
1 1
δ (x − ε) − δ (x) , ϕ (x) = − (δ 0 , ϕ (x))
ε ε
The density obtained is −δ 0 .
Let us check that the moment gives 1 and that the total load is zero.
(−δ 0 , 1) = (δ 0 , 1) = (δ, 0) = 0 (−δ 0 , x) = (δ, x0 ) = (δ, 1) = 1

Suppose that f (x) is such that f ∈ C 1 (x ≤ x0 ) , f ∈ C 1 (x ≥ x0 )

[f ]x0 + f (x0 + 0) − f (x0 − 0)

Let us show that by deriving this function, we obtain f 0 (x) = {f 0 (x)} + [f ]x0 δ (x − x0 )

Z
∀ϕ ∈ D (f 0 , ϕ) = (f, ϕ0 ) = − f (x) ϕ0 (x)dx
Z
0
(f , ϕ) = (f (x0 + 0) − f (x0 − 0)) ϕ (x0 ) + {f 0 (x)}ϕ (x) dx

(f 0 , ϕ) = {f 0 (x)} + [f (x)]x0 δ (x − x0 ) , ϕ


In particular θ (x) is the function of HEAVISIDE θ0 (x) = {θ0 (x)} + δ (x) = δ (x)
In the theory of electrical circuits the function of HEAVISIDE is called "scaling unit", the δ-function "unit of
impulse"

Remark 17. The primitive of the δ-function is θ (x) + C where C is an arbitrary constant so θ(x) is reconstituted
as a generalized derivative of δ on the other hand, θ(x) is not reconstituted as its classical derivative because
{θ0 (x)} = 0 si x 6= 0
If ϕ admits a point of discontinuity of the first kind at xk then f 0 (x) is piecewise continuous in R, then f 0 (x) =
{f 0 (x)} + [f ]x0 δ (x − x0 )

12.5.6 Fundamental solution of a differential equation


Fundamental solution of an equation
Consider the linear differential operator of order one with constant coefficients.
m
dk
 
d X
A=A = ak ak 6= 0 (1)
dt dtk
k=0

For the differentiation formula of a compound function for real y, it comes

dk
(u (x − y)) = uk (x − y) , x ∈ (R) (2)
dtk
 
d
A (u (x − y)) = A (u) (x − y) , x ∈ (R) (3)
dx

Definition

119
The fundamental solution of operator A is called such a distribution ε (x), x ∈0 (R), for which the derivative is
understood in the direction of the distributions.
 
d
A ε (x) = δ (x) x ∈ (R) (4)
dx

Remark

d

From (3), it comes that A dx ε (x − y) = δ (x − y) x ∈ (R) (5)

Example

d
1. A = : ε (x) = θ (x)
dx
d2 1
2. A = : ε (x) = |x|
dx2 2
d
3. A = + λ : ε (x) = θ (x) e−λx
dx
d2 sin wx
4. A = 2
+ w2 , ε (x) = θ (x)
dx x

It should be noted that for an operator fixed A the fundamental solution can be an infinite set.
A fundamental question arises, what good is the fundamental solution : The answer is that it helps us solve
homogeneous differential equations. Indeed if we have to solve
 
d
A u (x) = f (x) , x ∈ (R) (6)
dx

The particular solution of (6) can be found by the following formula :


+∞
Z +∞
Z
u (x) = ε (x − y) f (y) dy ≡ (ε ∗ f ) (x) = ε (y)f (x − y) dy (7)
−∞ −∞

si f (x) = 0 pour |x| ≥ cte f (x) ∈ C(R)

Verification in the case f (x) ∈ C m (R) : for the function in (7) we have ∀x ∈ R

  +∞      
−d
Z
d d
A u (x) = ε (y)A f (x − y) dy = ε (y) , A f (x − y)
dx dx dy
−∞
   
d
= A ε (y) , f (x − y) = f (x) (8)
dy

120
Example

d
1. For the equation dx u (x) = f (x) , x ∈ R, formula (7) gives the solution
+∞
Z +∞
Z
u (x) = θ (x − y) f (y) dy = f (y) dy, x ∈ R (10)
−∞ −∞

d2
2. For the equation dx2 u (x) = f (x) , x ∈ R (11) formula (7) gives the particular solution
+∞
Z
1
u (x) = (x − y) f (y) dy, x ∈ (R) (12)
2
−∞

which is the analogue known as the Cauchy formula.

12.5.7 Method of construction of the fundamental solution for any operator of the
form below.
d

A dx

Consider the function U0 (x) for x ≥ 0 solution of the Cauchy problem.



d


 A dx U0 (x) = 0 x > 0
U (0) = 0



 0
.




. (13)


 .
 (m−2)
U0 (0) = 0




 U (m−1) (0) = 1

0 am

So the function 
 U0 (x) = 0 x > 0
ε (x) = (14)
0 <0

is the fundamental solution of operator A.

Example
Solve the equation 3U 00 (x) − U 0 (x) = δ(x) x ∈ R (15)

Solution

1 x
3λ2 − λ = 0 ⇒ λ1 = 0, λ2 = ⇒ U0 (x) = C1 + C2 e 3 (16)
3
The initial conditions in (13) give :

 C − 1 + C2
1
C2 = 13 (17)
 2
⇒ C2 = 1 et C1 = −1

121
so we can write the solution
x
U (x) = θ(x)(e 3 − 1) (18)

12.5.8 GREEN function for boundary problems :


GREEN function
Let’s seek the solution of the problem at the limits
 00
U (x) − ω 2 U (x) = f (x)
ω 6= 0 0<x<l (1)
U (0) = U (l) = 0

The Green function of this problem at the limits ; It is the function G(x, y) in [0, 1] × [0, 1] differentiable for
x 6= y and satisfying the equation
d
( − ω 2 )G(x, y) = δ(x − y) 0<x<l (2)
dx2
G(0, y) = G(l, y) = 0
Here y plays the role of a parameter, y in ]0, 1[.
We can say that Green’s function is the fundamental solution checking the boundary conditions.
Knowing Green’s function, we easily find the solution of the boundary problem (1) by the formula

Zl
U (x) = G(x, y)f (y)dy (3)
0

Verification

The boundary conditions in (1) become boundary conditions in (2) for x = 0

Zl
U (0) = G(0, l)f (y)dy = 0 (4)
0

the same for x = l, equation (1) formally holds by

Zl Zl
d d
( 2 − ω 2 )U (x) = ( 2 − ω 2 )G(x, y)f (y)dy = δ(x − y)f (y)dy = f (x) (5)
dx dx
0 0

Remark 18. Formula (3) shows that the Green function G(x, y) is an integral core of the operator G inverse to
the operator A = dxd 2 − ω 2 of the boundary problem (1)

d
A= − ω2 : C02 ([0, l]) → C([0, l]) (6)
dx2
Here C02 ([0, l]) the set of functions U (x) ∈ C02 ([0, l]) with limit conditions U (0) = U (l) = 0.
Remark 19. The operator in (6) is symmetric in L2 (0, l).
So the operator G = A−1 is also symmetric in L2 (0, l) from here comes from the main property of Green’s function
namely :
G(x, y) = G(y, x) ∀x, y ∈ [0, l] (7)

122
Method of constructing Green’s function in a segment.
The differential equation in (2) is homogeneous for x 6= y since δ(x − y) = 0 that’s why we write
d
( − ω 2 )G(x, y) = 0 pour x 6= y (8)
dx2
and the solution gives :
Aeωx + Be−ωx x < y

G(x, y) = (9)
Ceωx + De−ωx x > y
To determine the constants A, B, C, D we have the initial conditions in (2) and two reattachment conditions for
x = y which are such that

G(y − 0, y) = G(y + 0, y)
G(x, y) = (10)
G0x (y + 0, y) = G0x (y − 0, y) + 1

These four equations uniquely define the constants A, B, C, D.


For example, if we want to determine the constants A, B, C, D by considering (2), (8) and (10), we must first
d2
differentiate dx 2 G(x, y) using the formula in derivative of the distributions for a function U (x).
0 0
U (x) = {U (x)} + hδ(x − a) où h = U (a + 0) − U (a − 0)

In these cases we get 


Ash ωx x<y
G(x, y) = (11)
Bsh ω(x − l) x > y
By considering the conditions of reattachment, it comes :

Ash ωx y = Bsh ω(y − l)
(12)
Bω ch ω(y − l) = Aω ch ω y + 1

after resolution, we find


sh ω(y − l) sh ωy
A= ; B= (13)
ω sh ωl ω sh ωl
and Green’s function of problem (1) is :
(
sh ω(y−l).sh ωx
ω sh ωl x<y
G(x, y) = sh ωy.sh ω(x−l) (14)
ω sh ωl x>y

by substituting in (3) we find the following solution :

Zx Zl
sh ωy.sh ω(x − l) sh ω(y − l).sh ωx
ω(x) = f (x)dy + f (y)dy. (15)
ω sh ωl ω sh ωl
0 x

123

Vous aimerez peut-être aussi