Académique Documents
Professionnel Documents
Culture Documents
DATE
summary
0.1 INTRODUCTION : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.1.1 the purpose of this course . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.1.2 Fundamental Definitions in Theory of Partial Differential Equations . . . . . . . . . . . . . . 4
0.1.3 Examples of partial differential equations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
0.2 Some mathematical models of physical processes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
0.2.1 Deduction of the equation of heat propagation. Boundary conditions and initial conditions. . 6
0.2.2 Deduction of the equilibrium equation of the membrane and boundary conditions. . . . . . . 10
0.2.3 Deduction of the vibration equation of the membrane. Initial conditions and boundary condi-
tions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2 FONCTIONS SÉCIALES 32
2.1 Γ, β hypergéometriques, de Bessel, polynôme de Legendre, de Laguerre et de Tchebytchev . . . . . . 34
2.2 Rappel sur la fonction Gamma Γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1
3.2.7 Inégalité de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2.8 Série de Fourier de deux variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4 TRANSFORMATION DE FOURIER 59
4.1 l’Intégrale de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.2 Formes équivalentes des énoncés du théorème de l’intégrale de FOURIER . . . . . . . . . . . . . . . 59
4.3 Transformation de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3.1 Transformée de Fourier en cosinus et sinus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.4 Identité de Parseval pour les intégrales de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.5 Convolution pour les intégrales de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.6 Proprietes des transformées de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.7 Exemple de solution utilisant la transformée de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.8 Méthode de séparation des variables (Méthode de Fourier) pour l’équation des ondes. . . . . . . . . . 62
4.8.1 Problème aux limites de l’équation de la corde vibrante . . . . . . . . . . . . . . . . . . . . . 62
4.9 Méthode de séparation des variables pour la résolution de l’équation de propagation de la Chaleur. . 65
4.10 Transformation de Fourier en dimension n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5 SUR LES OPÉRATEURS LINÉAIRES BORNÉS OU NON DANS LES ESPACES DE HIL-
BERT. 68
5.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.2 Définition d’un opérateur fermé. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.3 Définition de l’opérateur adjoint pour l’opérateur non borné. . . . . . . . . . . . . . . . . . . . . . . 70
5.4 Définition de l’opérateur Auto-adjoint pour l’opérateur non borné. . . . . . . . . . . . . . . . . . . . 70
6 TRANSFORMATION DE LAPLACE 72
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.2 Original et image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.3 Image des fonctions particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.4 Images des Fonctions à l’échelle modifiée de la variable Indépendante : Images des fonctions cos at,
sin at . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.5 Propriétés de la linéarité de l’image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.6 Théorème du déplacement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.7 Image de fonctions e−αt , sinh αt ; cosh αt, e−αt sin at et e−αt cos at . . . . . . . . . . . . . . . . . . . 75
6.8 Dérivation de l’image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.9 Image des dérivées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.10 Dictionnaire d’image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
6.11 Equation auxiliaire d’une équation différentielle donnée . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.12 Théorème de décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.13 Exemples de résolution des équations différentielles et des systèmes d’équations différentielles par la
méthode du calcul opérationnel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.14 Théorème de Convolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
6.15 Transformée de Laplace de Quelques fonction élémentaires . . . . . . . . . . . . . . . . . . . . . . . . 84
6.15.1 Calcul d’intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
6.16 Transformation de MELLIN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.16.1 Transformation de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.16.2 Transformation de Kontorovitch-Lebedev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
7 MESURES ET INTÉGRATIONS 89
7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.2 Mesure des ensembles plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.2.1 Mesure des ensembles élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.2.2 Mesure de LEBESGUE pour des ensembles dans le plan . . . . . . . . . . . . . . . . . . . . 90
2
8 NOTIONS GÉNÉRALES SUR LES MESURES 91
8.1 Prolongement de la mesure à partir d’un sémi-anneau ou vers un anneau : additivité, sigma-additivité. 91
8.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8.3 prolongement de la mesure au sens de LEBESGUE. . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
9 FONCTIONS MESURABLES 94
9.1 Définitions et propriétés fondamentales des fonctions mesurables . . . . . . . . . . . . . . . . . . . . 94
9.2 Action sur les fonctions Mesurables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.3 Complément sur les espaces Vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
9.3.1 Fonctionnelle linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
10 INTÉGRALE DE LEBESGUE 98
10.1 Fonctions simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
10.2 Intégrale de LEBESGUE pour les fonctions simples. . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
10.2.1 Quelques propriétés de l’intégrale de LEBESGUE. . . . . . . . . . . . . . . . . . . . . . . . . 99
10.3 Définition Générale de l’intégrale de LEBESGUE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
10.3.1 Quelques propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
10.4 Sigma-additivité et la continuité absolue de l’intégrale de LEBESGUE . . . . . . . . . . . . . . . . . 101
10.5 Passage à la limite sous le signe Intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
10.6 Intégrale de LEBESGUE sur les ensembles de mesure infinie . . . . . . . . . . . . . . . . . . . . . . . 106
10.7 Comparaison de l’intégrale de LEBESGUE et l’intégrale de RIEMANN . . . . . . . . . . . . . . . . 106
12 DISTRIBUTIONS 110
12.1 D0 set of distributions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
12.2 Completeness of D0 space. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
12.3 Distribution support . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
12.4 Regular Distribution. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
12.5 Singular distributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
12.5.1 SOKHOTSKY Formula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
12.5.2 Variable change in distributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
12.5.3 Product distributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
12.5.4 Derivation of distributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
12.5.5 Properties of the derivatives of distributions. . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
12.5.6 Fundamental solution of a differential equation . . . . . . . . . . . . . . . . . . . . . . . . . . 119
12.5.7 Method of construction of the fundamental solution for any operator of the form below. . . . 121
12.5.8 GREEN function for boundary problems : . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
3
0.1 INTRODUCTION :
0.1.1 the purpose of this course
With the mathematical modeling of the different phenomena of nature and of our society, we obtain differential
equations where the unknown function depends on many free variables. Thus, since the equation is differential, it
contains partial derivatives of the unknown function. The partial differential equations are widely used, and in their
study are involved different parts of contemporary mathematics such as : analysis, algebra (general and linear),
geometry (differential), functional analysis, topology , the theory of functions with complex variables and especially
the theory of functional spaces of infinite dimension.
Since most physical phenomena are described by PDEs (Partial Differential Equations), in our study we will
consider only the cases where PDEs describe physical processes, so this is called mathematical physical equations.
to put into perspective that the PDEs describe not only the physical processes but also the chemical, biological,
economic processes and many other phenomena and processes, the typical example of PDEs is the heat conductivity
equation that we will study in In this equation, the unknown is the function U (x, t) where x is the position of the
point x = (x1 , x2 , x3 ) and t is the time. In other words, temperature in different points of the body and at different
times will be defined as a solution of a certain EDP.
∂2u ∂2u
a(x, x1 ) 2 + b(x, x2 ) 2 = f (x1 , x2 ),
∂x1 ∂x2
is a non-linear equation.
Any EDP in the case of n variables is in the form
∂αu
∂u ∂u
F x1 , x2 , ..., xn , , ..., , ..., α1 α2 = 0, (1)
∂x1 ∂xn ∂x1 ∂x2 ...∂xα
n
n
with α = α1 + α2 + ... + αn .
If the equation is linear it will come in the form :
X
aα (x)D|α| u = f (x), (2)
|α|≤m
4
with
∂ |α|
D|α| = 1 α2 αn
.
∂xα
1 ∂x2 ...∂xn
Stationary processes : If the processes of waves and heat propagation are stationary, meaning that
∂u ∂2u
= 0 et = 0,
∂t ∂t2
so, (3) et (4) have the form
∂2u ∂2u ∂2u
+ + =0 (5)
∂x21 ∂x22 ∂x23
which is called Laplace equation.
5
The sum of the partial derivatives of order 2 is noted
n
X ∂2
∆= .
∂x2k
k=1
(5) becomes ∆u = 0.
The equations in (5) also describe the potential of a liquid.
Equations (3), (4) and (5) have a constant coefficient equal to 1. This takes place because we consider a
homogeneous medium. The resolution of equations (3), (4) and (5) is defined when the initial and limit conditions
are given. For example for equation (3), we can give as initial conditions.
Par exemple pour l’éqution (3), on peut donner comme conditions initiales
The deduction of the equation describing the propagation of heat is based on the following experimental law : "If
different parts of a body have different temperatures, then in the body appears a directed heat flow from the highest
point of temperature to the lowest point of temperature : Carnot’s Principle"
Let us consider the surface S inside the body Ω suppose that on it is defined a normal vector ~n and continue ;
then the quantity of heat that passes through the surface S in the time interval ~n dans l’intervalle de temps t1 to
t2 being defined by Z t2 Z Z
∂u
q=− k(x) ds dt (6)
t1 S ∂~n
∂u
∂~
n is the derivative at the point x of the surface S with respect to the direction of the normal ~n in the orientation
of the decrease of the heat,
∂u ∂u ∂u ∂u
< 0, = cos α + cos β + ...
∂~n ∂~n ∂n1 ∂n2
6
Figure 1 –
the double Integral is taken with respect to the surface S. The positive coefficient k(x) is the coefficient of
conductivity of the heat at point x. The formula (6) is equivalent to the fact that through an infinitely small body
Ω through dS et and at an infinitely small instant t , passes through a quantity of heat dq such that
∂u
dq = −k(x) dS dt. (7)
∂~n
This is the physical law of Fourier in the theory of the propagation of heat. We will consider an isotropic body in
relation to the propagation of heat, that is to say we will consider that the function k(x) does not depend on the
direction of the normal on a point x of the surface S ; where k(x) ∈ C 1 on all coordinates. For the deduction of the
equation of heat propagation, select inside the bodyΩ with volume D, a portion delimited by the smooth surface
S and consider the variation of the quantity of heat in this volume in the interval t1 to t2 . Through the surface S,
there emerges a quantity of heat defined by the formula (6) where the derivative of u with respect to ~n is given by
∂u
n inside S.
∂~
On the other hand, this amount of heat can be defined through the temperature variation in the volume D in
the time interval t1 to t2 . The variation of the quantity is known and is proportional to the temperature difference
between the instants t1 to t2 , hat is to say it is equal to :
Z Z Z
C(x)ρ(x)[u(x, t2 ) − u(x, t1 )] dx (8)
(D)
where ρ(x) s the density at the point x and C(x) the mass heat at the point x ; and the integral is taken with
respect to the volume (D). Let us determine the heat balance by equating formulas (6) and (8). First, we transform
(6) by Gauss Ostrogradski’s formula. We have
Z t2 Z Z Z t2 ( Z Z Z X n )
∂u ∂ ∂u
− k(x) ds dt = − − k(x) dx dt.
t1 S ∂~n t1 D i=1 ∂xi ∂xi
Since the function is continuous, the volume being arbitrary, and the integral being arbitrary, then the zero equality
of (9) causes the integral to be zero. So
n
∂u X ∂ ∂u
C(x)ρ(x) − k(x) =0
∂t i=1
∂xi ∂xi
7
It is the equation of propagation of heat in a non-homogeneous but isotropic body.
If the body is homogeneous, then C(x), ρ(x) et k(x) become constants.
n
CS ∂u X ∂ 2 u
= = ∆u. (10)
k ∂t i=1
∂x2i
By posing
k
a2 = ,
CS
we get
∂u
= a2 ∆u. (11)
∂t
If we pose t0 = kt
CS , we get
∂u
k
=∆
∂( CS )t
, then
∂u
= ∆u ayant posé t0 = t.
∂t
Equations (10) and (11) admit several solutions, to obtain in the solution collection, which is close to our problem,
we must set additional conditions. These additional conditions are boundary conditions, that is to say the conditions
defined at the limit of the domain where the solution is sought. Then there are the initial conditions.
With the modeling of physical, chemical, ecological and other problems, these conditions are defined empirically.
However, in most cases, one must ask whether these conditions are true or meaningful.
Let us consider the initial conditions and limits of the propagation equation which emerge from physical consi-
derations. For a physicist, it is clear that knowledge of the body temperature at a given time and the heat regime
at the limit of the body defines the temperature at any time.
Besides this, the heat regime at the border of the body can be defined in different ways. If the domain coincides
with all the space, then we can demonstrate that the limiting solution of the heat propagation equation for t ≥ t0
is uniquely defined by an initial condition with value u(x, t) for t = t0 or u(x, t0 ). If Ω is a bounded domain or an
open domain of Rn , so apart from the initial function, we can define the temperature at each limit point of the
body for t ≥ t0 , by setting as initial condition
8
In the general case
∂u
= ψ(x, t), t ≥ t0 (14)
∂~n
Formulas (12) and (14) define what is called the second boundary problem. One can as a boundary condition for
t ≥ t0 define at the border ∂Ω a linear combination
∂u
k(x) + k1 (x)u(x, t),
∂~n
where k1 (x) is the external coefficient of heat propagation which crosses the exterior spaces towards the body
and k(x) the internal coefficient of heat propagation. These functions are assumed to be known. Towards such
mathematical problems, we will get there if we study the temperature of u(x, t) of the body Ω under the condition
that we know the temperature u1 (x, t) from the ambient medium to the body and that on the surface surface of the
body therefore takes place the exchange of heat with the surrounding environment. The heat exchange law can be
complicated, we will consider the simplest variant known as Newton’s law. For Newton’s law, the amount of heat
which crosses through the surface during a time interval t1 to t2 towards the ambient environment is equal to :
Z t2 Z Z
k1 (x)(u1 − u) dS dt,
t1 S
with u1 (x, t) and u(x, t) which are defined on S as the transfer limit from the outside to the inside of the corres-
pondence body. On the other hand, the amount of heat given during this time interval through the surface S inside
the body is equal to Z t2 Z Z
∂u
− k(x) dS
t1 S ∂~
n
So we have two expressions two expressions for the heat flow. By equalizing the integrals, we have :
∂u
k1 (x)(u1 (x, t) − u(x, t)) = −k(x) ,
∂~n
which implies :
∂u
− h(x)u = ψ1 (x, t), (15)
∂~n
k1 (x)u1 (x)
ψ1 (x, t) = .
k(x)
If u1 = 0, then equation (15) becomes
∂u
− h(x)u = 0 (16)
∂~n ∂Ω
Formulas (12) and (15) define what is called the third boundary problem.
Let us Suppose that the temperature at each point of the body is fixed, that is to say
∂u
= 0,
∂~n
then the heat propagation equation is written
∆u = 0
If we associate the first boundary problem, that is to say :
∆u = 0
u(x, t)|t=t0 = u(x, t0 )
This system gives the Dirichlet equation. To define u(x, t), the initial condition must not be defined beforehand ; it
is enough simply to define the boundary condition which does not depend on time.
9
Sometimes, we study the temperature of a bar or a plate knowing the wall of the bar, or the top and bottom of
the plate are isolated. So the heat propagation equation in the case of the bar is :
∂u ∂ 2 u ∂u ∂2u ∂2u
= ; = + .
∂t ∂x 2 ∂t ∂x21 ∂x22
The resolution of this equation will only be complete if we consider the initial condition (12) and one of the boundary
conditions (13), (14) or (15).
0.2.2 Deduction of the equilibrium equation of the membrane and boundary condi-
tions.
Consider a glumella (thin, elastic body) stretched in all directions, we can assume that the glumella is thin
enough, not to resist bending, that is to say that the change in its shape does not cause the surface change and
that it resists stretching (surface change).
The work of the external forces which cause the surface change of a part of the membrane is proportional to this
change. The proportionality coefficient is positive and noted T . Let us note that the work of the elastic internal
forces is equal in absolute value and of opposite sign to the work of the external forces which involve the change of
surface.
There, in the fixed state the membrane is located in the plane R2 and has the form of a surface domain Ω with
border b. Suppose that on the membrane acts the external force, of density which at the point x = (x1 , x2 ) equal
to f (x), and its direction is perpendicular to the plane R2 . Upon the action of this force, the membrane will react
and take the superficial form, of which we will write the equation u = u(x1 , x2 ).
Figure :
Figure 2 –
Let us deduce the equation that checks the function u(x) in the unbalanced state according to the following
conditions :
a) Suppose that in the situation which interests us, at the equilibrium position, the surface of the glumella is
∂u
slightly curved, ie ∂xi
, i = 1, 2 is small and we can neglect their exponents superiors.
b) Suppose that the action of the external force on the points of the glumella are mixed such that their
coordinates x1 , x2 in addition does not change.
The deduction of the equation is based on a mechanical property : principe du moindre déplacement. It stipulates
that the sum of the elementary works of all the forces which act on the system ;for any lesser displacement is equal
to zero. To calculate all the elementary work, let us seek to calculate the work carried out by the forces which act
on the membrane, starting from a displacement which brings it from the initial state to the position defining the
10
function u(x) = u(x1 , x2 ). The work of forces, the density being f (x), is defined by the integral
Z Z
f (x)u(x) dx1 dx2
Ω
as on the element of the membrane dx1 dx2 acts the force f (x1 , x2 )dx1 dx2 , the change of the surface of the membrane
for this displacement is equal to :
v
Z Z u 2 2
u X ∂u
t1 + − 1 dx1 dx2
Ω i=1
∂x i
the initial surface here is supposed to be the uniqueness and the work of the elastic internal forces due to this change
is the following expression : v
Z Z u 2 2
u X ∂u
−T t1 + − 1 dx1 dx2 ,
Ω i=1
∂x i
∂u ∂u
et us decompose the interior function of the integral in series of ∂x 1
, ∂x 2
: it comes that for the work of the elastic
internal forces we obtain the following expression :
Z Z " 2 2 #
T ∂u ∂u
− + dx1 dx2
2 Ω ∂x1 ∂x2
Thus, the work of all the elastic internal forces acting on the membrane and the external forces causing the
displacement from the equilibrium position to the position defining the function u(x) is equal to :
Z Z ( " 2 2 # )
T ∂u ∂u
A(u) = − + + f.u dx1 dx2 (17)
Ω 2 ∂x1 ∂x2
Note that the integral (17) is almost equal to the energy potential of the membrane at the equilibrium position.
Now let’s make a certain displacement of the membrane (let’s move there a little) which gives us the possibility
of using the principle of the least displacement, that is to say adding to u(x) a certain function δu(x). The work of
all the active forces in this displacement is equal to the variation (change) of the integral (17) ; We have :
Z Z
δA = A(u + δu) − A(u) = [−T (u0x1 δux1 + u0x2 δux2 ) + f δu] dx1 dx2 (18)
Ω
The variation of this integral must be equal to zero in accordance with the principle of the least displacement.
Integrate formula (18) by part of the first two members into the integral (here we assume T constant) we get
Z Z Z Z
0 0 ∂ ∂u ∂ ∂u
− [ux1 δux1 + ux2 δux2 ] dx1 dx2 = δu + δu dx1 dx2
Ω ∂x1 ∂x1 ∂x2 ∂x2
ZΩ Z Z
∂u
= − δu dS + ∆uδu dx1 dx2
L n
∂~ Ω
∂
δ is the Laplace operator, ∂~n the derivative with respect to the external normal of the border of the field Ω. So
Z Z Z
∂u
δA = − T δu dS + (T ∆u + f )δu dx1 dx2 (19)
L ∂~n Ω
Here δu represents the least displacement of the membrane, that is to say the displacement due to the links applied
to the membrane. These links are generally applied at the edge of the membrane ; this is why at the interior point
the function δu(x1 , x2 ) is an arbitrary continuous function ; which means that from zero equality of δA we can
11
conclude that in all positions, the equilibrium function u(x1 , x2 )if each interior point of the domain Ω satisfies the
equation
T ∆u + f = 0, (20)
this equation is called Poisson equation.
If f = 0, then Poisson equation is reducted to Laplace equation.
As regards the constraints, they are linked to the boundary conditions which can be varied. We will study some
cases, the most encountered..
A- he membrane is fixed at its ends : Suppose that the membrane is fixed at its ends along a spatial curve
which projects onto L. If the parametric equations of the curve are defined by
x1 = x1 (s), x2 = x2 (s),
where s is the length of the arc, we want the membrane to go through a certain spatial curve
In addition, we will impose in a unique way on δu, that δu = 0 on L. hanks to this condition, in formula (19),
the curvilinear integral disappears, and we get from the problem, from the resolution of l equation (20) with the
boundary condition
u|L = φ(s); (21)
this is called Dirichlet problem.
B- Free membrane : One can not impose conditions on the border, like that, it can move in the direction of
the vertical of the walls of the cylinder with for base L. In this case, δu is arbitrary as inside that the border. For
equation (20), the condition on L will be :
∂u
L = 0. (22)
∂~n
C- Arbitrary action on the border of the membrane : Suppose that apart from the external force with
density f , which acts on the interior points of the membrane that at its end, acts another vertical force, with
density f1 , at point that on the element ds, of the border L acts the force f1 ds. If we seek the equilibrium position
of the membrane, in this case, to the integral (17) we must add the term (member)
Z Z u
( f1 du) ds;
L 0
Ru
hen in (19) we will add the term (member) 0
f1 du , that is to say the curvilinear integral in (19) with the view
Z
∂u
−T + f1 δu ds.
L ∂~n
The problem posed with the boundary conditions (22) and (23) is called the problem of Neumann
D- Elastic fixed membrane :This is the case where the force acting on the end is proportional to the
declination f1 (s) = ku(s). So the boundary condition for the Poisson equation is :
∂u
T = 0. (24)
∂u L
12
0.2.3 Deduction of the vibration equation of the membrane. Initial conditions and
boundary conditions.
Let us Consider the equation of movement of the membrane, here we will deal with small movements, that is to
∂u
say the u, ∂x 1
∂u
and ∂x 2
, are small quantities. The speed of points x1 and x2 is equal to u(t,x∂t1 ,x2 ) and its acceleration
∂2u
∂t2 . To obtain the equation of movement of the membrane, it is necessary, by D’Alembert’s principle, to take into
2
account the energy of the membrane. The density of this energy is equal to ρ ∂∂t2u , where ρ(x1 , x2 ) is the density of
the membrane at point x = (x1 , x2 ). We get the transverse vibration equation of the membrane. If in equation (20),
2
we add the term (member) −ρ ∂∂t2u , the vibration equation the membrane is
∂2u
T ∆u − ρ +f =0 (25)
∂t2
The boundary conditions remain as we had studied except that they can depend on time. We can for example define
the initial conditions
∂u(x, t)
u(x, t)|t=0 = φ(x), = ψ(x), x = (x1 , x2 ) ∈ Ω. (26)
∂t t=0
∂2u ∂2u T
T ∆u = ρ =⇒ = a2 ∆u, avec = a2 un certain paramètre .
∂t2 ∂t2 ρ
In the spatial case we have
∂2 ∂2u ∂2u ∂2u
= a2 + + , (27)
∂t2 ∂x21 ∂x22 ∂x23
which is the wave equation.
On the question of the boundary problems of mathematical physics.
For non-stationary problems (which depend on time), it is necessary to the equation, to add to it the initial
conditions to define the solution. If, in addition to x, we consider all Rn , then such a problem is called the Cauchy
problem. When we consider the problem in all space (Cauchy problem), or in a limited domain (exterior of a compact
for example), sometimes we have to take into account the behavior of the solution at infinity (the distant points
of the field of study) and only after certain assumptions of this behavior, the solution can be found in a unique
way. Thus the problem of mathematical physics arises as a problem of solving the partial differential equation in
the light of certain additional conditions, called initial and boundary conditions, which are often fixed by physical
considerations of the problem.
13
Chapitre 1
INTRODUCTION TO PARTIAL
DERIVATIVE EQUATIONS
∂2u
= ∆u.
∂t2
but the equation
∂u
= δu
∂t
and the system
~
∂~
v
∂t = gradρ
div~v = 0
14
which converges absolutely for (x − x0 ) weak enough. In this case, we can show that the function F (x) admits at the
point x0 derivatives with arbitrary degrees. Let us introduce in a reduced way the derivatives of the initial conditions
Ψki (x) by x.
0
∂ α Ψki (x)
αn , (1.2)
∂xα1 ...∂xn
1
where
α0 = α1 + α2 + +...αn , αi ≥ 0, i = 1, ..., N
Theorem 1. of Kovalevskaïa (on the uniqueness and local solubility of the Cauchy problem for a Kovalevskaïa
type system)
If all the functions Ψki (x) are analytical in the neighborhood of the point x0 = (x01 , ..., x0n ) and the functions Fi
are defined and analytical in the neighbourhood of the point (t0 , x01 , ..., x0n , ..., Ψki,α (x0 ), ...) then the Cauchy problem
(1.1) (1.2) admits an analytical solution in a certain neighborhood of the point (t0 , x0 ) = (t0 , x01 , ..., x0n ) in fact
unique in the class of analytical functions.
convergent for
|z1 | ≤ R1 , ..., |zm | ≤ Rm (1.4)
Here we admit that the convergence radii of the series (1.3) are slightly greater than the numbers Rk . Let M be
the modulus of function (1.3) under condition (1.4). We see that the entire series of the function
M
z1 zm (1.5)
(1 − R1 )...(1 − Rm )
has all its coefficients that are strictly positive and greater in modulus than those of the series (2.3). We express
this fact by saying that the series (1.5) is an upper bound series of the series (1.3). In general, we call majorante
series of the series
X∞
cp1 ...pm z1p1 ...zm
pm
(1.6)
p1 ,...,pm =0
a series of the same form and of which all the coefficients are positive and greater in modulus than the respective
coefficients of the series (1.6). We know that any entire series absolutely converges within its convergence discs. If
an increasing series of the series converges for |Zk | ≤ ρk , with k = 1, ..., m,then we can clearly state that the series
(1.6) converges inside its disks |Zk | ≤ ρk . Suppose that in (1.5) all Rk are equal ( this is equivalent to replacing the
Rk by the smallest of them) and consider the functions
M
z1 (1.7)
(1 − R1 )(1 − Rz22 )...(1 − zm
Rm )
and
M
z1 +z2 +...+zm (1.8)
1− R
15
The respective integer series of these functions are
∞ ∞
X z1p1 ...zm
pm X (z1 + ... + zm )p
M p
and M
p1 ,...zm =0
R 1 +...+p m
p=0
Rp
By expanding ((z1 + ... + zm )p ) we make sure that the respective coefficients of the expansion of (1.7), i.e. that the
function (1.8) (or the corresponding integer series) will be also upper bound of the function (1.6) (respectively of
the integer series of the corresponding integer series).
The integer major series method is used to deny the existence of the solution of differential equations when the
functions involved are analytical. Let us perform this proof for an ordinary first order differential equation. Let be
given a differential equation
dy
= f (x, y),
dx
dwhose second member is an integer series in x and y converging in the neighborhood of x = y = 0 that is to say
∞
dy X
= apq xp y q (1.9)
dx p,q=0
We ask for a solution which is regular at x = 0 and which satisfies the initial condition
y|x=0 = 0. (1.10)
To find this value, it suffices to compose its Maclaurin series, that is to say to calculate the values of the derivatives
for x = 0.The constant term of this series is given by the initial condition (1.10) and is zero . the value of the first
derivative at x = 0 is given by the differential equation, that is y00 = a00 . Let us differentiate the first two members
of the equation with respect to x o determine the second derivative :
∞
X ∞
X
y 00 = papq xp−1 y q + qapq xp y q−1 y 0 ,
p,q=0 p,q=0
By carrying x = 0, y = 0 and y00 = a00 in the second member, we find the value of the second derivative in x = 0,
that is to say :
y000 = a10 − a01 a00 .
Continuing this procedure, we define the derivative of any order for x = 0 and we form the Maclaurin series :
y y 00
y0 + x + 0 x2 + ... (1.11)
1 2
From the previous calculations, it appears that there is only a regular solution satisfying the given initial condition.
But to affirm that this solution does exist, it must be shown that the series (1.11) has a radius of convergence
greater than zero. Note that all the operations performed on the series are lawful by virtue of the fundamental
properties of the entire series inside their convergence discs. If the series (1.11) is convergent, its sum is the solution
of equation (1.9) by virtue of the process used to form the coefficients. If we replace the series of the second member
of equation (1.9) by an increasing series, then the series (1.11) will also be replaced by an increasing series. If this
majorante series converges near zero, it will be the same a fortiori for the series (1.11). Suppose that the series of
the second member of equation (1.9) absolutely converges for |x| ≤ R and |y| ≤ R and let M be the maximum of
its sum under the conditions indicated. Going through the increasing series, we get the differential equation
dy M
= x y (1.12)
dx (1 − R )(1 − R)
16
By integrating and taking into account (1.10), we obtain :
y2 x
y− = M R ln(1 − ),
2R R
Therefore r
x
y =R−R 1 + 2M ln(1 − ). (1.13)
R
The radical must take the value 1 for x = 0 for condition (1.10) to be verified. This causes the existence and
uniqueness of a regular solution satisfying the condition (1.10). Consider the system
N n N
∂ui XX ∂uj X
= akij (t, x) + bij (t, x)uj + fi (t, x) (1.14)
∂t j=1
∂xk j=1
k=1
with the analytical coefficients akij (t, x) bij (t, x) fi (t, x).
~
vi = ui − ψi ou ~v = ~u − ψ.
∂~n ~ + f~,
=⇒ = A~v + Aφ (1.16)
∂t
with the initial condition
v(x, t)|t=t0 = 0. (1.17)
If we can show the existence of the solution of (1.16) with the condition (1.17), this will lead to the solution of the
initial problem.
17
system (1.16), satisfying at point t = 0 the same initial condition. Suppose that at point P there exists an analytical
solution of the Cauchy problem with the vector function
u1
.
~u =
.
uN
The coordinate functions ui (t, x) are analytical in the neighbourhood of zero and we can decompose them into
integer series for t, x1 , ..., xn .As we know, these coefficients are calculated from the derivatives of the different
functions ui (x, t) then in each corresponding point.
Denote by aiα1 ...αn where aiα is the coefficient for t, x1 , ..., xn . In the decomposition of the function ui (t, x) in the
vicinity of the origin of the coordinates :
α0 +α1 +...+αn
i i 1 ∂ ui 1
aα = aα1 ...αn = α α α
≡ Dα ui |t=0,x=0 . (1.18)
α0 !α1 !...αn ! ∂x ∂x ...∂x
0 1 n α!
Thus the solution of the problem (1.14) and (1.15) of the existence of the solution we have assumed can be written
as follows : X
ui (t, x) = aiα1 ...αn tα0 xα αn
1 ...x1 ,
0
(1.19)
α
Since the derivative (1.20) is defined in a unique way, we continue this process and in a unique way, we define all
the derivatives of (1.18) which on their side define the decomposition (1.19) of our solution of the series integer,
which as we have seen is defined in a unique way (we can even use the induction method).
Thus two analytical solutions of the problem (1.14) and (1.15) with the same initial data are obligatorily equal.
In a certain neighbourhood of the origin of the coordinates this demonstrates the uniqueness of the solution of the
Cauchy problem in the space of analytical functions. To demonstrate the existence of the solution of the problem
(1.14) - (1.15), it suffices to show that the entire series (1.17) is defined by the coefficients (1.16) in a certain
neighbourhood of the origin of the coordinates.
18
These series will verify the initial zero conditions (1.15) and the system (1.14) since in the construction of these
series (in the calculation of their coefficients) we used the fact that the left part of the system (1.14) was equal to
its right part in a certain neighbourhood of the origin of the coordinates.
For the proof of the convergence of integer series, we can use the upper-bound series method
Let us translate the origin of the coordinates at the point P (t0 , x0 ) and construct for the analytical function
ψ(t, x) in this point a special type upper bound that we will use in the following. The function ψ(t, x) can be
decomposed into series as follows : X
ψ(x, t) = Cα0 α1 ...αn tα0 xα αn
1 ...xn
1
(1.21)
αi
and suppose it converges at the point (t = b0 , x = b) with b = (b1 , ..., bn ) where all |bk | > 0, k = 1, ..., n. Then, there
exists a constant M > 0 such that for all positive integers αi we have |Cα0 α1 ...αn bα 0 α1 αn
0 b1 ...bn | ≤ M , that is to say
M
Cα0 α1 ...αn ≤ . (1.22)
|b0 |α0 |b1 |α1 ...|bn |αn
∞
X
−1
(1 − x) = , |x| < 1
k=1
X M
= tα0 xα αn
1 ...xn
1
α0 α1 ...αn
|b0 |α0 |b1 |α1 ...|bn |αn
It is clear that Ψ(t, x) is upper bound of ψ(t, x) due to (1.22) and (1.24).
We can construct the upper bound in different ways. For example for ψ(t, x) defined by the series (1.21), an
upper bound can be
M
Ψ1 (t, x) = t+x1 +...+xn ,
1− d
19
where α = min(|b0 |, ..., |bn |), |bk | =
6 0, k = 1, ..., n and the b = (b0 , ..., bn ) are points of convergence of the series
(1.21) for ψ(t, x). Indeed, for |t| + |x1 | + ... + |xn | < d this function breaks down into convergent series
M
Ψ1 (t, x) = t+x1 +...+xn ,
1−
P∞ d t+x1 +...+xn α
= M Pα=0 (1.25)
∞ 1
P∞d α!
= M α=0 dα α0 +α1 +...+αn =α α0 !α1 !...αn !tα0 xα1 αn ,
1 ...xn
but
α! (α0 +α1 +...+αn )!
α0 !α1 !...αn ! ≡ α0 !α1 !...αn ! ≥ 1;
1 1
dα ≥ |b0 |α0 |b1 |α1 ...|bn |αn .
This is why the coefficients of the series Ψ(t, x) are positive and increase the coefficients of the series (1.24) and as
we have shown the series (1.24) increases the series (1.21) which leads to Ψ1 (t, x) also majorizes (1.21), that is to
say the function ψ(t, x).In the same way for Ψ(t, x) the upper bound will be the function
∞ α
M X tγ + x1 + ... + xn
Ψ2 (t, x) = tγ+x1 +...+xn =M ,
1− d α0
d
with another constant M1 which does not depend on M . This can be done insofar as the upper bound of this type
exist for each coefficient and for the construction of the upper bound of all the system, it is necessary to take a
coefficient greater than the numbers M and M1 and the smallest number of all the values which correspond to the
different coefficients of the system.
By choosing the numbers M , M1 and α in this way, we obtain the upper bound system in the form
N Xn N
∂ui X ∂u j
X
= A(t, x) + uj + m , (1.26)
∂t j=1
∂xk j=1 k=1
M1
where A(t, x) = Ψ2 (t, x), m = M . and the initial condition we take it in the form
20
where u0i (x) is an upper bound of zero (for u|t=0 = 0),that is, such functions which decompose into a Taylor series
with positive coefficients. The system (1.26) is simpler than the system (1.14) and its solution, we can build it easily
and directly. As we have already said above, we are going to find the solution of (1.14) and (1.15) in the form of an
integer series and the coefficients of this series are taken as those which we used in the proof of the uniqueness of
the solution. This series is presented in the following form :
X
ui (t, x) = aiα0 α1 ...αn tα0 xα αn
1 ...xn
1
(∗)
Suppose that the solution of the problem (1.26) - (1.27) in the form of the following convergent series :
X
ui (t, x) = Cαi 0 α1 ...αn tα0 xα αn
1 ...xn
1
(1.28)
(In the following we will build this solution). Let us show in this case that we will have an inequality between the
coefficients of the series (*) and (1.28)
|aiα0 α1 ...αn | ≤ Cαi 0 α1 ...αn (1.29)
Since we have assumed that (2.28) converges then the inequalities (1.29) prove the convergence of the series (*)
at the neighbourhood of (0, 0)
Let us prove (1.29) with the condition that all the coefficients Cαi 0 α1 ...αn are ≥ 0.
0
For the derivatives with respect to xi with i = 1, ..., n or for Dα ui , for t = x = 0, the inequality (1.29) is verified,
since from the condition ui |t=0 = ui0 (x) and ui0 (x) is an upper bound of zero. For zero derivatives which admit a
derivative with respect to t, that is to say α0 6= 0 the relations (1.19) we will prove it by the method of induction
(recursion) in α0
let us suppose that for all α starting from α0 < k. The inequality (1.29) is verified. Let us prove (1.29) for
0
α0 = k + 1. Let us denote by Dα ui the derivative corresponding to the index (or multi-index) α0 = (0, α1 , ..., αn )
∂
and suppose that D0 = ∂t , Dk = ∂x∂ k .
By differentiating (deriving) the system (1.14) we get
N X n N
0 0 X X
Dα D0k D0 ui (t, x) = Dα D0k akij Dk uj + bij uj + fi (1.30)
j=1 k=1 j=1
Let us take the corresponding derivative and for the upper bound system
N X
n N
0 0 X X
Dα D0k D0 ui (t, x) = Dα D0k A(t, x) Dk uj + uj + m (1.31)
j=1 k=1 j=1
In the left part of (1.30) and (1.31) we find the derivatives of ui (t, x) only of type Dα with α0 < k and for them,
(1.29) is verified with respect to the induction hypothesis. As the left part of equality (1.31) contains only the
positive terms which in modulus (or in absolute value) are greater than the term of those in (1.30) and the left
parts of (1.30) and (1.31) express themselves from the right side ; then we have.
0 0
|Dα D0k+1 ui (0)| ≤ Dα D0k+1 ui (0).
21
M
where A(y) = 1− y
. The ordinary differential equation (1.32) with separable variables can be written in the form
d
or
Nu
(γ − A(y)N n)du = m( + 1)A(y)dy
m
then
du mA(y)dy
Nu
= ≡ B(y)dy (1.33)
m +1 γ − N nA(y)
mA(y)
where B(y) = γ−N nA(y) . Let us choose the positive γ large enough so that γ − N nA(y) > 0 in the neighbourhood
of y = 0.
Then B(y) in this neighbourhood will be analytical.
By integrating (1.33), we will find a particular solution of (1.32).
N y
Z
Nu
ln +1 = B(ζ) dζ.
m m 0
Hence Z y
N N
u = exp B(ζ) dζ − 1,
m m 0
then Z y
m N
u= exp B(ζ) dζ − 1 . (1.34)
N m 0
Let us show that this particular solution defines the upper bound for the problem (1.14) and (1.15).
As the functions ui (y) = ui (t, x) verifying the system (1.26) increase the initial system, and like the equality
(1.29), we had already proved, then to show the fact that (1.34) is the solution of (1.14) - (1.15), we have to prove
that u(y)|t=0 majors zero.
Let u(y) for t = 0 decompose in series x1 , x2 , ..., xn awith positive coefficients. We prove this fact :
M
the function A(y) = 1− y is a function with positive coefficients in the decomposition with respect to y
d
M y y2
y =1+ + + ...
1− d d d2
which leads to :
−1 " 2 #
A(y) Nn m Nn Nn
B(y) = m 1− A(y) = A(y) 1 + A(y) + A(y) + ...
γ γ γ γ γ
also has positive coefficients in the y-decomposition, a property that the function must also verify
N y
Z
(y) = B(ζ) ζ
m 0
2
since e(y) − 1 = (y) + 2!(y) + ...
So it is clear that the function u(y) also admits exponent decompositions of y. This is why the coefficients of
the decomposition u(tγ + x1 + ... + xn ) with respect to the exponents (integer series) t, x1 , ..., xn are also positive,
i.e. u(0, x)is a higher than zero. So ui = u(tγ + x1 + ... + xn ) is a solution of our problem, i.e. is an upper bound of
the solution of problem (1.14) - (1.15).
The analysis of the solution ui = u(tγ + x1 + ... + xn ) fact that, as we had shown above, it breaks down into
integer series of y which also leads to integer series of t, x, which leads to the convergence of the whole series (1.17)
and completes the proof of Kovalevskïa’s theorem.
22
1.4 The domain of existence of the analytical solution
During the increase of the free constant terms M1 , we have however those which do not depend on M , so that
the domain where the series converges does not depend on the initial data and the free terms of the equations.
Indeed, the domain of existence of the solution ui (t, x) which overcomes the system is defined by the maximum
value M in absolute value. The coefficients akij (t, x), bij (t, x) and the domain of analysis of these coefficients which
is defined by any number d (which we have taken for R) and does not depend on the maximum M1 of the function
|fi (t, x)|. Thus, it follows that the domain of existence of the solution of ui(t, x) of the Cauchy problem is defined
by M and d[R] and does not depend on the right side of our system.
Suppose that in the neighborhood P of the points of Ω there exists a smooth surface surface of dimension n, S of
class C m and its equation is : F (x0 , x1 , ..., xn ) = 0, let ~n be the normal on S and suppose that S does not admit
regular points, ie |∇F | =
6 0 and suppose that on S is given the condition
k
∂ u
∂~nk = φk , k = 0, 1, ..., m − 1. (1.36)
S
23
Figure 1.1 –
Instead of the normal ~n in condition (1.36) we can take any direction ~v not perpendicular to the surface S.
Consider the general Cauchy problem : Find u(x) satisfying the conditions (1.35) and (1.36) in a certain neigh-
bourhood of Ω of the point P. There appears a question ; For which superficial surface equations S and initial data
φk : k = 0, 1, ..., m − 1 this problem admits a solution in the neighbourhood of the point P ? Let us transform the
problem (1.25) and (1.36) to the Cauchy problem which was considered in the next point. Let’s make a change in
variables such that the surface F = 0 transforms into coordinates of a hyperplane. Such a change can be made in
the following form
y0 = F (x0 , x1 , ..., xn )
yj = xj , j = 1, ..., n
∂F
For this, without restricting ourselves to generality, we can assume ∂x 0
6= 0. In the new variables y is given the
form y0 = 0. After the change of variables, equation (1.35) becomes :
X
bα (y)Dα ũ = f˜(y). (1.35)0
|α|≤m
It is necessary that the coefficients bα (y),corresponding to α = (m, 0, ..., 0) are not zero in the vicinity of the point
P . If we calculate the coefficients bα (y) ∀α = α0 , ..., αn such that |α| = m that is to say for the upper derivative we
will see that it is equal to :
α 0 α 1 αn
∂F ∂F ∂F
P
bα (y) = a α ...
P|α|=m ∂x0
α
∂x1 ∂xn (1.37)
= α=m a α (gradF )
Let us show this in an example of equations of order 2 with 2 independent variables. In this case (1.35) ’becomes :
X
aα (x1 , x2 )Dα u = f (x1 , x2 )
|α|≤2
24
or even more exactly by posing x1 = x, x2 = y
a20 uxx + 2a11 uxy + a02 uyy + a10 ux + a01 ay + a00 u = f (x, y) (1.35)00
Suppose that the equation of the curve L is defined F (x, y) = 0 and on it there is no singular point ie |gradF | =
6 0
on L. If we make a change
ζ = F (x, y), η = φ(x, y)
where φ(x, y) is an arbitrary derivable function for which on the curve the Jacobian of the transformation is
∂F ∂F
∂x ∂y
J = ∂φ ∂F 6= 0
∂x ∂y
Then this function "straightens" the curve L, transforming it into an end of line of coordinate ζ = 0 one can show
that the initial conditions in this case are written in the form :
∂u
u|ζ=0 = φ0 (0, η), (1.36)00
∂ζ ζ=0
ux = uζ ζx + uη ηx
uy = uζ ζy + uη η y
uxx = uζζ (ζx )2 + 2uζη ζx ηx + uηη (ηx )2 + uζ ζxx + uη ηxx
uxy = uζζ ζx ζy + uζη (ζx ηy + ζy ηx ) + uηη ηx ηy + uζ ζxy + uη ηxy
uyy = uζζ (ζy )2 + 2uζη ζy ηy + uηη (ηy )2 + uζ ζyy + uη ηyy
where f˜ ccontains linear members containing first derivatives of u in ζ and η ; u(ζ, η) itself and free members.
Here we introduced notations
So that our new equation is of Kovalevskaïa for initial data (1.36) ”it is necessary that
and this corresponds to expression (1.37) for the general equation of order m with n independent variables
Let us show that if on the surface S is defined the function u(x) and its derivatives by orientation with respect
to the normal up to the order m − 1 inclusive (or the derivative with respect to any tangent of orientation). Then
is defined all these derivatives (of u(x)) up to the order m − 1with respect to each xi
25
Figure 1.2 –
For m = 2 and n = 2 that is to say for equation (2.35) ”this is easily demonstrated.
∂u ∂u
n L = ∂x cos(~
∂~ n, x) + ∂u n, y) = φ,
∂y cos(~
(1.38)
∂u
∂~
τ L = ∂u
∂x τ
cos(~ , x) + ∂u
∂y τ
cos(~ , y) = ∂φ
∂~
τ
0
Suppose that |~n| = 1, |~τ | = 1 and set the coordinates of these vectors by n1 , n2 , τ1 , τ2 correspondingly. The system
(1.38) admits a unique solution ∂u ∂u
∂x , ∂y since its determinant
n1 n2 π
τ1 τ2 = |[~n, ~τ ]| = |~n||τ | sin 2 = 1 6= 0
(Note that if we take in place ~n another tangent then the determinant will always be different from 0.)
Let us show that by this approach, we can prove this fact for all m and n. Let us introduce the local curvilinear
coordinates ζ0 , ζ1 , ..., ζn in the neighbourhood of the surface S, so that the equation of the surface F (x) = 0 becomes
ζ0 = 0 and the normal in S coincides with the coordinate lines ζ0 = c0 , ..., cn = ζn . by assumption the surface S is
smooth ; this is why the parameters ζ1 , .., ζn for the equations
x1 = x1 (ζ1 , .., ζn )
.
. (1.39)
.
xn = xn (ζ1 , .., ζn )
define the surface S and the rank of the matrix
∂xi
∂ζk
, i = 0, 1, ..., n, k = 1, ..., n
since to be equal to n at each point of S (we say that the surface S is regular) and that the right matrix of (1.39)
is made up of diferentiable easy functions.
Suppose the equations
x0 = X0 (ζ1 , .., ζn )
x1 = X1 (ζ1 , .., ζn )
.
(1.40)
.
.
xn = Xn (ζ1 , .., ζn )
coincide with the equations (1.39) for ζ = 0 and suppose also that these equations define the normal in S at the
point (ζ1 , ζ2 , ..., ζn ) under the action of ζ0 that is to say if we let us vary ζ0 along the normal and (ζ1 , ζ2 , ..., ζn ) the
parameters of the points of intersection of the normal with the surface S.
26
Suppose now that ζ0 is such that at least one of the derivatives ∂X
∂ζ0 6= 0. i = 0, 1, ..., n.
i
∂xi
since these last n lines are linearly independent because the rank of the matrix
∂ζ k
, i = 1, ...n; k = 1, ..., n is
equal to n according to our assumptions and the first line cannot be a linear combination of the other lines because
the last n lines represent vectors which belong to the plane tangent to the surface S and the first line represents
the vector perpendicular to S.
By continuity, (1.41) cannot be equal to zero and even in any neighbourhood of S. this is why in the neighbou-
rhood of (ζo , ζ1 , .., ζn )we can take other coordinates (x0 , x1 , ..., xn ).
Thus
∂ j u ∂ j u
≡ ≡ φj (ζ1 , ..., ζn ), j = 0, 1, ..., n − 1
∂ζ j ζ=0 ∂~nj ζ=0
and these equalities, we can differentiate with respect to ζ1 , ..., ζn and we get all the coordinates of ζ up to the order
m − 1 inclusive. by returning to the variables x0 , x1 , ..., xn in agreement with equality (1.40) we obtain on S all the
derivatives of u(x) up to the order m − 1 inclusive with respect to the variables x0 , x1 , ..., xn .
With the initial data on a surface area S given by the equation F (x) = 0 with x ∈ Rn
∂ k u
= φk , k = 0, 1, ..., (m − 1) (1.43)
∂~n S
Let us reduce the problem (1.42) - (1.43) to the problem that allowed us to establish the Kovalevskaïa problem.
There, the data was defined on an area x0 = cte. For this x variables, we can transform into new variables
27
∂
où Dj = .
∂xj
Suppose that the surface S is defined by the equation F (x) = 0 such that in the neighbourhoods of the point P
X
aα (x)(D0 F )α0 ...(Dn F )αn 6= 0.
|α|=m
So if we divide the equation (1.42) by this coefficient considered in the new variables we get
∂mu X
= bα (y)Dα u + f (y). (1.42)0
∂y0m
|α|≤m, α0 ≤m−1
To this eqution, we can apply Kovalevskaïa’s theorem in the case where the function F (x) is defined on the surface
S and the coefficients of the equation as well as the initial data of the analytical problem. The problem is the
condition on S that X
aα (x)(D0 F )α0 ...(Dn F )αn 6= 0. (1.45)
|α|=m
Definition 4. :
The surface S : F (x) = 0 for which the equation is verified
X X
aα (x)(D0 F )α0 ...(Dn F )αn ≡ aα (gradF ) = 0 (1.46)
|α|=m |α|=m
is called quite simply characteristic surface or quite simply characteristic of the equation (1.42) For the equation
which we considered above, that is to say in the case where (m = 2, n = 2), the characteristic equation is
2 2
∂F ∂F ∂F ∂F
a20 + 2a11 + a02 = 0.
∂x ∂x ∂y ∂x
Remark 1. :
The characteristic equation is defined from the higher order derivatives in an equation
Exemple 1. a) Consider the heat propagation equation in Rn
P 21
3
We can verify that the cone at ± Ω where Ω = k=1 x2k is the characteristic area of the wave equation
28
remarque : on a characteristic surface, it is recommended not to define the initial data in an arbitrary way.
∂ k u
= φk (y 0 ), k = 0, 1, ..., (m − 1, )
∂y0k y=0
So the equation on the characteristic surface cannot be set arbitrarily. they are related to the corresponding relations
due to the equations.
A. Consider the Cauchy problem for the heat equation (1.47) with initial data
u|x0 =0 = φ0 (x)
∂u (1.49)
∂x0 = φ1 (x)
x0 =0
If the solution of the problem (1.47) - (1.49) exists, then the initial data must verify the relation
B. It may happen that the solution of the Cauchy problem with initial data (1.43) on the characteristic exists,
but not in a unique way. Consider the vibration equation of the string
∂2u ∂2u
2 = a2 2 (1.51)
∂x0 ∂x1
∂2u
=0 (1.52)
∂y0 ∂y1
Let us define for equation (1.52) the initial data on the characteristic.
u|y0 =0 = φ0 (y1 )
∂u (1.53)
∂y0 = φ1 (y1 )
y0 =0
The solution to problem (1.52) - (1.53) exists only for certain conditions φ0 and φ1 and it is not unique. Let’s show
this :
Indeed, any solution of (1.52) takes the form
29
Where the functions Φ1 and Φ2 are defined from (1.53). We will have φ0 (y1 ) = Φ1 (y0 ) + Φ2 (y1 )
The solution of the problem (1.52) - (1.53) under the condition that φ0 (y1 ) ∈ C 2 (R) is written in the form :
∂ ∂α
−→ ζk , −→ ζ0α0 ζ1α1 ...ζnαn .
∂xk ∂xα α1 αn
0 ∂x1 ...∂xn
0
The polynomial in (1.57) is called the characteristic polynomial for equation (1.42) or the symbolic main part of
equation (1.42). The main solid part of equation (1.42) is called the polynomial of ζ which takes the form
X X
aα (x)ζ α ≡ aα0 α1 ...αn ζ0α0 ζ1α1 ...ζnαn .
|α|=m |α|≤m
Remark 2. :
Sometimes in the case of using the Fourier transformation, the main and full symbolic part are called polynomials
X X
aα (x)(iζ)α et aα (x)(iζ)α
|α|=m |α|≤m
30
Definition 5. :
the vector ζ = (ζ0 , ζ1 , ..., ζn ), |ζ| 6= 0. The orientation of ζ is called characteristic for equation (1.42)
Consider P
at point x if |α|=m aα (x)ζ α = 0 or in a simple way
X
aα0 α1 ...αn ζ0α0 ζ1α1 ...ζnαn = 0.
α0 +α1 +...+αn =m
the surface F (x) = 0 is characteristic if at each of its points the direction of the normal is a characteristic direction.
Indeed, gradF is oriented along the normal to the surface F = 0, and the equation of the characteristics has the
form α0 αn
X ∂F ∂F X
aα (x) ... ≡ aα (x)(gradF )α = 0
∂x0 ∂xn
|α|=m |α|=m
the expression ζ02 + ζ12 + ζ22 = 0 is the character expression for the Laplace equation. We obtain from this equation
ζk = 0 ∀ k = 0, 1, 2 that is to say the Laplace equation does not admit a real characteristic direction or does not
admit a characteristic. This is why the Cauchy problem for this problem can be considered with initial data on any
surface.
B) Consider the heat equation
3
∂u X ∂2u
=
∂x0 ∂x2k
k=0
31
Chapitre 2
FONCTIONS SÉCIALES
y 00 + xy = 0.
∞
X ∞
X
=⇒ Ck xk−2 + Ck xk+1 = 0.
k=2 k=0
Posons p = k − 2 ⇒ k = p + 2
∞
X ∞
X
(p + 2)(p + 1)Cp+2 xp + Ck xk+1 = 0
p=0 k=0
∞
X
=⇒ ((k + 2)(k + 1)Ck+2 + Ck x)xk = 0
k=0
D’óu le système
2 ∗ 1 ∗ C2 = 0
3 ∗ 2 ∗ C3 + C0 = 0
4 ∗ 3 ∗ C4 + C1 = 0
.
.
.
k(k − 1)Ck + Ck−3 = 0 ∀ k 6= 1
Ck
=⇒ Ck+3 = .
(k + 2)(k + 3)
En posant C0 = 1 et C1 = 0, seront donc non nuls tous les coefficients de la forme
C3m
C3(m+1) = − ∀m ∈ N,
(3m + 2)(3m + 3)
32
d’où
(−1)m
C3m = ∀m ∈ N∗ .
2 ∗ 3 ∗ 5 ∗ 6 ∗ ... ∗ (3m − 1) ∗ 3m
D’où une première solution est de la forme :
∞
X (−1)m
y1 (x) = 1 + x3m .
m=1
2 ∗ 3 ∗ 5 ∗ 6 ∗ ... ∗ (3m − 1) ∗ 3m
les séries y1 (x) et y2 (x) convergent ∀x et sont des fonctions analytiques ; ainsi toutes les fonctions solutions de
notre équation sont analytiques et peuvent donc s’écrire :
y(x) = C1 y1 (x) + C2 y2 (x), C1 , C2 ∈ R.
Exemple 4. Résoudre cette équation
y 00 + xy 0 + y = 0.
Écrivons la série entière
∞
X
y= C k xk . = 0
k=0
L’équation devient :
∞
X ∞
X ∞
X
Ck k(k − 1)xk−2 + x Ck kxk−1 + Ck xk = 0.
k=2 k=1 k=0
En égalant à 0 tous les coefficients de même degré que x, on obtient les équations pour les coefficients Ck , soit :
(k + 1)(k + 2)Ck+2 + (k + 1)Ck = 0 ∀k ∈ N.
en posant C0 = 1 et C1 = 0, on va trouver
(−1)m
C2m = , C2m=1 = 0, ∀m ∈ N.
2 ∗ 4 ∗ 6 ∗ 2m
D’où
x2 x4 x6 (−1)m x2m
y1 (x) = 1− 2 + 2∗4 − 2∗4∗6 + ... + 2∗4∗6∗...∗(2m) + ...
2
− x2
= e .
La deuxième solution est linéairement indépendante de la première ; on peut la trouver en posant C0 = 0 et C1 = 1.
Ce qui implique
(−1)m (−1)m
C2m = 0, C2m+1 = = ∀m ∈ N
1 ∗ 3 ∗ 5 ∗ ... ∗ (2m + 1) (2m + 1)!!
∞
X (−1)m
=⇒ y2 (x) = x2m+1 .
m=0
(2m + 1)!!
D’où
y(x) = C1 y1 (x) + C2 y2 (x) ∀C1 , C2 ∈ R,
y1 et y2 calculés en haut.
33
Remark 3. Considérons l’équation : x2 y 00 +xp(x)y 0 +q(x)y = 0. La méthode de Frobenius (théorie de l’intégrabililté)
consiste à chercher au voisinage d’un point singulier-régulier une solution de cette équation de la forme :
∞
X
µ
y(x) = x C k xk ,
k=0
Les points x = 0 et x = 1 sont les points singuliers de l’équation au voisinage de x = 0, l’équation hypergéométrique
peut s’écrire sous la forme :
P∞ P∞
00 ( k=0 xk ) 0 ( k=0 xk+1 )
y + [γ − (α + β + 1)x] y − αβ y = 0.
x x2
D’après Frobenius, on va avoir
λ(λ − 1) + γλ = 0
=⇒ λ = 0 ou λ = 1 − γ.
Alors on peut donc trouver deux solutions indépendantes en posant
∞
X ∞
X
y= Ck xk , ou y = x1−γ Ck xk .
k=0 k=0
Alors on peut trouver deux solutions indépendantes de l’équation hypergéométrique sous la forme de séries entières
qui convergent pour |x| < 1.
Nous allons donc chercher cette solution sous la forme
∞
X
y1 (x) = C k xk .
k=0
En égalant à 0 tous les coefficients de même dégré que x on obtient un systs̀eme d’équations pour les Ck
k(k − 1) + k(α + β + 1) + αβ
Ck+1 = Ck
(k + 1)(k + γ)
(α + k)(β + k)
= ∀k ∈ N.
(k + 1)(k + γ)
34
αβ α(α+1)β(β+1)
En posant C0 = 1, C1 = γ et C2 = 2!γ(γ+1), on a
α ∗ (α + 1) ∗ ... ∗ (α + k − 1) ∗ β ∗ (β + 1) ∗ ... ∗ (β + k − 1)
Ck =
k! ∗ γ ∗ (γ + 1) ∗ ... ∗ (γ + k − 1)
La solution recherchée vas écrire
∞
X α ∗ (α + 1) ∗ ... ∗ (α + k − 1) ∗ β ∗ (β + 1) ∗ ... ∗ (β + k − 1)
y1 (x) = 1 + xk
k! ∗ γ ∗ (γ + 1) ∗ ... ∗ (γ + k − 1)
k=1
Cette série est appelée série hypergéométrique. Elle converge pour |x| < 1 et sa somme est appelée fonction
hypergéométrique
∞
X α ∗ (α + 1) ∗ ... ∗ (α + k − 1) ∗ β ∗ (β + 1) ∗ ... ∗ (β + k − 1)
F (α, β, γ, x) = 1 + xk
k! ∗ γ ∗ (γ + 1) ∗ ... ∗ (γ + k − 1)
k=1
La seconde solution peut être recherchée sous cette forme mais nous nous allons nous en prendre autrement. Dans
l’équation hypergéométrique, on peut opérer le changement de variables suivant :
y = x1−γ z,
=⇒ y 0 = x1−γ z 0 + (1 − γ)x−γ ,
y 00 = x1−γ z 00 + 2(1 − γ)x−γ z 0 − γ(1 − γ)x( − γ − 1)z
qui nous donnes une équation hypergéométrique de paramètre (α + 1 − γ), (β + 1 − γ) et (2 − γ) qui admet donc
pour solution particulière
z = F (α + 1 − γ, β + 1 − γ, 2 − γ, x),
soit la deuxième solution admet pour équation
Polynôme de Legendre Les polyômes de Legendre sont des fonctions notées Pn (x) et définies par
1 dn (x2 − 1)n
Pn (x) = .
2n n! dxn
Chacune de ces fonctions est solution de l’équation :
appelée équation de Legendre. Il est à noter que les polynômes de Legendre peuvent être obtenues à partir des
fonctions hypergéométriques par un bon changement de variable.
Pour cela, montrons que l’équation hypergéométrique peut être obtenue à partir de l’équation de Legendre. Pour
le faire, posons le changement de variable suivant :
Posons
−x + 1
x = 1 − 2t =⇒ t =
2
dy dy dt 1 dy
= =−
dx dt dx 2 dt
35
d2 y 1 d2 y
d dy d dy dt
= = =
dx2 dx dx dt dx dx 4 dt2
D’où (1 − x2 )y 00 − 2xy 0 + n(n + 1)y = 0 devient :
d2 y dy
t(t − 1) + (−1 + 2t) − n(n + 1)y = 0
dt2 dt
Nous obtenons une équation hypergéométrique de paramètre
α = n + 1, β = −n, γ = 1
y1 = F (n + 1, −n, 1, t).
dk h γ+k−1 i
k
x (x − 1)α+β−γ+k F (k) (α, β, γ) = (−1)k α(α+1)...(α+k−1)∗β(β+1)...(β+k−1)xγ−1 (x−1)α+β−γ ∗F (α, β, γ, x)
dx
En posant α = n + 1, β = −n et γ = 1, on obtient :
(−1)n 2n
F (n) (n + 1, −n, 1, t) =
n!
On peut aussi montrer qu’en dérivant F n fois
α = n − 1, β = −n, γ = 1.
On obtient :
1−x
P1 (x) = F (2, −1, 1, )=x
2
1−x 1
P2 (x) = F (3, −2, 1, ) = (3x2 − 1)
2 3
36
1−x 1
P3 (x) = F (4, −3, 1, ) = (5x2 − 3x)
2 2
1−x 1
P4 (x) = F (5, −4, 1, ) = (35x4 − 30x2 + 3)
2 8
...
Montrons que l’ensemble des polynômes de Legendre forment un système orthogonal dans le segment [−1, 1] avec
pour poids(contrainte) ρ(x) = 1
Z
[fn (x)gm (x)ρ(x)] dx = 0 si n 6= m
Ω
6= 0 si n = m
D’où Z 1
m 6= n ⇒ Pn (x)Pm (x) dx = 0
−1
x2 y 00 + xy 0 + (x2 − ν 2 )y = 0
37
Il est aussi à remarquer que cette équation admet un seul point singulier, qui est donc le point x = 0. l’équation
caractéristique au point x = 0 est définie par
λ(λ − 1) + λ − ν 2 = 0,
c’est-à-dire
λ2 − ν 2 = 0 =⇒ λ ± ν.
Cherchons la solution de l’équation de Bessel dans le cas général sous forme d’une série généralisée définie par :
∞
X
y= Ck xk+λ ; C0 6= 0.
k=0
∞
X ∞
X
[(λ + k)(λ + k − 1) + λ + k − ν 2 ]Cxk + Ck xk+2 = 0
k=0 k=0
C’est-à-dire
∞
X ∞
X
((λ + k)2 − ν 2 )Ck xk + Ck xk+2 = 0
k=0 k=0
Pour que la série obtenue identiquement nulle, il faut que ses coefficient vérifient la condition (λ2 − ν 2 )C0 = 0,
[(λ + 1)2 − ν 2 ]C1 = 0 et de manière générale
On montre sans peine à partir du critère de D’Alembert que cette série converge dans tout segment de la forme
[0, α]. Ainsi y1 (x) est bel et bien solution de l’équation de Bessel ∀C0 . En général, en qualité de C0 , on ose poser :
1
C0 = ,
2ν Γ(ν + 1)
38
où Γ est la fonction Gamma. avec
Z ∞
Γ(α) = xα−1 e−x dx, Γ(ν + 1) = νΓ(ν).
0
On a ;
∞
X (−1)k .2ν x 2k+ν
y1 (x) =
2ν k!Γ(ν + 1)(ν + 2)...(ν + k) 2
k=0
En substituant y2 (x) dans l’équation de Bessel, il vient pour les coefficients Ck avec λ = −ν,
=⇒ C0 6= 0, C1 = 0
C2k−2
C2k = − , C2k+1 = 0.
22k k(ν + k)
Par hypothèse, ν ∈ Z, on peut donc estimer les coefficients d’indices paire d’expression :
C0
C2k = (−1)k
22k k!(−ν + 1)(−ν + 2)...(−ν + k)
∞
X C0
=⇒ y2 (x) = (−1)k x2k−ν
22k k!Γ(−ν + 1)(−ν + 2)...(−ν + k)
k=1
1
Posons C0 = 2−ν Γ(−ν+1) d’où
∞
X C0
y2 (x) = (−1)k x2k−ν
22k k!(−ν + 1)(−ν + 2)...(−ν + k)
k=0
∞ x 2k−ν
X 1
=⇒ J−ν (x) = (−1)k .
k!Γ(−ν + k + 1) 2
k=0
39
/ Z−
ceci est le cas où α, β, γ ∈
Si β < 0, par exemple si β = −n, alors l’équation hypergéométrique a pour solution un polynôme (polynôme de
Jacobi). Les polynômes de Jacobi sont définis par
Ils sont orthogonaux dans le segment [−1, 1] avec pour densité ou poids tγ−1 (1 − t)γ−1 , c’est-à-dire
Z 1
Φn (t)Φm (t)tγ−1 (1 − t)γ−1 dt = 0.
−1
Une autre forme de présentation de la solution de l’équation hypergéométrique pour β > 0 et γ > β est définie par
Z 1
Γ(γ)
F (α, β, γ, t) = sβ−1 (1 − s)γ−β+1 (1 − ts)−α ds,
Γ(β)Γ(γ − β) −1
cette équation admet pour solution les polynômes de Legendre qui sont Pn (t) et nous avons monté que les polynômes
de Legendre sont orthogonaux dans le segment [−1, 1] avec pour poids ρ(x) = 1.
c. Equation d’Hermite : Il est défini sous la forme :
x00 + (λ − t2 )x = 0.
tx00 + (1 − t)x0 + nx = 0.
(1 − t2 )x00 − tx + λx = 0.
Pour λ = n2 , cette équation admet pour solution les polynômes de Tchebicheff qui sont notés Tn (x). Les polynômes
1
de Tchebicheff sont orthogonaux dans [−1, 1] et pour poids √1−t 2
.
f. Équation de vibrations simples : Elle est donnée par
x00 + λx = 0.
40
Pour λ = n2 , cette équation admet pour solutions sin(nt) et cos(nt) dont les propriétés d’orthogonalité dans le
segment [−1, 1] sont bien connues. On passe de cette équation à celle de Tchebicheff par un bon changement de
variable.
u = cos(t) ⇒ Tn (t) = cos(nt) = cos(arccos u)
g. Équation de Bessel : Elle est définie par
Elle admet pour solution la fonction de Bessel notée Jλ (t). De l’équation de Bessel, pour t > 0 on en déduit par
des changements de variables trois équations qu’il est utile de connaitre.
L’on obtient donc l’équation
t2 u00 + (t2 − µ)u = 0
√
à travers le changement de variable u = x t, µ = 14 − λ2 où
ou encore
t2
su00 + (λ + 1)u0 + u = 0par le changement de variables = , u = xt−λ .
4
h. Équation différentielle de Laplace. On appelle équation différentielle de Laplace toute équation différentielle
linéaire homogène de second ordre dont les sont des fonctions linéaires indépendantes. D’où :
On note que les deux équations de Laguerre, l’équation d’Hermite et les deux equations équivalentes de Bessel sont
des équations de Laplace. Pour résoudre cette équation, il faut utiliser la transformée de Laplace encore appelée
calcul opérationnel
Exercice
Soit à calculer l’intégrale Z 1
cos(tx)
I(x) = √ dt.
0 1 − t2
Ici, il faut utiliser le calcul opérationnel
Z 1
L(cos(tx))
L(I(x)) = √ dt,
0 1 − t2
p
or L(cos(tx)) = p2 +t2 , soit
Z 1 Z 1
P 1
L(I(x)) = √ dt = p √ dt.
0 (p2 + t2 ) 1 − t2 0 (p2 + t2 ) 1 − t2
41
Figure 2.1 –
La question qui c’était posée était de savoir si on ne peut pas prolonger la fonction f (n) = n! pour les points
intermédiaires. Essayons de joindre les points obtenus
Figure 2.2 –
Figure 2.3 –
42
On voit que ce n’est pas ne interpolation. En effet, est-ce que nous pouvons définir une fonction définie dans R+
qui va se comporter comme aussi bien pour les nombres entiers que les réels ? En général la fonction Gamma est
une découverte du mathématicien allemand Léonard Euler, elle est appelée intégrale de Euler. En effet, c’est le
problème que c’était pose Euler, à savoir construire une fonction définie dans R+ qui vérifie la propriété de factoriel.
Dans les péripéties de trouver une telle fonction, il a obtenu un objet lié à une transformation intégrale donc
nous allons définir et étudier leurs propriétés. Nous allons d’abord définir la fonction Beta qui est une fonction
définie à l’aide de deux paramètres a et b.
Z 1
β(a, b) = ta−1 (1 − t)b−1 dt.
0
Les fonctions Gamma et Beta sont définies pour le nombre complexe et réels. Dans notre cours, nous allons nous
interessera des fpmctopms Gamma et Beta definies pour les nombres reels. Si a > 1 et b < 1, alors cette integrle
est imprompre pour a > 0 et b > 0, la fonction Beta converge. Nous pouvons former un changemen rde variable en
posant
√ π
t = sin φ ⇒ t = 0 ⇒ φ = 0, t = 1 ⇒ φ = ,
2
√
t = sin φ ⇒ t = sin2 φ ⇒ 1 − t = 1 − sin2 φ = cos2 φ.
La différentielle de t donne dt = 2 sin φ cos φ. En substituant dans l’intégrale, on obtient :
Z 1
β(a, b) = ta−1 (1 − t)b−1 dt
0
Z π
2
= (sin φ)a−1 (cos2 φ)b−1 2 sin φ cos φdφ
0
Z π
2
= 2(sin φ)2a−1 (cos2 φ)2b−1 dφ.
0
43
Ainsi,
Γ(n) = (n − 1)!, ∀ n ∈ N
soit pour n ∈ N, Γ(n) = (n − 1)! ∀a ∈ R+ , Γ(a + 1) = aΓ(a) Gauss a définie une façon analogue à la fonction Γ
et l’a noté Z ∞
Π(a) = ta e−t dt et pour n ∈ N, Π(n) = n!.
0
Riemann a aussi défini une telle fonction liée a la fonction qui porte le nom "zeta(ζ(x))"
Z ∞
Π(s − 1)
e−π xs−1 =
0 ns
∞
xs−1
Z
Π(s − 1)ζ(s) = dx.
0 ex − 1
Sur la base de cette fonction ζ(s) il voulait trouver tous les points s pour lesquels cette fonction s’annule et ceci est
appelé l’hypothèse de Riemann, qui reste un problème jusqu’à nos jours et donc la solution coute 1 million de
dollars. Essayons de donner le graphique de cette fonction.
Figure 2.4 –
C’est vrai nous avions dit que la fonction Γ est définie pour les a > 0, nous pouvons la définir pour les a < 0 tel
que représentée sur la figure ci-contre
44
Figure 2.5 –
En observant (1) et (2), on voit que le lien entre la fonction Gamma et B n’est pas claire car la fonction Gamma
est définie avec un paramètre alors que la fonction B en a deux. Mais en faisant quelques petites écritures, par
exemple en écrivant la fonction Gamma avec pour paramètre b, il vient
Z ∞
2
Γ(b) = 2y 2b−1 e−y dy,
0
Z ∞ Z ∞
2a−1 −x2 2b−1 −y 2
Γ(a)Γ(b) = 2x e dx 2y e dy .
0 0
45
le domaine d’intégration "D" étant le premier quadrant
Figure 2.6 –
π
Z 2
Z ∞
2
β(a, b) = dφ 4(r cos φ)2a−1 (r sin φ)2b−1 e−r rdr
0 0
π
Z 2
Z ∞
2
= 2a−1
2(cos φ) (sin φ) 2b−1
dφ 2r2(a+b) e−r dr = β(b, a) × Γ(a + b),
0 0
Soit
Γ(a)Γ(b) = β(a, b)Γ(a + b)
D’où
Γ(a)Γ(b)
β(a, b) = = β(b, a)
Γ(a + b)
1
Si a = 2 et b = 12 , on obtient
Γ( 12 )Γ( 12 ) 1 1 1
= β( , ) ⇒ Γ2 ( ) = π,
Γ(1) 2 2 2
soit
1 √
Γ( ) = π
2
Z ∞
1 2 √
Γ( ) = 2e−x dx = π
2 0
46
1 1 × 3 × ... × (2n − 1) √ (2n − 1)!! √ (2n)! √
Γ(n + ) = n
π= n
π= π
2 2 2 n!4n
soit
1 (2n)! √
Γ(n + ) = π.
2 n!4n
√
1 Γ(n + 21 )Γ( 21 ) (2n)! √ π (2n)!
β(n + ) = = π × = n π
2 Γ(n + 1) n!4n n! 4 (n!)2
Autre façon de calculer
Z π
1 2
β(n + ) = 2(sin φ)2n dφ
2 0
Il vient Z π
2 (2n)! π
(sin φ)2n dφ = .
0 4n (n!)2 2
Cette intégrale porte le nom de l’intégrale de Wallis.
Faisons encore cette transformation. Nous savons que la fonction β(a, b) peut être encore écrite par :
Z 1
β(a, b) = xa−1 (1 − x)b−1 dx.
0
En posant le changement
1 −2 1
x=1− ⇒ dx = (t + 1) dt, 1 − x = 1 − 1 − = (t + 1)−1 , x = t(t + 1)−1
t+1 t+1
D’où
Z ∞
β(a, b) = ta−1 (t + 1)−a+1 (t + 1)−b+1 (t + 1)−2 dt
0
∞ ∞
ta−1
Z Z
a−1 −a−b
= t (t + 1) dt = dt.
0 0 (t + 1)a+b
Nous obtenons une nouvelle représentation de la fonction Beta
En posant b = 1 − a, il vient
Z ∞ a−1
Γ(a)Γ(1 − a) Γ(a)Γ(1 − a) t π
β(a, 1 − a) = = = dt = , 0<a<1
Γ(a + 1 − a) Γ(1) 0 t + 1 sin πa
soit
π
Γ(a)Γ(1 − a) =
sin πa
Cette formule est appelée formule du complémentaire.
On peut encore l’écrire en posant que :
1 1 1 π π2
a= + x, on a Γ( + x)Γ( − x) = π =
2 2 2 sin( 2 + πx) cos πx
47
∞
ta−1
Z
β(a, b) = dt
0 (t + 1)a+b
Nous avons aussi montré que la Beta fonction est symétrique, à savoir
Γ(a)Γ(b)
β(a, b) = β(b, a) = .
Γ(a + b)
Γ(a + 1) = aΓ(a)
π
Γ(a)Γ(1 − a)
sin πa
et nous avons montré que
Γ(n + 1) = n!, n ∈ N
1 (2n)! √
Γ(n + ) = n π, n ∈ N.
2 4 n!
48
Chapitre 3
3.1 Rappel
3.1.1 Espace vectoriel euclidien :
Definition 6. :
Soit V un K − ev. La fonction rélle notée (x, y) ou < x, y > ou < x|y > pour tout couple (x, y) appartenant à
V est appelée produit scalaire si
(1) (x, y) = (y, x)
(2) (x1 + x2 , y) = (x1 , y) + (x2 , y) ∀x1 , x2 , y ∈ V
(3) (λx, y) = λ(x, y) ∀x, y ∈ V et∀λ ∈ K
(4) (x, y) ≥ 0, si (x, x) = 0 =⇒ x = 0
Definition 7. :
Tout espace vectoriel dans le quel est défini le produit scalaire est appelé espace vectoriel euclidien. Dans un
espace vectoriel euclidien, on peut définir la norme ou la distance associée à cet espace
p
||x|| = (x, x),
Dans un espace vectoriel euclidien, si nous avons deux vecteurs x et y qui vérifient la condition (x, y) = 0, alors on
dit que les vecteurs x et y sont orthogonaux.
Si dans un espace vectoriel euclidien nous avons un système de vecteurs (xα )α∈N qui est tel que
(xα , xβ ) = 0 si α 6= β,
Exemple 5. :
49
Nous avons montré que ((Rn , +, .)) est un R − ev sur le champ R. Pour montrer que ceci est un espace vectoriel
euclidien, construisons le produit scalaire suivant :
x ∈ Rn =⇒ x = (x1 , ..., xn )
y = (y1 , ..., yn )
n
X
(x, y) = xi yi
i=1
L’espace n X p o
lp = x = (x1 , x2 , ..., xn )/ xi < ∞
n
! p1
X
||x||p = xpi
i=1
2
L’espace C ([a, b]) est l’ensemble des fonctions qui sont dérivables deux fois dans l’intervalle [a, b].
Z b
2
∀f, g ∈ C ([a, b]), (f, g) = f (t)g(t) dt
a
50
Exemple 6. Considérons l’espace
n X p o
lp = x = (x1 , x2 , ..., xn )/ xi < ∞
n
! p1
X
||x||p = .
i=1
On voit qu’avec cette norme ainsi définie l’espace ne sera pas toujours un espace euclidien. Essayons de voir pour
quel p il le sera :
On se donne f (1, 1, 0, ..., 0) et g(1, −1, 0, ..., 0). Essayons de calculer la norme de chaque vecteur.
1 1
||f ||p = 2 p , ||g||p = 2 p , ||f + g|| = 2, |||f − g| = 2,
La norme est Z
||f || = |f (µ)| dµ
X
Cet espace est infini et complet.
L’espace L2 est l’espace
R noté L2 (X, µ) consitué de toute les fonctions qui sont donc intégrables par quadrature
suivant X si l’intégrale f 2 (x) dµ < ∞ et existe.
R de toutes ces fonctions sera notée L2 (X, µ).
L’ensemble
(f, g) = f (µ)g(µ) dµ est le produit scalaire dans L2 .
Definition 9. Espace de Banach
Tout espace vectoriel normé complet est appelé espace de Banach.
Definition 10. Espace de Schwarz
En d’autres termes, l’espace S est constitué des fonctions u(x) ∈ C ∞ (R) qui décroissent ensemble avec ses
dérivées plus vite qu’une fonction
1
∀β ∈ R.
1 + |x|β
2
Exercice : Montrer que u(x) = e−x ∈ S.
51
3.2 Série de Fourier.
On appelle série de Fourier une série de la forme
a0
+ a1 cos x + b1 sin x + a2 cos 2x + b2 sin 2x + ...
2
ou sous la forme
∞
a0 X
+ an cos nx + bn sin nx.
2 n=1
Z π Z π Z π
a0
⇒ dx = πa0 , an cos nx dx = 0, bn sin nx dx = 0.
−π 2 −π −π
Z π
1 π
Z
⇒ f (x) dx = πa0 , c’est-à-dire a0 = f (x) dx.
−π π −π
Pour calculer les autres termes de la suite, nous vérifions que
Z π Z π Z π
an cos nx cos kx dx = 0, an cos nx sin kx dx = 0, an sin nx sin kx dx = 0.
−π −π −π
Si n = k, on a :
Z π Z π Z π
2
cos kx dx = π, sin kx cos nx dx = 0, sin2 nx dx = π.
−π −π −π
D’où l’équation
Z π Z π Z π
a0 X
f (x) dx = dx + ( an cos nx cos kx + bn sin nx cos kx )dx.
−π −π 2 −π
Z π Z π
1 1
ak = f (x) cos kx dx, bk = f (x) sin kx dx.
π −π π −π
52
Exemple :
Pour la fonction f (x) = x, −π < x < π, on a
1 π
Z
2
a0 = x dx = 0, ak = 0, bk = (−1)k+1 .
π −π k
D’où la fonction f (x) se met sous la forme :
sin x sin 2x sin kx
f (x) = 2 − + ... − ...(−1)k+1 + ... .
1 2 k
Pour la fonction f (x) = |x|, on a
π 4 cos x cos 3x cos(2p + 1)x
f (x) = − + + ... + + ... .
2 π 12 32 (2p + 1)2
Pour la fonction
−1, −π ≤ x < 0,
f (x) =
1 0 ≤ x ≤ π.
on a
0, si k pair
a0 = 0, ak = 0, bk = 4
πk si k impair.
Pour la fonction f (x) = x2 , −π ≤ x ≤ π, on a
π2
cos x cos 2x cos 3x
x2 = −4 − + − ... .
3 1 22 32
D’où pour x = 0 :
∞
π2 X 1
= .
12 n=1 n2
Pour la fonction
0, −π ≤ x < 0,
f (x) =
x 0 ≤ x ≤ π.
On a
π 2 cos x cos 3x cos(2p + 1)x sin x sin 2x sin 3x
f (x) = − + + ... + + ... + + + + ... .
4 π 12 32 (2p + 1)2 1 2 3
D’où pour x = 0 :
∞
π2 X 1
= .
8 n=1
(2p + 1)2
En effet, comme ψ(ζ − 2π) = ψ()ζ, posons x = ζ − 2π. On peut écrire quelques soient c et d :
Z d Z d+2π Z d+2π Z d+2π
ψ(x) dx = ψ(ζ − 2π) dζ = ψ(ζ) dζ = ψ(x) dx.
c c+2π c+2π c+2π
53
Par conséquent
Z λ+2π Z −π Z π Z λ+2π Z −π Z π Z λ Z π
ψ(x) dx = ψ(x) dx+ ψ(x) dx+ ψ(x) dx = ψ(x) dx+ ψ(x) dx+ ψ(x) dx = ψ(x) dx.
λ λ −π π λ −π −π −π
Cela signifie que l’intégrale d’une fonction périodique ψ(x) sur un segment arbitraire de longueur égale à la
période a toujours la même valeur.
Donc si l’on a le développement limité d’une fonction impaire, le produit ψ(x) sin kx est une fonction impaire et le
produit ψ(x) cos kx est une fonction paire. Par suite :
2 π 2 π 1 π
Z Z Z
a0 = ψ(x) dx = 0, ak = ψ(x) cos kx dx et bk = ψ(x) cos kx dx
π 0 π 0 π −π
Par contre, pour le développement limité d’une fonction impaire, le produit f (x) sin kx est une fonction paire et
f (x) cos kx esgt une fonction impaire. Par suite,
1 π 1 π 1 π 2 π
Z Z Z Z
a0 = f (x) dx = 0, ak = f (x) cos kx dx = 0, bk = f (x) sin kx dx = f (x) sin kx dx.
π −π π −π π −π π 0
Remark 6. Tout ce qui a été dit sur les séries de Fourier des fonctions périodiques de période 2π reste en vigueur
pour les fonctions périodiques de période quelconqu 2l.
54
Exemple : Dévelloper ensérie de Fourier la fonction périodique de période 2l définie sur le segment [−l, l] par
l’égalité f (x) = |x|
Solution Rl
bk = 0, a0 = 2l 0 x dx = l,
Z l Z l
2 kπ 2l 0 pour k pair,
ak = x cos x dx = 2 x cos kx dx =
l 0 l π 0 − π24lk2 pour k impaire
D’où " #
l 4l cos πl x cos 3π
l x cos (2p+1)π
l x
|x| = − 2 + + ... + + ...
2 π 12 32 (2p + 1)2
Figure 3.1 –
Exemple
Dévelloper la fonction f (x) = x sur le segment [0, a] en série de sinus. Prolongeons cette fonction de façon
impaire. On obtient
sin x sin 2x sin 3x
x=2 − + + ...
1 2 3
55
P∞ P∞
Nous écrivons alors f (x) = c0 + n=1 cn enxi + c−n e−nxi ou f (x) = −∞ cn enxi , qui est la forme complexe de
la série de Fourier. Il nous reste à exprimer les coefficients cn et c−n par des intégrales.
D’après les formules étudiées plus haut,
Z π Z π
1
cn = f (x) cos nx dx − i f (x) sin nx dx
2π −π −π
Z π
1
= f (x)(cos nx − i sin nx) dx
2π −π
Z π
1
= f (x)e−inx dx
2π −π
de même Z π
1
c−n = f (x)einx dx
2π −π
P∞ nπ
Nous pouvons aussi l’exprimer comme f (x) = n=∞ cn ei l x où les coefficients cn de la série sont tirés de la
formule
1 l
Z
nπ
cn = f (x)e−i l x dx avec n = 0, ±1, ±2, ...
2l −l
Il est d’usage d’employer la terminologie suivante en électrotechnique et en radiotechnique. Les expréssions de la
i nπ
l x sont appelées harmoniques et les normbres α
nπ
forme eP n = l , n = 0, ±1, ±2, ... nombres d’onde de la fonction
∞ iαn x
f (x) = n=−∞ cn e . L’ensemble des nombres d’onde porte le nom de spectre.
56
On suppose que l’intégrale existe et l’identité est appelé identité de Parseval.
Démonstration : Soit la décomposition en série de Fourier de la fonction f (x) définie par
∞
a0 X nπ nπ
f (x) = + an cos x + bn sin x.
2 n=1
l l
Multiplions de part et d’autre cette égalité et intégrons de part et d’autres aux bornes de −l et l
∞
" #
Z l Z l Z l Z l
2 a0 X nπ nπ
[f (x)] dx = f (x) dx + an f (x) cos x dx + bn f (x) sin x dx .
−l 2 −l n=1 −l l −l l
∞
a2 X
= l+l (a2n + b2n )
2 n=1
car Z l Z l Z l
nπ nπ
f (x) dx = la0 , f (x) cos x dx = lan , f (x) sin x dx = lbn , (∗)
−l −l l −l l
qui sont obtenus à partir des coefficients de Fourier.
Pour l’établir, nous allons d’abord montrer que pour tout entier positif M
M l
a2 X 2
Z
1
+ (an + b2n ) ≤ [f (x)]2 dx,
2 n=1
l −l
où les an et bn sont des coefficients de Fourier correspondant ‘a f (x), f (x) étant supposé régulière sur morceaux
dans (−l, l). Soit
∞
a0 X nπ nπ
SM (x) = + an cos x + bn sin x. (a)
2 n=1
l l
qui pour M = 1, 2, 3, ... est une séquence de somme partielles de la série de Fourier correspondant à f (x). Nous
avons Z l
(f (x) − SM (x))2 dx ≥ 0 (b)
−l
Puisque l’argument de l’intégrale est non négatif, en développant l’argument de l’intégrale, il vient :
Z l Z l Z l
2
2 f (x)SM (x) dx − SM (x) dx ≤ [f (x)]2 dx (c)
−l −l −l
En multipliant les deux membres de (a) par 2f (x) et intégrant de −l à l tout en utilisant (∗), nous obtenons :
∞
Z l ( )
a2 X 2
2 f (x)SM (x) dx = 2l + (an + b2n ) (d)
−l 2 n=1
57
Puis en substituant (d) et (e) dans (c) et divisant par l, nous obtenons que
M l
a2 X 2
Z
1
+ (an + b2n ) ≤ [f (x)]2 dx
2 n=1
l −l
Exemple
En utilisant l’inégalité de Parseval sur f (x) = x, 0 < x < 2 en série de cosinus
On a :
4
l = 2, a0 = 2, an = 2 2 (cos nπ + 1), n 6= 0, bn = 0.
n π
D’où
l l ∞
(2)2 X 16
Z Z
2 1
[f (x)] dx = X 2 dx = + 4 π4
(cos nπ − 1)2 .
−l 2 −l 2 n=1
n
58
Chapitre 4
TRANSFORMATION DE FOURIER
Dans les études sur les transformations en séries trigonométriques de FOURIER il a été question de la théorie
et application du développement d’une fonction f (x) de période 2l en série de FOURIER . Maintenant, la question
est de savoir ce qui se passe quant l tend vers l’infini.
Au cours de ce qui va suivre nous allons montrer que la série de FOURIER devient l’intégrale de Fourier.
Le résultat (∗) est vrai si x est un point de continuité de f (x). Dans le cas contraire, nous devons remplacer
f (x) par f (x+0)+f
2
(x−0)
comme nous l’avons fait dans le cas des séries de Fourier
Remark 7. Les conditions ci-dessus sont suffisantes mais pas nécéssaires. La similitude entre (∗) et (∗∗) et les
résultats correspondant dans le cas des séries de FOURIER est évidente et le membre de droite de (∗) est parfois
appelé développement en intégrale de FOURIER de f (x).
59
f (x+0)+f (x−0)
où nous sous-entendons que lorsque f (x) n’est pas continue au point x on remplace f(x) par 2 .
Ces résultats peuvent être simplifiés si f (x) est unne fonction paire ou impaire et il vient
Z ∞ Z ∞
1
f (x) = sin αx dx f (u) sin αu dx si f est impaire
2π −∞ −∞
.
Z ∞ Z ∞
1
f (x) = cos αx dx f (u) cos αu dx si f est paire
2π −∞ −∞
.
Z ∞
f (x) = Fs (α) sin αu du est appelée transformée de Fourier en sinus inverse de Fs (α)
0
Z ∞
f (x) = Fc (α) sin αu du est appelée transformée de Fourier em cosinus inverst de Fc (α)
0
Ces deux identités sont appelées identités de PARSEVAL pour les intégrales de Fourier
Exercice
Etablir les identités de PARSEVAL pour les cas de transformations de Fourier en sinus et en cosinus.
60
4.5 Convolution pour les intégrales de Fourier
La convolution de deux fonctions f et g est définie par :
Z ∞
f ∗g = f (u)g(x − u) du
−∞
On montre que
F (f ∗ g) = F (f ).f (g), f ∗ g = g ∗ f, f ∗ (g ∗ h) = (f ∗ g) ∗ h, f ∗ (g + h) = f ∗ g + g ∗ h.
∂v ∂2v ∂v ∂F (v)
F( ) = iαF (v), F ( 2 ) = −α2 F (v), F ( ) = ( ,
∂x ∂x ∂t ∂t
Z ∞ Z ∞
∂v ∂v ∞
F( ) = dx = e−iαx v −∞ + iα ve−iαx dx,
∂x −∞ ∂x −∞
∂2v
F( ) = −α2 F (α),
∂x2
∂w ∂2w ∂w
v= , F( ) = iαF ( ) = (iα)2 F (w).
∂x ∂x ∂x
On peut généraliser
∂nv
F = (iα)n F (v).
∂xn
Z ∞ Z ∞
∂v ∂v −iαx ∂ ∂
F( )= e dx = ve−iαx dx = F (v)
∂t −∞ ∂t ∂t −∞ ∂t
∂u ∂2u
= k 2, u(x, 0) = f (x), |u(x, t)| < M, où − ∞ < x < ∞.
∂t ∂x
2) Donner l’interprétation physique
Solution 1) En prenant la transformée se part et d’autres de cette égalité, il vient :
∂û
= −kα2 û.
∂t
61
2
En résolvant cette équation, il vient : û = Ce−kα t ,
2
û = F (u(x, t)) = Ce−kα t .
1
Z ∞
2 √
u(x, t) = √ e−z f (x − 2z kt) dz.
π −∞
2) L’interprétation physique du problème revient à déterminer la température d’une barre mince et infinie dont
la surface est isolée et la température initiale est f (x).
L’équation (4.1) est linéaire et homogène, c’est pourquoi la somme des solutions particulières sera toujours une
solution de cette équation.
Cherchons une solution non triviale c’est-à-dire non nulle s’écrivant comme produit de deux fonctions :
62
u(x, t) = T (t)X(x) (4.4)
où T dépend de t et X de x.
D’autre part, nous allons rechercher cette solution telle qu’elle puisse vérifier la condition limite (4.2). Substituons
la partie droite de (4.4) à la place de u(t, x) dans (4.1) on a :
X 00 T = T 00 X,
X 00 (x) T 00 (t)
= = −λ.
X(x) T (t)
(Dans la suite nous allons montrer que cette constante est réelle).
De la relation précédente il vient que :
Pour définir les fonctions X(x) et T (t), les conditions aux limites (4.2) donnent
Il vient que la fonction X(x) devrait vérifier les conditions aux limites
Si non on avait T (t) = 0 c’est-à-dire u(t, x) = 0 et nous cherchons la solution non triviale. Ainsi nous sommes
arrivés au problèmes des valeurs propres.
Nous devons chercher le nombre λ appelé solution propre et nous devons rechercher cette solution. Le problème
posé est celui de STURM-LIOUVILLE.
Ici nous allons considérer trois cas :
λ < 0, λ = 0, λ > 0.
1) Si λ < 0, Le problème n’admet pas de solution non triviale ; effectivement, la solution générale est
√ √
−λx
X(x) = C1 e + C2 e− −λx
ie √ √
−λl
C1 = −C2 , C1 ( −e− −λl
) = 0 =⇒ C1 = 0, C2 = 0, careα − e−α6=0 , ∀α ∈ R
Ainsi,
X(x) ≡ 0,
2) Si λ > 0, la solution générale contient des exposants imaginaire ; c’est pourquoi nous pouvons l’écrire
√ √
X(x) = C1 cos λx + C2 sin λx
63
√
√ la condition X(0) = 0, il faut que C1 = 0. Alors la condition X(l) entraine que C2 sin
Pour vérifier λl = 0, ou
encore sin λl = 0√(car si C2 = 0, nous obtenons
√ une solution triviale).
L’équation sin λl = 0 est vérifiée si l λ ie
n2 π 2
λ= , avec n 6= 0, comme nous avions supposé que λ 6= 0.
l2
Pour les n négatifs, λ prend les mêmes valeurs que les n positifs. C’est pourquoi toutes les valeurs λ pour
lesquelles l’équation (4.6) admet une solution non triviale vérifiant la condition limite (4.2’) donne la formule
n2 π 2
λn = , n = 1, 2, 3, ...
l2
Ainsi nous avions trouvé les valeurs propres posées pour le probl‘eme. A ces valeurs propres correspondent les
fonctions propres
nπ
Xn (x) = C2 sin
x,
l
vue par l’équation (4.6), les fonctions propres se définissent à une constante près positive sur nous pouvons poser
égale à 1, ou bien la choisir telle que la fonction propre Xn (x) vérifie une condtion supplémentaire appelée condition
de normalité. Il est nécessaire d’introduire la norme telle que
Z l
Xn2 (x) dx = 1.
0
n2 π 2
Tn00 + Tn = 0.
l2
Après résolution, nous avons :
nπ nπ
Tn (t) = An cos t + Bn sin t,
l l
où An et Bn sont des coefficients.
Posons
nπ nπ nπ
un (t, x) = Xn (x)T (t) = (An cos t + Bn sin t) sin x
l l l
qui vérifie l’équation (4.1) et les conditions aux limites en (4.2) pour tout An P et Bn constantes. En vertu de la
∞
linéarité et de l’homogénéité de l’équation, la somme des solutions particulières n=1 un (t, x) est aussi solution de
cette équation.
Essayons de définir les constantes An ,Bn telle que la série infinie
∞ ∞
X X nπ nπ nπ
u(t, x) = un (t, x) = (An cos t + Bn sin t) sin x (4.8)
n=1 n=1
l l l
64
vérifie aussi l’équation (4.1) et les conditions limites (4.2) et les conditions initiales (4.3), commençons avec les
conditions initiales.
∞
X nπ
u(0, x) = An sin x = ϕ(x) (4.9)
n=1
l
d’autres part, si l’on pouvait différencier la série (4.8) membre par membre, nous aurions :
∞
∂u(t, x) X nπ nπ
= Bn sin x = ψ(x). (4.10)
∂t
t=0 n=1
l l
Supposons que les fonctions ϕ et ψ peuvent être décomposées uniformément et absolument en séries convergentes
en sin nπ
l x dans le segment [0, l]. Dans la théorie des séries trigonométriques nous savons que ceci n’est possible
que si les fonctions ϕ(x) et ψ(x) sont continues ensemble avec leur dérivées premières et que ϕ(0) = ϕ(l) = 0,
ψ(0) = ψ(l) = 0, c’est-à-dire à l’extremité du segment, ces fonctions deviennent nulles. Supposons que les conditions
précédentes sont vérifiées alors nous aurons :
∞ Z l
X nπ 2 nπ
ϕ(x) = ϕn sin x, ϕn = ϕ(ζ) sin ζ dζ,
n=1
l l 0 l
∞ Z l
X nπ 2 nπ
ψ(x) = ψn sin x, ψn = ψ(ζ) sin ζ dζ.
n=1
l l 0 l
Les séries pour ϕ(x) et ψ(x) sont absolument et uniformément convergentes. Si l’on compare ces séries avec les
formules (4.9), (4.10) et (4.8), on peut différencier en membre par t, ainsi pour que les conditions initiales soient
vérifiées, il faut poser
l
An = ϕn , Bn = ψn .
nπ
ainsi la solution de l’équation (4.1)-(4.3) sera :
∞
X nπ l nπ nπ
u(t, x) = (ϕn cos t+ ψn sin t) sin x. (4.11)
n=1
l nπ l l
∂u ∂2u
= a2 2 , où u(x, t) ∈ Q = {x, t : 0 < x < l, 0 < t < T } (4.12)
∂t ∂x
avec condition initiale
u(0, x) = ϕ, (4.13)
et condition limite
u(t, 0) = u(t, l) = 0 (4.14)
En utilisant la méthode de séparation de variables nous obtenons :
1 T 0 (t) X 00 (x)
u(t, x) = T (t)X(x), = = −λ.
a2 T (t) X(x)
65
X 00 (x) + λX(x) = 0, T 0 (t) + a2 λT (t) = 0. (4.15)
Nous obtenons une fois de plus , le problème aux valeurs propres X 00 + λX = 0 avec X(0), X(l) = 0, que avions
déjà résolu.
nπ 2 nπ
λ= , Xn (x) = sin x.
l l
Des valeurs de λn , correspondent les solutions de la deuxième équation de (4.15) :
2
Tn (t) = Cn e−a λn t
.
Ainsi nous obtenons la solution particulière de l’équation de propagation de la chaleur avec les données initiales
de la forme
2 nπ
un (t, x) = Cn e−a λn t
sin x.
l
Pour vérifier la condition initiale, établissons la série :
∞ ∞
X X 2 nπ
u(t, x) = un (t, x) = Cn e−a λn t
sin x. (4.16)
n=1 n=1
l
A partir de la condition initiale, déterminons les coefficients Cn à partir des coefficients de Fourier de la fonction
initiale ϕ(x).
Nous avons :
∞
X nπ
u(0, x) = Cn sin x,
n=1
l
c’est-à-dire Cn est le coefficient de Fourier de la fonction ϕ par la décomposition en série de Fourier en sinus.
Z l
2 nπ
Cn = ϕn = ϕ(ζ) sin ζ dζ. (4.17)
l 0 l
pour achever la résolution du problème nous devons montrer que la série en (4.16) avec Cn définie par la formule
(4.17) converge uniformément avec la dérivée seconde par rapport à x et à la dérivée première par rapport à t (
c’est pour que la série (4.16) vérifie l’équation initiale (4.12)).
Si ϕ est continue et dérivable par morceaux et vérifie la condition ϕ(0) = ϕ(l) = 0, alors la série (4.16) converge
absolument et uniformément dans Q̄ = {x, t tel que 0 ≤ x ≤ l et 0 ≤ t ≤ T } c’est-à-dire définit une fonction
continu dans Q̄.
Dans la suite, il reste à montrer que la série obtenue peut être dérivée membre à membre c’est-à-dire qu’elle
vérifie l’équation de propagation de la Chaleur. Montrons que la série (4.16) pour t ≥ t0 > 0 peut être dérivée
membre à membre par rapport à t et x plusieurs fois pour tout t0 > 0. En addition, toute les séries obtenues sont
convergentes (convergence uniforme) ainsi dans ce cas les propriétés de la solution de l’équation de propagation de la
chaleur diffèrent de celle de la corde vibrante. Ceci tout simplement parce que dans la solution en S, l’exponentielle
est présente et élevée à la puissance négative (pour t ≥ t0 > 0). C’est pourquoi la série majorante
∞
X ∞
X nπ 2
αn = Mnq exp −a2 t0
n=1 n=1
l
66
Ainsi, nous avons montré que si ϕ(x) ∈ C 1 (Q̄) où Q̄ = {x, t : 0 ≤ x ≤ l, t ≥ 0}, ϕ̄0 continue par morceau
ϕ(0) = ϕ(l) = 0, alors il existe une solution unique du problème
∂u ∂2u
= a2 2 , (x, t) ∈ Q, u(0, x) = ϕ(x), u(t, 0) = u(t, l) = 0
∂t ∂x
continu dans le domaine Q̄ et vérifiant l’équation donnée à l’intérieur de Q. Cette solution se presente sous la forme
de série
∞
nπ 2 2 nπ
Cn e−( l ) a t sin
X
u(t, x) = x. (4.18)
n=1
l
La transformée de Fourier de la fonction f (x) où x est pris dans Rn est définie par
Z
fˆ(ζ) = e−i(x,ζ) f (x) dx (4.19)
Rn
67
Chapitre 5
5.1 INTRODUCTION
Dans ce cours nous allons nous limiter au cas simple de la théorie des opérateurs. En effet, dans le cours d’analyse
fonctionnelle, on définit l’opérateur borné dans un ensemble D(A) d’un espace de Hilbert H qui fait correspondre
chaque élément u ∈ D(A) un certain élément v ∈ H tel v = Au si dans D(A) on a : A(λu1 + µu2 ) = λAu1 + µAu2
alors l’opérateur A est dit linéaire en plus, nous supposons que D(A) est un ensemble linéaire dense dans H s’il
existe une constante C telle que ||Au|| ≤ C||u|| (#) pour tout u dans A où la norme est prise dans H, alors A est
opérateur borné dans A.
Dans le cours général d’analyse fonctionnelle, nous notons que l’opérateur borné peut être défini dans tout H
avec conservation de l’inégalité (#) le plus petit C telle que (#) soit vérifié est appelé norme de A et noté ||A||.
||Au||
||A|| = sup .
u∈H, u6=0 ||u||
Definition 11. L’opérateur normé est auto adjoint si et seulement si (Au, v) = (u, Av) ∀u, v ∈ H.
Definition 12. l’opérateur A est compact s’il transforme tout ensemble borné en un compact.
Dans la théorie des équations différentielles nous avons affaire aux opérateurs non bornés c’est-à-dire pour
lesquels il n’existe pas de constances C telles que l’inégalité (#) soit vérifiée. Les opérateurs non bornés ne sont pas
généralement définis pour tous les éléments de H.
considérons comme exemple l’opérateur A défini avec l’expression différentielle
d2 ∞
A = dx 2 avec pour domaine de définition C ([0, 1])
Montrons que A est non borné.
pour cela considérons la suite
Un (x) = sin nπx.
d2
AUn = sin nπx.
dx2
68
D’autre part ;
! 12
Z l
1 sin nπ
||Un || = Un2 = −
0 2 4nπ
1
||Un || → √ , n → +∞,
2
||Au||
= (nπ)2 → ∞.
||u||
l’opérateur est non borné.
Dans la définition d’un opérateur, il faut obligatoirement donner son domaine de définition puisque l’opérateur
non borné n’est pas définit dans tout H.
Ainsi l’opérateur différentiel A peut être défini dans C 0,∞ ([0, , 1]) ou dans C ∞ ([0, , 1]), f (0) = f (1) et x ∈
F (I) ⇒ f (x) = 0 et nous obtenons deux opérateurs A et A0 comme D(A0 ) inclut dans D(A).
A est appelée extension de A0
Remark 8. Le définition de l’opérateur différentiel peut être choisie de différentes manières et à chaque fois nous
obtenons un nouvel opérateur non borné en général avec d’autres propriétés.
.
Exemple
pour l’opérateur différentiel A0 avec pour domaine de définition D(A0 ) = C 0,∞ ([0, , 1]) la relation suivante est
vérifiée : Z 1 2
0 d u
(A u, v) = 2
v dx = (u, A0 v), ∀u, v ∈ D(A0 ). (5.1)
0 dx
Alors A0 est appelée opérateur symétrique. Mais la relation (5.1) n’est pas vérifiée car
1 1 1
d2 u
Z
0 du dv
(A u, v) = v dx = (u, Av) + − u .
0 dx2 dx 0 dx 0
Dans la théorie des opérateurs non bornés on note une classe importante d’opérateurs : les opérateurs auto-
adjoints mais l’étude de leurs propriétés pour les besoins des EDP est un problème généralement compliqué. Justi-
fions cette idée.
Puisque l’opérateur non borné est défini non dans tout H alors il apparaît le problème de la fermeture de
L’opérateur. Soit A un opérateur défini dans un ensemble dense D(A) contenu dans H (dans le cas d’un opérateur
différentiel) comme ensemble dense on peut prendre les fonctions dérivables avec ou sans conditions limites et comme
H prendre L2 (Ω).
69
5.3 Définition de l’opérateur adjoint pour l’opérateur non borné.
Soit A un opérateur quelconque de domaine de définition D(A) qui est dense dans H. L’opérateur A∗ vérifiant la
relation (Au, v) = (u, A∗ v) pour tout u, v dans D(A) est appelé opérateur adjoint à A. On note que A∗ est toujours
fermé et même pour un opérateur non fermé A.
c’est-à-dire
Vtt + 2z − Vt = Vxx + 4t sin 2x + et sin x.
Les conditions initiales et limites nous donnent
π
V (0, t) = 0, Vx ( , t) = 0, V (x, 0) = 0, Vt (x, 0) = sin x.
2
Soit
d2
A= ,
dx2
π π
D(A) = {X, X ∈ C 2 ([0, ]), X(0) = 0; X( ) = 0}.
2 2
π π Z π2
d2 u d2 v
Z Z
2 2 du dv
(Au, v) = dx = − dx = u 2 dx = (u, Av).
0 dx2 0 dx dx 0 dx
donc A symétrique et par conséquent ses valeurs propres sont réelles.
Cherchons le signe des valeurs propres.
On a : √ √
Xn (n) = C1 cos −λx + C2 sin −λx,
D’où Xn (0) = 0 ⇒ C1 = 0, et
π √ π π
Xn ( ) = 0 → cos −λ = cos(2n + 1) .
2 2 2
D’où λ = −(2n + 1) et nous pouvons poser C2 = 1. Alors Xn (x) = sin(2n + 1)x, L2 = ([0, π2 ]).
En pré-multipliant scalairement par Xn l’équation en V (x, t) il vient :
Tn00 (t)||Xn ||2 + 2(x, Xn ) − 2Tn0 (t)||Xn ||2 = Tn (t)λ||Xn ||2 + 4t(sin 2x, Xn ) + et (sin x, Xn )
70
(x, Xn ) (sin 2x, Xn )
⇒ Tn00 (t) + 2 − 2Tn0 (t) = λTn (t) + 4t + et δ0n .
||Xn ||2 ||Xn ||2
Or Tn (0) = 0, Tn0 (0) = δ0n . Pour n = 0, on a :
71
Chapitre 6
TRANSFORMATION DE LAPLACE
6.1 Introduction
A l’heure actuelle , le calcul opérationnel ou symbolique est l’un des domaines important de l’analyse mathéma-
tique. En physique, en mécanique, en électrotechnique et bien d’autres domaines de la science, on utilise d’autres
méthodes du calcul opérationnel pour la résolution de différents problèmes .
Le calcul opérationnel a trouver une application particulièrement large dans la technologie de l’automation et
des télécommunications.
Dans ce chapitre, nous allons exposer les notions fondamentales du calcul opérationnel, ainsi que les méthodes
de son application à la résolution des équations différentielles ordinaires.
Montrons que la fonction f (t) vérifie la condition (6.1) et a > s0 , alors les intégrales du second membre de
l’égalité en (6.3) existent et la convergence de ces intégrales est absolue. Estimons d’abord la première termes de
ces intégrales :
72
Z ∞ Z ∞ Z ∞
| e−at f (t) cos bt dt| ≤ |e−at f (t) cos bt dt| < M e−at es0 t dt
0 0 0
Z ∞
= M e−(a+s0 )t dt
0
M
=
a − s0
On estime de même la seconde intégrale. Ainsi existe, elle définit une certaine fonction de p que nous allons
désigner par F (p) : Z ∞
F (p) e−pt f (t) dt (6.4)
0
La fonction F (p) est appelée transformation de Laplace ou l’image de f (t). La fonction f (t) est appelée Original
ou fonction objet de F (t). Le fait que F (p) soit l’image de f (t) est notée de la manière suivante :
73
II- Soit f (x) = sin t, on a
∞ ∞
(−p sin t − cos t)
Z
−pt −pt 1
L{sin t} = e sin t dt = e = 1 + p2 .
0 p2 + 1 0
Ainsi,
1
sin t ←− . (6.9)
p2 +1
III-f (t) = cos t ∞
∞
(sin t − p cos t)
Z
−pt −pt p
L{cos t} = e cos t dt = e 2
= .
0 p +1
0 1 + p2
Ainsi,
p
cos t ←− . (6.10)
p2 +1
Effectuons un changement de variables dans la seconde intégrale en posant z = at ; par conséquent dz = adt.
Nous avons alors
1 ∞ −pz
Z
L{f (at)} = e a f (z) dz,
a 0
ou
1 p
L{f (at)} = F ( )
a a
Ainsi si F (p) −→ f (t),
(6.11)
alors a1 F ( ap ) −→ f (at).
Exemple 1 : Nous obtenons immédiatement de la formule (6.9), en vertu de (6.11) :
1 1 a
sin at ←− ou sin at ←− . (6.12)
a ( p 2) + 1 p2 + a2
a
alors
n
X
F (p) = ci Fi (p) (6.14)0
i=1
74
Exemple 1 : Trouver l’image de la fonction f (t) = 3 sin 4t − 2 cos 5t.
Solution En vertu des formules (6.12), (6.13) et (6.14)’ nous obtenons
4 p 12 2p
L{f (t)} = 3 −2 2 = 2 − 2
p2 +1 6 p +2 5 p +1 6 p +1 6
Exemple 2 : Trouver l’original dont l’image est donnée par l’expression
5 20p
F (p) = + 2 .
p2 +4 p +9
6.7 Image de fonctions e−αt , sinh αt ; cosh αt, e−αt sin at et e−αt cos at
Il découle de la formule (6.8) en vertu de la formule (6.15) que
1
−→ e−αt (6.16)
p+α
1
−→ eαt (6.16)0
p−α
Retranchant (6.16) de (6.16)’, il vient :
1 1 1 1
− −→ (e−αt − eαt )
2 p+α p−α 2
ou
α
−→ sinh αt. (6.17)
p2 − α2
75
En faisant la somme de (6.16) et (6.16)’, on obtient
p
−→ cosh αt. (6.18)
p2 − α2
Solution : Transformons F (P ) de façon à lui donner la formule de l’expression du premier membre de la relation
(6.19) :
7 7 7 4
2
= 2
=
p + 10p + 41 (p + 5) + 16 4 (p + 5)2 + 42
7 4
=⇒ F (p) =
4 (p + 5)2 + 42
Par conséquent, en vertu du de la formule (6.19),nous aurons
7 −5t
F (p) −→ e sin 4t.
4
Exemple 2 : trouver l’original si l’image est donnée par la formule :
p+3
F (p) =
p2 + 2p + 10
p+3 (p + 1) + 2 (p + 1) 2 (p + 1) 2 3
= = + = + .
p2 + 2p + 10 (p + 1)2 + 9 (p + 1)2 + 9 (p + 1)2 + 9 (p + 1)2 + 32 3 (p + 1)2 + 32
76
Exemple 1 : Utilisation de la formule (6.22) pour trouver l’image de la fonction puissance.
Écrivons la formule (6.8) : p1 −→ 1
nous obtenons de cette formule en vertu de la formule (6.21)
d 1 1
(−1) ( ) −→ t ou 2 −→ t
dp p p
−a2 − p2
−→ t cos at. (6.25)
(p2 + a2 )2
Exemple 4 : Nous obtenons de la formule (6.16) en vertu de la formule (6.21) :
1
−→ te−αt (6.26)
(p2 + α 2 )2
Nous supposons ici que toutes les dérivées f 0 , f 00 , f 000 , ..., f (n) que nous rencontrerons satisfont à la condition
(6.1) et par conséquent que l’intégrale en (6.28) et les intégrales analogues pour les dérivées successives existent.
Effectivement l’intégration par partie de l’intégrale du second membre de (6.28) nous donne :
Z ∞ Z ∞
∞
L{f 0 (t)} = e−pt f 0 (t) dt = e−pt f (t)0 + p = e−pt f (t) dt
0 0
R∞ −pt
Or d’après l’équation (6.1),on a : lim = 0 et 0
e (t) dt = F (p), c’est pourquoi :
t→∞
77
En ouvrant les parenthèses,
p2 F (p) − pf (0) − f 0 (0) −→ f 00 (t). (6.29)
l’image de la dérivée d’ordre n sera :
pn F (p) − [pn−1 f (0) + pn−2 f 0 (0) + ... + pf (n−2) (0) + f (n−1) (0)] −→ f (n) (t). (6.30)
Remark 9. Les formules (6.27), (6.29) et (6.30) se simplifient si f (0) = f 0 (0) = f 00 (0) = ... = f (n−1) (0) = 0.
Dans ce cas de figure,
F (p) −→ f (t)
pF (p) −→ f 0 (t)
n
p F (p) −→ f (n) (t)
78
6.11 Equation auxiliaire d’une équation différentielle donnée
Soit donnée une équation différentielle linéaire de n−ième ordre à coefficients constants a0 , a1 , ..., an :
dn x dn−1 x dx
a0 + a1 + ... + an−1 + an x(t) = f (t). (6.31)
dtn dtn−1 dt
On demande de trouver la solution x = x(t) pour t positif vérifiant les conditions
(n−1)
x(0) = x0 , x0 (0) = x00 , ... x(n−1) (0) = x0 . (6.32)
Pour le résoudre, nous cherchons d’abord la solution générale de l’équation (6.31) contenant n constantes arbi-
traires, ensuite nous déterminerons ces constantes de manière que les conditions en (6.32) soient vérifiées. Dans ce
cours, nous allons exposer une méthode plus simple de résolution de ce problème : La méthode de calcul opérationnel
encore appelée transformée ou transformation de LAPLACE. En effet, nous cherchons l’image L de la solution x(t)
de l’équation (6.21) vérifiant les conditions initiales en (6.32). Désignons cette image L par x̄(p) ; ainsi nous aurons
x̄(p) −→ x(t).
Supposons que l’image de la solution de l’équation (6.31) ainsi que ses dérivées jusqu’à l’ordre n inclue existent
(une fois la solution trouvée, nous pouvons vérifier la validité de cette supposition). Multiplions les deux membres
de l’égalité (6.31) par e−pt où p = a + ib et intégrons par rapport à t entre 0 et +∞.
Z ∞ Z ∞ Z ∞ Z ∞
dn x dn−1 x
a0 e−pt n dt + a1 e−pt n−1 dt + ... + an e−pt x(t) dt = e−pt f (t) dt. (6.33)
0 dt 0 dt 0 0
dans le premier membre de l’égalité, nous avons l’image L de f (t) que nous désignons par F (p). Par conséquent,
l’égalité (6.33) peut être mise sous la forme :
n n−1
d x d x
a0 L n
+ a1 L n−1
+ ... + an L {x(t)} = L{f (t)}.
dt dt
Remplaçant dans cette égalité les images de la fonction et des ses dérivées par les expressions (6.27), (6.29) et
(6.30), nous obtenons :
(n−1) (n−2)
a0 {pn x̄(p) − [pn−1 x0 + pn−2 x00 + pn−3 x000 + ... + x0
]} + a1 {pn−1 x̄(p) − [pn−2 x0 + pn−3 x00 + ... + x0 ]} + ...
+an−1 {px̄(p) − x0 } + an x̄(p) = F (p)
(6.34)
L’équation (34) est appelée équation auxiliaire ou équation image . Dans cette équation, l’inconnue est l’image x̄(p)
que nous déterminerons à partir de cette équation. Transformons cette équation en laissant dans le premier membre
les termes contenant x̄(p). On a :
(n−1) (n−2)
x̄(p)[a0 pn + a1 p + ... + an−1 p + an ] − a0 [pn−1 x0 + pn−2 x00 + ... + x0 ] + a1 [pn−2 x0 + pn−3 x00 + ... + x0 ] +
... + an−2 [px0 + x00 ] + an−1 x0 = F (p).
(6.34)0
Le coefficient de x̄(p) dans le premier membre de (6.34)’ est un polynôme en p que l’on peut obtenir si dans
l’équation (6.31), on remplace les dérivées par les puissances correspondantes de P . désignons le par ϕn (p) :
79
(n−2)
- Le coefficient a1 est multiplié par pn−2 x0 + pn−3 x00 + ... + x0
(n−1)
- Le coefficient a0 est multiplié par pn−1 x0 + pn−2 x00 + ... + x0
On fait la somme de tous les ces produits e ton ajoute F (p) . Tous les termes du second membre de (6.34)0 excepté
F (p) constituent après regroupement de termes semblables un polynôme en p de dégré n − 1 dont les coefficients
sont connus . Désignons le par ψn−1 (p). Par conséquent l’équation (6.34)’ peut s’écrire :
Il s’ensuit que x̄(p) ainsi déterminé est l’image de la fonction x(t) de (6.31) vérifiant les conditions initiales en (6.32).
Si maintenant nous trouvons une autre fonction x∗ (t) dont l’image est la fonction x̄(p) définie par l’égalité (6.36),
il découlera alors du théorème de l’unicité de la solution que x∗ (t) est la solution de l’équation (6.31) vérifiant les
conditions en (6.32), autrement dit
x∗ (t) = x(t)
. Si nous voulons trouver la solution de l’équation (6.31) pour les conditions initiales triviales (x0 = x00 = x000 = ... =
xn−1
0 = 0 , alors dans l’égalité (6.36), nous aurons ψn−1 = 0 et elle sera de la forme :
F (p)
x̄(p)
ϕn (p)
F (p)
ou x̄(p) = . (36)0
a0 pn + a1 pn−1 + ... + an
Exemple 1 : Trouver la solution de l’équation différentielle :
dx
+x=1
dt
vérifiant les conditions initiales : x = 0, pour t = 0.
Solution :
1 1
x̄(p)(p + 1) = 0 + ou x̄(p)
p (p + 1)p
Décomposons la fraction du second membre en éléments simples. Nous obtenons
1 1
x̄(p) = − .
p p+1
Utilisant les formules 1 et 4 du tableau, nous trouvons la solution :
x(t) = 1 − e−t
d2 x
+ 9x = 1
dt2
vérifiant les conditions initiales : x0 = x00 = 0, pour t = 0.
Solution : Écrivons l’équation auxiliaire (6.34’)
1 1
x̄(p)(p2 + 9) = ou x̄(p) = .
p p(p2 + 9)
80
Décomposant la fraction du second membre en éléments simples nous pouvons écrire :
− 91 p 1
9
x̄(p) = + .
p2 + 9 p
En vertu des formules9, 1 et 3 du tableau nous trouvons la solution
1 1
x(t) = − cos 3t + .
9 9
Exemple 3 : Trouver la solution de l’équation différentielle :
d2 x dx
+3 + 2x = t,
dt2 dt
vérifiant les conditions initiales : x0 = x00 = 0 pour t = 0.
Solution : Écrivons l’équation auxiliaire (6.34’)
1
x̄(p)(p2 + 3p + 2) =
p2
1 1
⇒ x̄(p) = = 2
p2 (p2
+ 3p + 2) p (p + 1)(p + 2)
Décomposant cette fraction en éléments simples par la méthode des coefficients indéterminés, nous obtenons :
1 1 31 1 1
x̄(p) = 2
− + − .
2p 4 p p + 1 4(p + 2)
D’après les formules 9, 1 et 4 du tableau nous trouvons la solution :
1 3 1
t − + e−t − e−2t .
x(t) =
2 4 4
Exemple 4 : Trouver la solution de l’équation différentielle :
d2 x dx
2
+2 + 5x = sin t
dt dt
vérifiant les conditions initiales : x0 = 1, x00 = 2 pour t = 0.
Solution : Écrivons l’équation auxiliaire (6.34’)
x̄(p)(p2 + 2p + 5) = p ∗ 1 + 2 + 2 ∗ 1 + L{sin t},
1
où x̄(p)(p2 + 2p + 5) = p + 4 +
p2 + 1
D’où nous trouvons :
p+4 1
x̄(p) = + .
p2 + 2p + 5 (p2 + 1)(p2 + 2p + 5)
Décomposant la fraction du second membre en éléments simples nous pouvons écrire :
11 1
10 p
+4 − 10 p + 15
x̄(p) = + ,
p2 + 2p + 5 p2 + 1
11 p+1 29 2 1 p 1 1
x̄(p) = 2 2
+ 2 2
− +
10 (p + 1) + 2 10 ∗ 2 (p + 1) + 2 10 p + 1 5 p2 + 1
2
81
6.12 Théorème de décomposition
Il découle de la formule (6.36) du point des équations auxiliaires d’une équation différentielle donnée que l’image
de la solution d’une équation différentielle linéaire se compose de deux termes : le premier est une fraction rationnelle
régulière de p, le second une fraction dont le numérateur est l’image du second membre F (p) de l’équation et le
dénominateur de polynôme ϕn (p). Si F (p) est une fraction rationnelle. Il faut ainsi savoir trouver l’original dont
l’image est une fraction rationnelle régulière. Nous aborderons cette question dans le présent paragraphe. Supposons
que l’image L d’une certaine fonction est une fraction rationnelle régulière de p :
ψn−1 (p)
.
ψn (p)
On demande de trouver l’original. Dans votre cours d’analyse où d’algèbre de première année que chaque fraction
rationnelle régulière peut être représentée sous forme de somme d’éléments simple de 4 types :
A
1 p−a ,
A
2 (p−a)k ,
Ap+B a2
3 p2 +a1 p+a2 où les racines du dénominateur sont complexes c’est-à-dire : 4 − a2 < 0,
Ap+B
4 (p2 +a1 p+a2 )k
où k ≥ 2, les racines du dénominateur sont complexes.
Trouvons l’original pour chacune des quatre fractions simples. Pour les fractions du type 1 nous obtenons en vertu
de la formule 4 du tableau
A
−→ Aeat .
p−a
Pour la fraction du type 2 en vertu des formules 9 et 4 du tableau, nous trouvons :
A 1
k
−→ A tk−1 eat . (6.37)
(p − a) (k − 1)!
Désignant ici le premier et le second terme respectivement par M et N , nous obtenons en vertu des formules 8
et 7 du tableau :
q
a1 a2
M −→ Ae− 2 t cos t a2 − 41
q
a1 a2
N −→ B − A a21 q 1 2 e− 2 t sin t a2 − 41
a
a1 − 1
4
Ainsi en définitive :
r r
Ap + B a
− 21 t a21 B− A a21 a21
−→ e A cos t a2 − +q sin t a2 − . (6.38)
p2 + a1 p + a2 4 a21 4
a1 − 4
Nous ne donnerons pas ici le cas des éléments simple du type 4 pour ne pas nous lancer dans des calculs trop
fastidieux. Pour quelques cas particuliers, cette question sera analysée plus bas.
82
6.13 Exemples de résolution des équations différentielles et des sys-
tèmes d’équations différentielles par la méthode du calcul opéra-
tionnel.
Exemple 1 : Trouver la solution de l’équation
d2 x
+ 4x = sin 3x, avec x(0) = 0, x0 (0) = 0.
dt2
Solution : Composons l’équation auxiliaire (6.34’)
3 3
x̄(p)(p2 + 4) = , x̄(p) = 2
p2 + 9 (p + 4)(p2 + 9)
− 35 3
5 1 3 3 2
ou x̄(p) = +
+ +
=− 2 + 2
.
p 9 p 4 5 p + 9 10 p + 4
D’où nous tirons la solution :
3 1
x(t) = sin 2t − sin 3t.
10 5
Exemple 2 : Trouver la solution de l’équation
d3 x
+ x = 0, x(0) = 1, x0 (0) = 3, x00 (0) = 8.
dt3
Solution : Écrivons l’équation auxiliaire (6.34’)
x̄(p)(p3 + 1) = p2 ∗ 1 + p ∗ 3 + 8,
p2 + 3p + 8 p2 + 3p + 8 2 −p + 6
x̄(p) = = =
p3 + 1 (p + 1)(p2 − p + 1) p + 1 p2 − p + 1
q
1 3
1 p − 2 11 4
=2 − q 2 + √ q 2
p+1 2 3 2
p − 12 + 3
p − 12 + 3
4 4
83
Il est évident que la méthode du calcul opérationnel permet aussi de résoudre les systèmes d’équations différentielles
linéaires. Montrons-le sur un exemple.
Exemple 2 :
3 dt + 2x + dy
dx
dt = 1
dx dy
dt + 4 dt + 3y = 0, x(0) = 0, y(0) = 0.
Solution :
x(t) ←− x̄(p), y(t) ←− ȳ(p).
Écrivons le système d’équation auxiliaire
1
(3p + 2)x̄(p) + pȳ(p) = p
px̄(p) + (4p + 3)ȳ(p) = 0.
Après résolution :
4p+3 1 1 33
x̄(p) = p(p+1)(11p+6) = 2p − 5(p+1) − 10(11p+6)
1
ȳ(p) = − (11p+6)(p+1) = 15 1 11
p+1 − 11p+6
D’après les images nous trouvons chaque fois l’original c’est-à-dire les solutions cherchées du système :
1 1 −t 3 − 116
t
x(t) = 2 − 5e − 10
6
e ,
1 −t − 11 t
y(t) = 5 (e −e ).
En posant t = pτ , on obtient :
Z ∞
Γ(k + 1) Γ(k + 1)
= e−pτ τ k dτ ⇒ L(tk ) = . (∗)
pk+1 0 pk+1
n!
En particulier, pour k ∈ N, L(tk ) = pk+1
, (n = 0, 1, 2, ..., ). Si nous dérivons par rapport au paramètre de (∗),
Γ(k + 1)
L(tk ln t) = [ψ(k + 1) − ln p], <{k} > −1,
pk+1
où ψ est la dérivée logarithmique de la fonction Γ. Si l’on pose k = 0, il vient : Lln t = − p1 (c + ln p), où c = −ψ(1) =
limn→∞ 1 + 21 + ... + n1 − ln n = 0.577215. elle est appelée constante d’Euler.
84
k √
Cherchons l’image de la fonction t 2 Jk (2 t), où k est un nombre complexe, < > −1 et Jk (t) la fonction de Bessel
d’ordre k. k X ∞ 2
t (−1)n 1 t
Jk (t) = n
2 n=0
n! Γ(n + k + 1) 2
√
En posant t = 2 z, on a :
∞
√ k
X (−1)n zn
Jk (2 z) = z 2 .
n=0
n! Γ(n + k + 1)
Ainsi :
∞ ∞
( )
k √ X (−1)n tn+k X (−1)n 1 1 1
L{t Jk (2 z)} = L
2 = n+k+1
= k+1 e− p , <{k} > −1. (#)
n=0
n! Γ(n + k + 1) n=0
n! p p
D’où n
1 1
L{ln(t)} = 1− , (n = 0, 1, 2, ...).
p p
85
Introduisons l’intégrale √
Z ∞ k
(λt) 2 Jk (2 λt)
I(λ) = 2k−n+2 dt.
0 t 2
Les théorèmes relatifs à la transformation de Mellin se déduisent des théorèmes correspondants des transformations
de Fourier et de Laplace moyennant un changement de variables. Nous en citerons :
Theorem 11. Supposons que τ σ−1 f (τ ) ∈ L]0, ∞[ où f (τ ) est à variation bornée au voisinage du point τ = t.
Alors : Z σ+iλ
f (t + 0) + f (t − 0) 1
= lim F (s)t−s ds.
2 2πi λ→∞ σ−iλ
où F (s) est la transformée de Mellin
Theorem 12. Supposons que F (σ + iλ) ∈ L] − ∞, +∞[ et qu’elle est à variation bornée au voisinage du point
u = t. Alors Z λ
1
[F (σ + i(t + 0)) + F (σ + i(t − 0))] = lim f (t)tσ+it−1 dt,
2 λ→∞ 1
λ
où Z σ+i∞
1
f (t) = F (s)t−s ds.
2πi σ−i∞
86
supposons que F (s) et G(s) des transformations de Mellin des fonctions f (t) et g(t). Il vient :
1
R h+i∞ 1
R h+i∞ R∞
2πi h−i∞
F (s)G(1 − s) ds = 2πi h−i∞
G(1 − s) ds 0 f (t)ts−1 dt
1
R∞ R h+i∞
= R2πi 0
f (t) dt h−i∞ G(1 − s)ts−1 ds
∞
= 0 f (t)g(t) dt. (A)
De façon analogue,
Z h+i∞ Z ∞ Z k+i∞ Z ∞
1 1 s−1 1 dt
F (s)G(1 − s) ds = g(t) dt t ds = g(t)f .
2πi h−i∞ 2πi 0 k−i∞ 0 t t
Theorem 13. Supposons que tk−1 f (t) ∈ L]0, ∞[ et G(1 − k − ix) ∈ L] − ∞, +∞[, ou que F (k + i) ∈ L] − ∞, +∞[
et tk g(t) ∈ L] − ∞, +∞[. La formule (A) est alors valable.
L’analogue du théorème de convolution est :
R∞
Theorem 14. Supposons que tk et tk g(t) appartiennent à l’ensemble L]0, ∞[ et soit h(t) = 0
f (τ )f ( τt ) dτ
τ . Alors
la fonction tk h(t)L]0, ∞[ et sa transformée de Mellin est la fonction F (s)G(s).
Transformation de Hankel
On appelle transformation de Hankel l’intégrale :
Z ∞
fν∗ (u) = Hν [f (t)] = f (t)tJν (ut) dt, 0 < u < ∞,
0
et l’inversion est : Z ∞
f (t) = Hν−1 [fν∗ (u)] = fν∗ (u)Jν (ut)u du, 0 < t < ∞.
0
Transformation de Meijer
La transformation intégrale de Meijer joue un rôle important dans la résolution des équations différentielles de
type Bessel.
Elle est donnée par la formule : r Z ∞
2 1
f˜(s) = Kν (st)(st) 2 f (t) dt
π 0
où Kν (t) est la fonction de Mac Donald. La formule de l’inverse s’écrit :
1 1
f (t) = √ lim Iν (ts)(ts) 2 f˜(s) ds
i 2π λ→∞
87
6.16.2 Transformation de Kontorovitch-Lebedev
Les transformations intégrales dans lesquelles l’intégration s’effectue sur l’ordre des fonctions de Bessel jouent
un rôle très important dans la résolution de certains problèmes de physiques mathématiques. Cette forme de
transformation intégrales a été étudiée pour la première fois par KONTOROVITCH et LEBIDIEV.
Dans la transformation de Kontorovitch-Lebedev, le développement de type intégrale de Fourier :
Z ∞ Z ∞
2
xf (x) = 2 Kiτ (x)τ sinh(πτ ) dτ Kiτ f (ζ) dζ,
π 0 0
où Ku (x) est une fonction de Mac Donald, x > 0, f (x) une fonction arbitraire continue avec sa dérivée et telle que
x2 f (x), xf (x) ∈ L]0, ∞[ joue un rôle fondamentale. L’intégrale
Z ∞
F (τ ) = f (x)Kiτ (x) dx
0
88
Chapitre 7
MESURES ET INTÉGRATIONS
7.1 Introduction
La notion de mesure d’un ensemble A est naturellement la généralisation des notions telles que :
1 la longueur d’un segment,
2 la surface S(F ) d’une figure plane F ,
3 le volume V (G) d’une figure spatiale G,
4 la variation d’une fonction croissante définie dans un segment fini,
5 l’intégrale d’une fonction prise à partir d’un domaine linéaire, superficielle ou spatial...etc.
Cette notion est apparue en théorie de fonction à variables réelles et de là, elle s’est étendue en probabilité, des
systèmes dynamiques et d’autres parties des mathématiques.
où a, b, c et d sont nombres arbitraires. L’ensemble appartenant à ce système sera appelé rectangle. Le rectangle
fermé sera défini par
a ≤ x ≤ b, c ≤ x ≤ d
Les autres rectangles seront sans frontières ou sans bornes . La classe de tous les rectangles sera note par σ. Pour
chaque rectangle, on peut définir sa mesure en utilisant les notions élémentaires de géométrie.
1 . La mesure de l’ensemble vide est égale zéro.
2 . La mesure de l’ensemble non vide (fermé, ouvert ou sémi-ouvert) est égale à la surface de ces rectangles :
(b − a)(d − c).
Ainsi chaque rectangle se définit par un nombre m(P )-sa mesure. En plus ou en addition, les conditions suivantes
sont vérifiées :
1 . m(P ) ≥ 0, Sn T Pn
2 . m(P ) est additive, c’est-à-di P = i=1 Pi et Pi P j = ∅, alors m(P ) = k=1 m(Pk )
89
Theorem 15. : La réunion, l’intersection, la différence, et la différence symétrique de deux ensembles élémentaires
est un ensemble élémentaire.
Theorem 16. SnSi A est un ensemble
Pélémentaire, et An un système fini ou dénombrable d’ensemble élémentaires
tels que A ⊂ i=1 Ai alors m(A) ≤ n m0 (A).
Definition 13. Un ensemble élémentaire est un ensemble que l’on peut représenter comme une réunion finie de
rectangles deux-à-deux disjoins.
Definition 14. La mesure extérieure de A est appelée le nombre µ∗ (A) = inf m(Pk ), A ⊂ Pk , où inf est pris
P S
pour tout recouvrement fini ou infini de A. On note que µ∗ (A) = m0 (A) si A est élémentaire.
Definition 15. L’ensemble A est appelé mesurable (au sens de LEBESGUE) si ∀ < 0, ∃B, µ∗ (A∆B) < . La
fonction µ∗ considérée seulement sur les ensembles mesurables et appelée MESURE DE LEBESGUE, nous allons
la noter plus simplement par µ.
Definition 16. Un ensemble A est dit mesurable, si ∀ > 0, ∃ un ouvert Θ/A ⊂ Θ et µ(Θ\A) ≤ .
L’ensemble MA des ensembles mesurables et la fonction µ nous noterons que :
1 . la collection MA des ensembles mesurables est close relativement l’opération prendre une somme finie ou
dénombrable c’est-à-dire σ -algèbre.
2 . La fonction µ est σ-additive sur MA .
Theorem 17. Si A ⊂ n An où An sont finis et dénombrables, alors µ∗ (A) ≤
S P ∗
µ (An ). En particulier : si
A ⊂ B =⇒ µ∗ (A) ≤ µ∗ (B).
Theorem 18. Le complémentaire d’ensembles mesurables est un ensemble mesurable
90
Chapitre 8
∀A ∈ KAP P A, ∀B ∈ K =⇒ AδB ∈ K, A ∩ B ∈ K
Definition 18. Semi-anneau Un système d’ensemble Θ est appelé semi-anneau, s’il contient l’ensemble vide et
est clos relativement à l’intersection et possède la propriété suivante : De l’appartenance Θ des ensembles A et A1
/A1 ⊂ A entraine la possibilié de représenter A = ∪nk=1 Ak où Ai ∩i6=j Aj = ∅ et A1 sera le premier.
Exercice d’application :
Montrer que [a, b] est un semi-anneau qui n’est pas un anneau.
8.2 Définition
La fonction de l’ensemble µ(A) est appelé mesure si :
1 L’ensemble Θ qui est l’ensemble de définition de la fonction µ(A) est un semi-anneau d’ensemble.
2 µ(A) ≥ 0. Pn
3 µ(A) est additive car ∀A = ∪nk=1 Ak alors µ(A) = k=1 µ(Ak ) avec A ∈ Θk .
Remark 13.
∅ = ∅ ∪ ∅ ⇒ µ(∅) = µ(∅) + µ(∅),
µ(∅) = 2µ(∅) ⇔ µ(∅) = 0(caractéristique 6= 2).
Definition 19. : La mesure µ est appelée prolongement de m si :
91
1 Θm ⊂ Θµ ,
2 ∀A ∈ Θm ⇒ µ(A) = m(A).
Definition 20. La mesure m est appeléee σ-additive si pour tout A, A1 , A2 , ..., An , ... ∈ Θm et vérifient :
A = ∪nk=1 Ak Ai ∩i6=j Aj = ∅,
∞
X
m(A) = m(An ).
m=1
Exemple 7. Exemple de mesure additive mais qui n’est pas σ-additive. X = ensemble de tous les rationnels
du segment [0, 1] et Θm est constitué des intersections de X avec des intervalles arbitraires ]a, b[ du segment [a, b]
et des semi-intervalles [a, b[, ]a, b]. Il est clair que Θm est un semi-anneau.
∀Aab ∈ Θm , m(Aab ) = b − a
Cette mesure est additive mais n’est pas σ-additive puisque m(X) = 1, X est une somme dénombrable de nombre
dont la mesure est nulle. Dans la suite de notre cours, nous allons toujours supposer que les mesures sont σ-additives.
Comme au chapitre précédent, nous allons définir le prolongement de la mesure au sens de LEBESGUE.
Definition 21. La mesure extérieure de l’ensemble A ∈ E est appelée le nombre µ∗ (A) = inf m m(Bn ) où la
P
borne inf est prise pour tout recouvrement d’ensemble de A fini ou dénombrable du système Bn ∈ Θm .
Theorem 20. Si A ⊂ ∪An où les {An } est un système fini ou dénombrable d’ensemble, alors µ∗ ≤ n µ∗ (An )
P
De même la fonction µ∗ considérée seulement sur les ensembles mesurables est appelée mesure de LEBESGUE ou
mesure tout simplement et notée µ. Il est clair que tous les ensembles de θm et K(Θm ) sont mesurables et de plus
si A ∈ Θ ⇒ µ(A) = m(A).
Theorem 21. Le système M de tous les ensembles mesurables est un anneau.
Preuve : Nous avons :
A1 ∪ A2 = A1 \(A1 \A2 ),
A1 ∪ A2 = E\((E\A1 ) ∩ (E\A2 ))
92
µ∗ (A1 ∆B1 ) < , µ∗ (A2 ∆B2 ) < .
2 2
Posons B = B1 \B2 ∈ K(Θm ) et en utilisant la relation (A1 \A2 )∆(B1 \B2 ) ⊂ (A1 ∆B1 ) ∪ (A2 ∆B2 )
du fait que soit arbitraire, d’où A1 \A2 est mesurable. Par conséquent M est un anneau.
Theorem 22. Dans le système M d’ensemble mesurables, la fonction µ(A) est additive.
Theorem 23. dans le système d’ensembles mesurables, la fonction µ(A) est σ-additive.
Theorem 24. Le système M d’ensembles mesurables au sens de LEBESGUE est σ-additive.
93
Chapitre 9
FONCTIONS MESURABLES
Exemple 8. Si pour X et Y , nous prenons la droite de nombres réels et pour ΘX et ΘY nous prenons le système
de tous les ensembles ouverts de R alors la définition que nous venons de donner se traduit comme la définition de
continuité. Si par contre, on prend ΘX et ΘY comme des ensembles Boréliens, alors nous obtiendrons la notion de
fonction B-mesurable (mesure au sens de Borel).
Definition 23. D’ensemble Borélien : Un ensemble est dit Borélien quand il appartient au σ-algèbre et est
généré par tous les ensembles ouverts et fermés de R.
Definition 24. Soit X un ensemble dans le quel est défini une σ-mesure additive µ définie dans une σ-algèbre Θm .
La fonction réelle f (x) définie dans X est appelée µ-mesurable si ∀A (ensemble Borélien) on a f −1 (A) appartient
à Θµ . De même la fonction complexe φ(x) définie dans X est appelée µ-mesurable si φ−1 (A) ∈ Θµ pour tout sous-
ensemble Borélien définie dans le plan complexe. Toute fonction numérique définie dans R est Borel ou B-mesurable
si l’image inverse de chaque ensemble Borélien est un ensemble Borélien.
Theorem 25. Considérons X, Y et Z des ensembles et supposons que ΘX , ΘY et ΘZ soient les systèmes des sous
ensembles. Supposons que sur X est définie la fonction y = F (x) qui soit (ΘX , ΘY )-mesurable et que sur Y est
définie la fonction z = g(y) qui soit aussi (ΘY , ΘZ )-mesurable alors z = φ(x) = g[f (x)] est (ΘX , Θz )-mesurable.
Preuve : exercice
Theorem 26. (critère) : Pour qu’une fonction réelle f (x) soit mesurable, il est nécéssaire et suffisant que pour
x
tout réel c, { f (x) < c} soit mesurable.
Preuve :
⇒ La condition nécéssaire est claire puisque toute démi-droite ]−∞, c[ est un ensemble Borélien, donc mesurable.
⇒ Pour démontrer la suffisance, nous devons d’abord noter que la σ-algèbre engendrée par le système Σ de
toutes les démi-droites ] − ∞, c[ coïncide avec la σ-algèbre des ensembles Boréliens de la droite. Ainsi il s’en
suit que l’image réciproque des démi-droites appartenant à Σ c’est-à-dire mesurables.
Ce théorème démontré est souvent pris comme définition de la mesurabilité c’est-à-dire une fonction f (x) est
x
mesurable si tous les ensembles de la forme sont mesurables, { f (x) < c} ou d’une manière où nous pouvons définir
une fonction f (x) définie avec l’ensemble E est dite mesurable ou mesurable sur E si pour tout a fini ou infini
x x x x
{ f (x) ≥ a} ou { f (x) < a} ou { f (x) ≤ a} ou { f (x) = a} sont mesurables.
94
Theorem 27. Le produit d’un nombre fini ou dénombrable d’ensemble mesurables est mesurable.
Theorem 28. La différence d’ensemble mesurables est un ensemble mesurable.
95
9.3 Complément sur les espaces Vectoriels
9.3.1 Fonctionnelle linaire
La fonction réelle f définie dans un espace vectoriel L sera appelée fonctionnelle. Une fonctionnelle est dite
additive si :
∀x, y ∈ L, f (x + y) = f (x) + f (y)
et homogène :
∀x ∈ L, ∀α ∈ R, f (αx) = αf (x).
Exemple 10. : Soit Rn un espace vectoriel de dimension n, x = (xi )i=1,...,n ; a = (ai )i=1,...,n ;
X
f (x) = ai xi .
i=1
X
Dans Cn , f (x) = ai x̄i ,
i=1
Z b Z b
C([a, b] I(x)) = ¯
x(t) dt, I(x) = x̄(t) dt
a a
Definition 28. Soit L un espace vectoriel réel, x, y deux points de L . On appelle segment de L ,reliant les points
x et y, la collection des points qui sont tels que αx + βy où α, β, α + β = 1. Un segment sans borne sera appelé
segment ouvert. Un ensemble M C l est convexe s’il contient chaque deux points x et y et le segment de droite reliant
ces deux points . Nous l’appellerons NOYAU J(E) de tout ensemble E C l . La collection des points qui sont tels
que :
∀y ∈ L, ∃ = (y) > 0 ∀ tx + ty ∈ E.
Fonctionnelle convexe homogène. La notion d’ensemble convexe est liée à la notion de fonction convexe
homogène . Soit L un espace vectoriel réel, une fonctionnelle p est dite convexe si pour tout x, y dans L, on a :
p(αx + (1 − α)y) ≤ αp(x) + (1 − α)p(y), 0 < α < 1. La fonctionnelle p est dite homogène positive si
Pour les fonctionnelles convexes homogènes positives, l’intégralité suivante est vérifiée :
96
Preuve.
x+y x y
p(x + y) = p(2( )) = 2p( + )
2 2 2
1 1
p(x + y) = 2p( x + (1 − )y)
2 2
1 1
p(x + y) ≤ 2[ p(x) + p(y)]
2 2
p(x + y) ≤ p(x) + p(y)
Soit L un espace vectoriel réel et L0 un sous-espace vectoriel de L. Supposons que sur L0 soit définie une fonction-
nelle linéaire f0 si f (x) = f0 (x) pour x de L0 .Le problème du prolongement d’une fonctionnelle est très souvent
rencontré en analyse, et le théorème suivant résume ce fait.
Theorem 35. de Hahn-Banach Soit p une fonctionnelle convexe homogène définie dans un espace vectoriel réel
L et L0 un sous-espace vectoriel de L . Si f est une fonctionnelle linéaire dans L0 subordonnée à la fonctionnelle
p(x) c’est-à-dire si dans L0 , f0 (x) ≤ p(x) alors f0 peut être prolongée jusqu’à la fonctionnelle f dans L qui elle est
subordonnée par p(x) dans tout L .
Theorem 36. de RIESZ -FISCHER Soit R un espace vectoriel euclidien séparable et supposons que Φn un
système orthonormé qui n’est pas obligatoirement complet. De l’intgralité de BESSEL, il s’en suit : Pour que les
nombres C1 , C2 , ..., C , ... soient les coefficients de Fourier d’une fonction quelconque f de R , il est nécessaire que
Pn∞
la série de Fourier n=1 Cn2 converge . On démontre que dans les espaces complets , cette condition est seulement
nécessaire, mais pas suffisante.
Le théorème suivant résume ce fait :
Theorem 37. de (RIESZ -FISCHER). Soit {Φn } un systèmePorthonormé dans un espace vectoriel euclidien
∞ 2
R et supposons les nombres
P∞ C1 , C2 , ..., Cn , ... sont tels que la série k=1 Ck converge, alors il existe f dans R telle
que Ck =< f, Φ > et n=1 =< f, f >= ||f ||2.
97
Chapitre 10
INTÉGRALE DE LEBESGUE
Introduction
La notion de l’intégrale de RIEMANN est connue dans le cours élémentaire d’analyse. Elle est employée seulement
aux fonctions qui sont continues ou admettent un nombre fini de points de discontinuités. Pour les fonctions
mesurables, qui peuvent admettre des points de discontinuité presque partout où elles sont définies (où en général
peuvent être définies dans un ensemble abstrait dont la notion de continuité n’a pas de sens ). La construction de
l’intégrale de RIEMANN devient donc impossible. Pour de telles fonctions, il existe une notion très complète et
solide introduite par LEBESGUE. L’idée principale de la construction de l’intégrale de LEBESGUE est basée sur
le fait qu’en opposition l’intégrale de RIEMANN où les points x sont regroupés non pas par leur proximité sur l’axe
des abscisses mais par le critère de proximité des valeurs de la fonction en ces points . Ceci permet directement
d’étendre cette notion dans une classe d’ensemble plus large des fonctions. Outre cela , l’intégrale de LEBESGUE
se définit de la même manière pour une seule les fonctions qui sont définies dans les espaces avec mesure . De même
que l’intégrale de RIEMANN a été introduite pour une seule variable, avant d’être généralisée, nous en ferons autant
ici. Il est une fois de plus à noter que pour les fonctions définies dans les espaces abstraits avec mesures, l’intégrale
de RIEMANN n’a pas de sens . Dans la suite de ce cours, sauf indication particulière, nous allons considérer des
mesures σ-additives complètes définies dans une σ-algèbre, avec pour unité X. Tous les ensembles A C X que nous
allons considérer seront mesurables et les fonctions définies pour x dans X seront elles aussi mesurables. Nous allons
d’abord définir l’intégrale de LEBESGUE pour les fonctions simples et élargir cela dans une classe plus large des
fonctions.
Theorem 39. : Pour une fonction mesurable f (x), il est nécessaire et suffisant qu’elle puisse être représentée
comme limite d’une suite uniformément continue des fonctions simples mesurables.
98
10.2 Intégrale de LEBESGUE pour les fonctions simples.
Soit f une fonction simple quelconque qui prend pour valeurs y1 , y2 , ..., yn ... pour yi 6= yj si i 6= j et supposons
naturellement défini l’intégrale de f par A ( sur l’ensemble A) à partir de l’égalité suivante
Z X x
f (x) dµ = yn µ(An ) (1) où An = { = yn }
A n
f (x)
P
si n yn µ(An ) converge.
Definition 30. La fonction simple f est dite intégrable ou sommable par la mesure µ dans A si la série (1)
converge absolument. Si f est intégrable, alors la série (1) est appelée l’intégrale de f par l’ensemble A. Dans la
définition précédente nous avons supposé que tous les yi sont différents, on peut cependant représenter les valeurs de
l’intégrale d’une fonction simple comme une somme de produit Ck (µ(Bk ) et ne pas supposer que les Ck sont deux
à deux différents. Ceci nous conduit au Lemme suivant :
De plus la fonction f est intégrable sur A si et seulement la série (2) est absolument convergente sur A.
99
10.3 Définition Générale de l’intégrale de LEBESGUE
Definition 31. : Nous dirons que la fonction f est intégrable dans R A s’il existe une suite {fn } Rde fonctions simples
intégrables sur AR et qui converge vers Rf . La limite I = lim c→∞ f (x) dµ (6) , posons là A fn (x) dµ et nous
A n
allons l’appeler A fn (x) dµ = limc→∞ A fn (x) dµ. Cette définition a bien un sens si les conditions suivantes sont
bien résumées :
1 la limite en (6) pour toute suite uniformément convergente des fonctions simples intégrables sur A existe.
2 Cette limite pour f définie ne dépend pas du choix de la suite.
3 Pour les fonctions simples, la définition de l’intégrale suit la définition donnée en 7.2.
En effet toutes ces conditions sont vérifiées.
Pour la première, il suffit de remarquer qu’à partir de a, b, c nous avons donné pour la définition de l’intégrale
des fonctions simples, il vient que :
Z Z
fn (x) dµ − fm (x) dµ ≤ µ(A) sup |fn (x) − fm (x)|
A A
Pour justifier la deuxième condition, il faut considérer deux suites {f n} et {fn∗ } qui convergent vers f . Si la
limite en (6) de ces deux suites prenait des valeurs différentes, alors pour la suite obtenue en faisant l’union des
deux suites, la limite en (6) n’existerait pas ce qui contrarierait la première condition.
Pour justifier la troisième condition, il suffit tout simplement de considérer la suite {fn } où fn = f pour tout n.
Remark 14. Nous voyons que dans la construction de l’intǵrale de LEBESGUE, il existe deux étapes essentielles :
1 l’intégrale comme une série pour une certaine classe de fonctions simples. Ensuite nous avons gńéralisé cette
approche.
2 Nous avons considérer la définition de l’intégrale par le passage à la limite.
100
R R
7 Si f (x) = g(x) ⇒ A f (x) dµ = A g(x) dµ
De plus les deux intégrales existent ou n’existent pas au même moment. Ces deux propositions sont consé-
quence de la définition de l’intégrale de LEBESGUE.
R sur A et P P sur RA on a |f (x)| ≤ ϕ(x), alors f est aussi Intégrable sur A.
8 Si ϕ(x) est intégrable
9 Les intégrales I1 = A f (x) dµ et I2 = A |f (x)| dµ (14) existent ou n’existent pas au même moment.
En effet l’existence de I2 entraîne celle de I1 en raison de la propriété 8. Inversement, pour les fonctions
simples, ceci provient de la définition des intégrales. Mais dans le cas général, la démonstration se fait par le
passage à la limite et de l’utilisation du théorème 2 en plus il faut utiliser |a| − |b| ≤ |a − b|.
Demonstration 1. Démonstration de la propriété 8.
En effet si f et ϕ(x) sont des fonctions simples ,alors en extrayant sur A, un ensemble de mesure nulle, le
reste, des éléments de A que nous pouvons noté A0 peut être représenteés comme une réunion finie ou dénombrable
d’ensemble dans chacun où f et ϕ(x) sont constantes.
f (x) = an , ϕ(x) = bn .
alors Z X X XX XZ
f (x) dµ = yk µ(Bnk ) = ( yk µ(Bnk )) = f (x) dµ (16)
A k n n k n An
101
P
Comme la série n µ(Bnk )dans la supposition de l’intégrabilité de f dans l’ensemble A converge absolument et les
mesures de tous les ensembles présents sont positives, alors toutes les autres séries dans la chaîne (16) convergent
absolument.
Dans le cas de toute fonction arbitraire f , de son intégrabilité sur A implique que pour tout > 0 , il existe une
fonction simple g intégrable sur A qui vérifie la condition
or g simple alors Z XZ
g(x) dµ = g(x)dµ (18)
A n An
De plus, g est intégrable dans chaque sous-ensemble An et la série en (18) converge absolument. De cette dernière
condition et (17) alors f est aussi intégrable dans chaque sous-ensemble An et nous aurons
X Z Z X
| f (x) dµ − g(x) dµ| = µ(An ) = µ(A)
n An An n
soit Z Z
f (x) dµ − g(x) dµ ≤ µ(A),
An An
P R P R R
ce avec (18) entraîne la convergence absolue de la série n An f (x) dµ et | n An f (x) dµ − A
f (x) dµ| ≤ 2µ(A).
Comme > 0 et arbitraire alors nous aurons que :
XZ Z
f (x) dµ = f (x) dµ
n An A
Conséquence.
Si f est intégrable dans A, alors f est intégrable dans tout ensemble mesurable A0 C A.
Nous avons montré que de l’intégrabilité de la fonction f sur l’ensemble A entraîne que si A = ∪An , Ai et Aj
distincts pour i 6= j ,alors f est intégrable dans chaque An et l’intégrale sur A est égale à la somme des intégrales
sur An .Cette proposition peut être reformulée de la manière suivante :
P R
Theorem 41. A = ∪n An , Aj 6= Aj , i 6= j et la série n An |f (x)| dµ (19) converge, alors f est intégrable sur
A et nous avons : Z XZ
f (x) dµ = f (x) dµ
An n An
preuve :
Ici l’idée par comparaison avec le théorème 28 est l’affirmation que la convergence de la série (19) implique
l’intégrabilité de la fonction f sur A. Comme dans le théorème 28, nous allons d’abord donner une démonstration
pour les fonctions simples qui prennent pour valeurs fi .
102
Dans le cas général, il faut approximer f est des fonctions simples f˜ telle que :
Alors : An |f˜(x)| dµ ≤ An |f (x)| dµ + µ(An ) et comme la série n µ(An ) = µ(A) converge et de la convergence
R R P
de n An |f˜(x)| dµ soit à partir donc du résultat simple f˜ intégrables sur A et à cause de l’égalité (20) , f sera
P R
aussi intégrable sur A
Inégalité de Tchebychev.
Si ϕ(x) ≥ 0 sur A et soit c > 0. Alors la mesure
Z
1
µ{x/x ∈ A, ϕ(x) ≥ c} ≤ ϕ(x) dµ (21)
C A
d’où Z
ϕ(x) dµ ≥ Cµ(A0 ).
A
R
Conséquence. Si A |f (x)| dµ alors f (x) = 0 P P
En effet, en raison de l’inégalité de Tchebychev, nous aurons :
Z
1
µ{x/x ∈ A, |f (x)| ≥ } ≥ n |f (x)|dµ = 0 ∀n.
n A
C’est pourquoi
∞
X 1
µ{x/x ∈ A, f (x) 6= 0} ≤ µ{x/x ∈ A, |f (x)| ≥ } = 0, d’où la justification.
n=1
n
Nous avions à montrer précédemment que l’intégrale de LEBESGUE dans un ensemble de mesure nulle est égale
à 0 pour tout f . Dans la suite, nous allons discuter de la continuité absolue de l’intégrale de LEBESGUE et le
théorème suivant illustre ce fait.
Theorem 42. (Continuité absolue de l’intégrale de LEBESGUE). R
Si f (x) est une fonction sommable dans A, ∀ > 0, ∃σ > 0/| C f (x) dµ| < . pour tout ensemble mesurable C
inclut dans A tel que µ(C) < σ.
Preuve : Notons d’abord que notre proposition est évidente si f est bornée. Supposons maintenant que f est
arbitraire intégrable sur A.
An = {x, x ∈ A, n ≤ |f (x)| < n + 1}
BN = ∪N n=0 An , CN = A − BN
R P∞ R
En raison du théorème 3, nous avons A |f (x)| dµ = n=0 |f (x)| dµ choisissons N telle que
∞ Z
X
|f (x)| dµ < et soit 0 < σ < si µ(C) < σ,
An 2 2(N + 1)
n=N +1
alors Z Z Z
f (x) dµ ≤
|f (x)| dµ + |f (x)| dµ < + ,
C
C∩BN C∩CN 2 2
103
donc Z
f (c) dµ < .
C
Preuve :
Des conditions du théorème, il vient que |f (x)| ≤ ϕ(x), c’est pourquoi f sera intégrable.
Soit > 0, en raison du théorème 5, il existe donc δ positif, si µ(B) < δ alors
Z
ϕ(x) dµ < (22)
B 4
En raison du théorème de EGOROV, l’ensemble B vérifiant la condition µ(B) < δ , on peut choisir la suite {fn (x)}n
telle qu’elle converge uniformément dans C = A\B. Ainsi, on peut trouver N / pour n ≥ N et x dans C, l’inégalité
suivante soit vérifiée
|f (x) − fn (x)| <
2µ(C)
Z Z Z Z Z
⇒ f (x) dµ − fn (x) dµ = [f (x) − fn (x)] dµ + f (x) dµ) − fn (x) dµ
A A C B B
104
Theorem 45. :LEVI
Supposons que dans A, on a une suite de fonctions croissante c-à-d f1 (x) ≤ f2 (x) ≤ f3 (x) ≤ ... ≤ fn (x) ≤ ...
De plus les fonctions fn sont intégrables et toutes leurs intégrales sont bornées c-à-d pour tout n
Z
fn (x) dµ ≤ K.
A
Alors P P dans A, il existe une limite finie limn→∞ fn (x) = f (x) (23)
La fonction f est intégrable dans A et on a :
Z Z
fn (x) dµ →n→∞ f (x) dµ
A A
En outre dans l’ensemble où la limite en (23) n’existe pas, pour la fonction f , on peut par exemple poser f (x) = 0.
preuve :
Nous allons d’abord supposer que f1 (x) ≥ 0 puisque dans le cas général nous pouvons l’obtenir en faisant un
changement de fonction f¯n (x) = fn (x) − f1 (x).
Considérons l’ensemble Ω = {x, fn (x) →n→∞ ∞}. Nous voyons finalement que nous pouvons le décomposer
(r) (r)
Ω = ∪r, n Ωn , avec Ωn = {x, x ∈ A; fn > r}.
À partir de l’inégalité de Tchebythev en (21), il vient
K
µ(Ω(r)
n )≤
r
(r) (r) (r)
car µ(Ω1 ) ⊂ µ(Ω2 ) ⊂ ... ⊂ µ(Ωn ) ⊂ .... De part l’arbitrarité de r, alors µ(Ω) = 0
Ainsi nous venons de montrer que toute suite monotone {fn (x)} admet P P sur A une limite finie qu’on note
f (x).
Dans la suite, posons Ar l’ensemble {x ∈ A, r − 1 ≤ f (x) < r}, r entier naturel et posons ϕ(x) = r sur Ar .
Si nous dé‘montrons l’intégrabilité de ϕ(x) = r sur A, alors l’affirmation de notre théorème se fera à partir de la
conséquence du théorème 7.
Posons Bs = ∪sr Ar , comme sur Bs les fonctions fn (x) et f (x) sont bornées et que toutefois nous avons ϕ(x) ≤
f (x) + 1, alors Z Z Z
ϕ(x) dµ ≤ f (x) dµ + µ(A) = lim f (x) dµ + µ(A) ≤ K + µ(A)
Bs Bs n→∞ Bs
R Ps
mais Bs ϕ(x) dµ = r=1 rµ(Ar ). Ainsi l’intégrabilité de ϕ(x) dans A est démontré . La condition de la monotonie
croissante des fonctions fn (x) peut être changée dans le théorème par la condition de la monotonie décroissante des
fonctions fn (x). .
P∞ R P∞
Conséquence. Si la suite Ψ(x) ≥ 0 et si n=1 A Ψn (x) dµ < ∞ alors P P dans A n=1 Ψn (x) converge et on
a Z ∞
X ∞ Z
X
( Ψn (x)) dµ = Ψn (x) dµ
A n=1 n=1 A
.
Theorem R 46. FATOU Si la suite des fonctions mesurables positive {fn (x)}
R converge P P dans A vers la fonction
f et que A fn (x) dµ ≤ k, alors f est intégrable dans A et on aura aussi A fn (x) dµ ≤ k.
Preuve :
Posons ϕ = inf k≥n fk (x). ϕn est mesurable puisque {x, ϕn (x) < c} peut s’écrire comme une réunion ∪k≥n {x, fk (x) <
c} D’autre part, nous avons p ≤ ϕn (x) ≤ fn (x). C’est pourquoi les ϕn sont intégrables et nous avons
Z Z
ϕn dµ fn (x) dµ ≤ K
A A
et enfin ϕ1 (x) ≤ ϕ2 (x) ≤ ϕ3 (x) ≤ ... ≤ ϕn (x) ≤ et lim ϕn (x) = f (x) P P , c’est pourquoi en appliquant le théorème
8 à la suite {ϕn }, nous obtenons le résultat.
105
10.6 Intégrale de LEBESGUE sur les ensembles de mesure infinie
Jusqu’à présent, quand nous avons parlé de l’intégrale et de ses propriétés nous avons supposé que les fonctions
mesurables considérées sont définies dans des ensembles de mesure finie.
Cependant très souvent, l’on rencontre des fonctions définies dans des ensembles de mesure infinie. Par exemple
dans tout l’ensemble des nombres réels,( la droite numérique) avec la mesure de LEBESGUE définie sur R. C’est
pourquoi il serait judicieux d’étudier ce cas aussi.
Nous allons considérer le cas où l’ensemble de mesure infinie peut être représenté comme une réunion dénombrable
d’ensembles de mesure finie.
Exemple 11. X = ∪Xn et µ(X) < ∞ (24) Si l’espace X dans lequel est défini la mesure µ peut être représenté
comme réunion dénombrable d’ensemble de mesure finie alors la mesure µ dans X, est appelée σ-finie. Les exemples
de mesure σ-finie sont : La mesure de LEBESGUE dans la droite nuérique, le plan dans un espace de dimension n.
Les mesures qui ne vérifient pas la condition de σ-finie peuvent par exemple être obtenues en écrivant chaque point
de la droite numérique lui affectant un poids égal à 1.
Ainsi tout sous-ensemble de la droite des nombres réel sera mesurable. De plus les ensembles finis auront des
mesures finies et les autres des mesures infinies. Appelons suite Numérique exhaustive chaque suite monotone
croissante {Xn } de sous-ensembles mesurables X vérifiant la condition (24).
Definition 32. La fonction mesurable f définie dans l’ensemble X avec pour mesure µ σ-finie, est dite sommable
(intégrable) sur X
R dans chaque sous-ensemble A C X de mesure finie et si pour toute suite exhaustive Xn la
limite : limn→∞ xn f (x) dµ existe et ne dépend pas du choix de la suite. Cette limite est appelée l’intégrale de f
R
par l’ensemble X et notée x f (x) dµ.
Conclusion Z Z
lim f (x) dµ = f (x) dµ (26).
n→∞ xn x
Remark 15. Il est clair que si f est nulle hors d’un ensemble de mesure finie alors en fonction de la définition
précédente, l’intégrale de cette fonction sera nulle.
Preuve :
Considérons une partie d’un segment [a, b] en xk = a + 2kn (b − a)et la somme de DARBOUX dans le segment
[a, b] :
2n
a X
Ωn = (b − n ) Mnk .
2
k=1
2n
a X
ωn = (b − ) mnk , xk−1 ≤ x ≤ xk
2n
k=1
106
où Mnk et mnk sont respectivement les bornes supérieures et inférieures dans ce segment. Par définition de l’inté-
grable de RIEMANN, on a :
I = lim Ωn = lim ωn .
n→∞ k=1
Posons : f¯n (x) = Mnk dans xk−1 ≤ x ≤ xk , f n (x) = mnk dans [xk−1 , xk ].
Au point x = b, les fonctions f¯n (x), f n (x) peuvent être redéfinies de manière arbitraire,nous pouvons facilement
calculer que : Z Z
¯
fn (x) dµ = Ωn , f n (x) dµ = ωn
[a,b] [a,b]
comme {f¯n (x)} est croissante et {f n (x)} est décroissante alors P P f¯n (x) → f¯(x) ≥ f (x), de même f n (x) → f (x) ≤
f (x)
À partir du théorème de LEVI, on peut écrire que :
Z Z
f¯(x) dµ = lim Ωn = I = lim ωn = f n (x) dµ
[a,b] [a,b]
Z Z
|f¯(x) − f (x)| dµ = (f¯(x) − f (x)) dµ
[a,b] [a,b]
En effet les fonctions non bornées ne peuvent pas être intégrables au sens de RIEMANN, mais la plupart de
celles-ci sont intégrables au sens de LEBESGUE. En particulier toute fonction positive pour laquelle l’intégrale de
Rb
RIEMANN existe a+ f (x) dx ∀ > 0, et admet une limite I quand → 0 est intégrable au sens de LEBESGUE
dans [a, b] et nous aurons
Z b Z b
lim f (x) dµ = f (x) dµ.
→ a+ a
Rb Rb
L’intégrale impropre lim→ a+ f (x) dµ dans le cas où lim→ a+ |f (x)| dµ = ∞ n’est pas intégrable au sens de
LEBESGUE en accord avec la propriété 8 du point C.
R1
Exemple 12. 0 x1 sin(x) dx existe comme convergente sous certaines conditions comme intégrale impropre de
RIEMANN.
si on considère la fonction dans R ou demi-droite, l’intégrale de RIEMANN peut exister seulement dans le cas
impropre. Si une telles intégrales de LEBESGUE correspondante existent et ont même valeur. Si cette intégrale
converge sous conditions, alors au sens de LEBESGUE, cette fonction n’est pas intégrable.
1
Exemple 13. f (x) = x sin(x) n’est pas intégrable au sens de LEBESGUE dans tout R car
Z +∞ Z +∞
1 1
| sin(x)| dx = ∞ mais sin(x) dx = π.
−∞ x −∞ x
107
Chapitre 11
Introduction
En analyse, le théorème du passage d’une intégrale double (multiple) à une intégrale simple joue un rôle très
important. Dans la théorie des intégrales multiples de Lebesgue le résultat principal est le théorème de Fubini.
Considérons le triplet U = X ∗ Y ∗ Z si dans X, Y , Z sont définies des mesures µX , µY , µZ alors la mesure µ
peut être définie comme (µx RµY )RµZ ou bien µZ R(µY RµZ ).
108
(k) (n)
l’ensemble B2 -réunion de certains C2 . Il est alors claire que
(m) (n)
XX
µ(A) = µ1 (A1 )µ2 (A2 ) = µ1 (C1 )µ2 (C2 ) (4)
n m
(k) (k) (m) (n)
XX
µ(A(k) ) = µ1 (B1 )µ2 (B2 ) = µ1 (C1 )µ2 (C2 ) (5)
m n
(m) (n) (k)
En outre dans (5) la somme à droite est paire pour tout C1 inclut dans B1k et C2 inclut dans B2 et la partie
droite de l’égalité (4) est présente dans tous les membres qui apparaissent dans la partie droite de (5). C’est pourquoi
X
µ(A) = (µ(Bk )). CQFD
k
Theorem 49. Si les mesures µ1 , µ2 , ..., µn sont σ-additive alors la mesure µ = µ1 ∗ µ2 ∗ ... ∗ µn sera aussi σ-additive.
Montrer que Z 1 Z 1
( f (x, y) dx) dy = 0,
−1 −1
Z 1 Z 1
( f (x, y) dy) dx = 1.
−1 −1
109
Chapitre 12
DISTRIBUTIONS
Introduction
The distribution is the generalization of the classical notion of function. This generalization in one direction
makes it possible to express in mathematical form idealized notions such as the density of an electric charge of a
material point, of a dipole, the double or single density of a layer, the intensity of a luminous point, ... On the other
hand, in the notion of distribution, we find that : In reality it is not possible for example to measure the density of
matter of a point but that we can only measure the average density in a small neighborhood of this point. In other
words, the distribution is defined by the average value around each point. To justify ourselves, let us try to define
the density of a material point of unit mass by assuming that this point coincides with the origin of the coordinates.
To define this density, let us distribute the mass evenly inside the ball Ue . As a result we can obtain the average
density
3
fε (x) = 4πε0 si |x| ≤ ε (1)
0 si |x| ≤ ε
We will define the limit of fε (x) point by point and we denote δ (x)
+∞ si x = 0
δ (x) = lim fε (x) = (10 )
ε→∞ 0 si x 6= 0
From this density we will require that its integral on the volume V From this density we will require that its
integral over the volume V gives the mass of the introduced material, ie :
Z
1 si 0 ∈ V
δ (x) dx =
0 si 0 ∈
/0
V
En raison de (1’), the left side of equality (2) s always zero (0). The contradiction obtained shows that the point
by point limit of the sequence fε (x) when ε → 0 that is to say for any continuous function ϕ(x) we can find the
sequence Z
lim f (x)ϕ(x)dx = ϕ (0) (3)
x→∞
V
when ε → 0.
Indeed, depending on the continuity of ϕ(x) we have :
∀η > 0 ∃ε0 > 0 , |x| < ε0 ⇒ |ϕ(x) − ϕ(0)| < η
R
Let’s evaluate the difference fε (x)ϕ(x)dx − ϕ(0)
V
110
R R
fε (x)ϕ(x)dx − ϕ(0) = 3
[ϕ(x) − ϕ(0)]dx
4πε3
V
|x|<ε
R 3
R
fε (x)ϕ(x)dx − ϕ(0) ≤ |ϕ(x) − ϕ(0)|dx ≤ η0 .
4πε3
V
Thus, the weak limit of the function sequence {fε (x)} when ε → 0 is the functional ϕ(0) correspond to each
continuous function ϕ(x) the number ϕ(0).
This functional can be taken as density δ(x) of limit of the unit of mass which is concentrated at the point x = 0
it is the DIRAC function and we can write : fε (x) → δ(x) when ε → 0. Understanding this as equality (3), the
value of the functional δ(x) over the function ϕ(x) ie ϕ(0) nd very often we denote (δ, ϕ) = ϕ(0) (4). Let us now
verify that the reconstructed functional is mass. Indeed, as we have shown, the aim of the integral δ(x) is played
by the number (δ(x), 1) which is equal due to 4) (δ, 1) = 1 if the masses µk with 1 ≤ k ≤ N then the corresponding
density of this distribution is equal to
N
X
µk δ(x − xk ) (5)
k=1
N
P
The expression in (5) is a linear functional which matches each continuous function ϕ(x) the number µk ϕ(xk ).
k=1
Thus, the δ-function is defined using continuous functions as a linear functional defined on these functions, we can
therefore conclude that the continuous functions are a basis of functions for the definition of the δ-function.
Definition 33. : Support of a fraction
The support of continuous functions ϕ(x) is the closure of the set of points which are such that ϕ(x) different from
0 suppϕ = {x, ϕ(x) 6= 0}
The function ϕ(x) is taken finite if it has a compact support if ϕ(x) = 0 ∀x ∈ R\K where K is a compact of
Rn .
If ϕ(x) ∈ C ∞ (Rn ) we denote ϕ(x) ∈ C 0∞ (Rn ) . If for a basis function we take the set of all finite functions which
are indefinitely differentiable C 0∞ (Rn ). In distribution theory, this set is denoted by
D = D(Rn ) = C 0∞ (Rn ). Let us introduce a convergence into this set in a natural way. The sequence of functions
ϕk ∈ D converge to ϕ ∈ D if there exists a number R > 0 and a ball KR such that suppϕk ⊂ KR
Dα ϕk → Dα ϕ when K → ∞
α = (α1 ...αn ) with αi ≥ 0 ∀i
Exemple 16. Example : Of fonction D.
( 2
χh exp( h2−h
−|x|2
) si |x| ≤ h
ωh (x) =
0 si |x| > h
−1 −1
ωh (x) dx = 1 , χh = [hn
R R
where χh is chosen such that exp( 1−|x|2 ) dx]
Rn |x|≤1
D s the distribution set of the open set Ω which are therefore continuous linear functionals defined in a set D(Ω).
111
Let’s denote D0 = D0 (Rn ) the set of distributions.
The set D’ is a linear set.
If the linear combination λf + µg of the functions f and g is defined as functional acting according to the formula
(λf + µg, ϕ) = λ (f, ϕ) + µ (g, ϕ).
Let us verify that λf + µg is continuous over D ie D’. Indeed
∀ϕ, ψ ∈ D∀α, β ∈ C
(λf + µg, αϕ + βψ) = λ (f, αϕ + βψ) + µ (g, αϕ + βψ)
(λf + µg, αϕ + βψ) = α[λ (f, ϕ) + µ (g, ϕ)] + β[λ (f, ψ) + µ (g, ψ)]
(λf + µg, αϕ + βψ) = α (λf + µg, ϕ) + β (λf + µg, ψ)
It is a linear functional its continuity comes from that of the functional f and g. Indeed, if (f, ϕk ) and (g, ϕk ) → 0
when k → 0 then
Definition 34. : The sequence of distributions f, f1 , f2 , ..., fn , ... converges to f de D0 if ∀ ϕ̃ ∈ D, (fk , ϕ) → (f, ϕ)
k→+∞
in this case we will write fk → f
k→+∞
The linear set D0 with the convergence defined above is called the distribution space.
Theorem 52. Suppose that the sequence of functionals f1 , f2 , ...fn , ... of D0 satisfies the conditions of Theorem 40
and the sequence of basic functions ϕ1 , ϕ2 , ... of D converges to 0 on D then (fk , ϕk ) → 0 .
k→+∞
Theorem 53. If the distribution f is zero in each neighborhood of each point of G then it will be zero in all the
domain G.
Let’s suppose that f in D0 and consider the union of all the neighborhoods where f is zero, it forms an open Of
called the set of the distribution f . By the previous theorem all Of is the greatest open-ended in which f is zero.
The support of the distribution is the complement Of in Rn .
suppf = Rn − Of .
If Suppf is bounded then the distribution f is said to be finite.
112
From the property of linearity of the integral leads to the linearity of the functional (f, λϕ + µϕ) = λ(f, ϕ) +
µ(f, ϕ)and the theorem of the passage to the limit in the integral ⇒ the continuity on D.
(f, ϕk ) → 0
k→+∞
Thus (*) defines a D0 distribution.
Definition 35. Distributions which are defined by locally summable (integrable) functions are called regular dis-
tributions. The rest are singular distributions.
if in the domain f of C P (G) if in the domain G, it coincides with the ∀ϕ ∈ D(G), (f, ϕ) =
R
f (x)g(x)dx function
G
fG (x) which is of class Cp (G)
if moreover fG ∈ C P (Ḡ), we will say that f ∈ C P (Ḡ).
within the meaning of distributions (x1 f, ϕ) localy integrable on R is equal to 0 within the meaning of distributions.
Thus, by the Lemma of DU BOIS RAYMON
x1 f (x) = 0P P
Let f (x) = 0 almost everywhere which contradicts (**) and therefore δ is a singular distribution.
113
Let us have ωε (x) let’s show that ωε (x) → δ(x) (∗ ∗ ∗)
ε→0
0
ndeed, by the definition of convergence in D the relation (***) is equivalent to the equality
Z
lim ωε (x)ϕ(x) = ϕ(0) ∀ϕ ∈ D
ε→0
R
.
By continuity of ϕ(x),
∀η >
R 0, ∃ε0 > 0/ |x| < ε0 ⇒
R |ϕ(x) − ϕ(0)| < η R
⇒ ωε (x)ϕ(x) − ϕ(0) ≤ ωε (x) |ϕ(x) − ϕ(0)|dxη ωε (x)dxη
R Rn
⇒ lim ωε (x)ϕ(x)dx = ϕ(0) ∀ϕ ∈ D
ε→0 Rn
considering the approximation of ωε (x) when ε → 0 given by the figure. The distribution δ is better represented by
the following figure. The distribution δ is a single layer in space. Let S be a continuous surface by fragments and
µ(x) a continuous function defined on S. Let us introduce the distribution (µδS , ϕ) defined by
Figure 12.1 –
R
µ(x)ϕ(x)ds ∀ϕ ∈ D
µδS ∈ D0 µδS = 0 si x 6= 0
The distribution µδS is called a single layer on the surface S with the density µ.
Remark 16. The locally integrable functions and the δ -function describe the distribution (density of mass or
particles or charge or force), which is why generalized functions are also called distribution. This term (distribution)
was used for the first time by the French mathematician Laurent SCHWARTZ in his treatise theory of distributions.
If for example, the distribution f is the mass density or electric charges then the expression (f, 1) is the corresponding
total mass or charge. (If f has a meaning on the function which is identically equal to 1 then this function does not
belong to D) in particular (δ, 1) = 1.
Z∞
ε
Z Z
ϕ(x) ϕ(x) ϕ(x)
(ι x1 , ϕ) = VP dx = lim dx + dx
x ε→0 x x
−∞ ε
Dα ϕk → 0 quand k → ∞
114
Z ϕ (x) ZR 0
ZR
k ϕk (0) + ϕ (x̄)
|ϕ0k (x̄)| dx ≤ 2R M ax(ϕ0k (x)) → 0
k
ι x1 , ϕ(x) = VP dx = VP dx ≤
x x
−R −R
ι 1 ∈D 0
x
The distribution ι x1 coincides (in the sense of the definition of the regularity) with the function 1/x for different
from 0 it is called finite part or principal value of the integral of the function 1/x.
Let’s establish equality Z Z
ϕ(x) ϕ(x)
lim dx = −iπµϕ(0) + ν.P dx ∀ ϕ ∈ D
x + iε x
R R
Indeed, if
ZR
x − iε
Z
ϕ(x)
ϕ(x) = 0 pour |x| > alors lim dx = lim ϕ(x)dx
ε→0 x + iε ε→0 x2 + ε2
−R
ZR ZR
x − iε x − iε
Z
ϕ(x)
lim dx = ϕ(0) lim dx + lim ϕ(x)dx A 6= 0
ε→0 x + iε ε→0 x2 + ε2 ε→0 x2 + ε2
−R −R
ZR ZR
−iε
Z
ϕ(x)
lim dx = ϕ(0) lim dx + lim dx
ε→0 x + iε ε→0 x2 + ε2 ε→0
−R −R
ZR
ϕ(x) − ϕ(0)
Z Z
ϕ(x) R ϕ(x)
lim dx = −2iϕ(0) lim arctan + dx = −iπϕ(0) + VP dx
ε→0 x + iε ε x x
−R
1 1
on pose lim =
x + iε x + i0
1
= −iπδ(x) + ι x1
x + i0
1
= −iπδ(x) + ι x1
x − i0
As the operation ϕ (x) → ϕ A−1 (x − b) is linear and continues D to D then the functional f (Ay + b) ∈ D0 .
In particular if A is a rotation
b = 0, At = A−
⇒ (f (Ay) , ϕ (y)) = f, ϕ At x
115
Exemple 17. δ (x − x0 ) is the translation of δ by the vector −x0
(δ (x − x0 ) , ϕ (x)) = (δ (x) , ϕ (x + x0 )) = ϕ (x0 )
if fk → 0 then afk → 0 in D0
k→∞ k→∞
Similarly, if f ∈ D0 the equality f = ηf where η ∈ C ∞ or η = 1 on suppf .
Is it forbidden to define the product of two distributions as it still gives us one distribution ?
−1 2
−1
For locally integrable functions this is not true because if we take for example |x| 2 = |x| . Likewise with
the distributions of space D then we can speak neither of associativity let alone of commutativity.
Counter-example
But to define the product of two distributions, one must be regular and the other irregular at the same point.
Exemple 19. δ (x − a) δ (x − b) = 0 si a 6= b
|α|
It is this equality that we will take as the definition of the derivation (∂ α , ϕ) = (−1) (f, ∂ α ϕ)
Exemple 20.
1 si x ≥ 0
θ=
−1 si x ≤ 0
+∞
Z
(θ0 , ϕ) = − (θ, ϕ0 (x)) = − θ (x) ϕ0 (x) dx
−∞
116
Z0 +∞
Z
0 0
(θ , ϕ) = ϕ (x) dx − + ϕ0 (x) dx = 2ϕ (0) = (2δ (x) , ϕ (x))
−∞ 0
∂ α (λf + µg) = λ∂ α f + µ∂ α g
if fk → 0 then∂ α fk → 0
k→∞ k→∞
∂ α+β f = ∂ α ∂ β f = ∂ β (∂ α f )
— If f ∈ D0 and a ∈ C ∞ (Rn ) then the LEIBNITZ formula for the differentiation of the product of functions is
verified :
∂ ∂a ∂f
∂x1 (af ) = f ∂x 1
+ a ∂x 1
Proof
∂a ∂ϕ ∂ϕ
f , ϕ = − af, a = − f, a
∂x1 ∂x1 ∂x1
∂aϕ ∂a ∂ϕ
=ϕ +a
∂x1 ∂x1 ∂x1
∂ϕ ∂aϕ ∂a
⇒a = −ϕ
∂x1 ∂x1 ∂x1
∂aϕ ∂aϕ ∂a
⇒ , ϕ = − f, −ϕ
∂x1 ∂x1 ∂x1
if f = 0∀x ∈ G then ∂ α f = 0 ∀x ∈ G
⇒ sup ∂ α f ⊂ sup f
Indeed, if ϕ ∈ D (G) then ∂ α ∈ D (G)
|α|
this is why (∂ α f, ϕ) = (−1) (f, ∂ α )
—
(∂ α f, ϕ) = 0 si (f, ϕ) = 0
∞
P
— If the series Uk (x) = s (x) Uk (x) locally integrable function.
k=1
if s(x) converges uniformly in each compact then we can differentiate it as many times member by member
and the series obtained converges in D.
117
Primitive of a Distribution
In this part, we will assume that n = 1.
Every continuous function admits in a unique way, up to an additive constant near te, an primitive noted
0
f (−1) (x) such that f (−1) (x) = f (x). This equality is the definition of the primitive of a distribution.
Definition : 0
The distribution f (−) of D0 (R) is called the primitive of the f de D0 (R) if f (−1) = f and (f − , ϕ0 ) =
− (f, ϕ) ∀ϕ ∈ D (ν).
The equality shows that the functional f (−1) is not established for any function of D but for the first derivatives.
Our problem is to extend this functional in any D such that the extended functional is linear and the arbitrariness
in such an extension.
Suppose first that fR(−1) exists. Let’s construct the function ∀ϕ ∈ D(R) for this, represent it as follows :
ϕ (x) = ψ 0 (x) + wε (x) ϕ (ξ)dξ (α) wε (x) the hat function
+∞
ϕ (x0 ) − wε (x0 ) ϕ (ξ)dξ dx0
R R
and ψ (x) =
−∞
Let us show that ϕ ∈ D(R) Indeed ψ ∈ C ∞ (R)
then ψ ∈ D
apply f (−1) to the equality (α) it comes
Z
f (−1) , ϕ = f (−1) , ψ 0 + f (−1) , wε ϕ (ξ)dξ (γ)
Z
f (−1) , ϕ = − (f, ψ) + C ϕ (ξ)dξ C = f (−1) , wε
So if f (−1) exists, then it is expressed as the above equality where ψ is defined by the formula (γ).
This theorem that the solution of the differential equation u0 = f exists in D0 and is written u = f (−1) + C,
(−1)
f primitive of f , C = arbitrary constant.
In particular, if f is continuous then any solution in D0 of the following equation is classical u0 = 0 then
u = c = constant.
Likewise,
n we can define the primitive of order (n − 1) of the distribution such that :
f (−n) = f
0 0 0
Using the induction on the string n − k for k arbitrary and k < n, f (−1) = f, f (−2) = f (−1) , f (−n) =
f (1−n) , then f (−n) exists uniquely up to an additive polynomial of order n − 1.
Example
Let us calculate the density of the charge of an electric dipole with the electric moment =+1 at the point x = 0
on the set of real numbers.
118
1 1 1 1
δ (x − ε) − δ (x) , ϕ (x) = (δ (x − ε) − δ (x) , ϕ (x)) = (ϕ (ε) − ϕ (0)) = ϕ0 (0)
ε ε ε ε
1 1
δ (x − ε) − δ (x) , ϕ (x) = − (δ 0 , ϕ (x))
ε ε
The density obtained is −δ 0 .
Let us check that the moment gives 1 and that the total load is zero.
(−δ 0 , 1) = (δ 0 , 1) = (δ, 0) = 0 (−δ 0 , x) = (δ, x0 ) = (δ, 1) = 1
Let us show that by deriving this function, we obtain f 0 (x) = {f 0 (x)} + [f ]x0 δ (x − x0 )
Z
∀ϕ ∈ D (f 0 , ϕ) = (f, ϕ0 ) = − f (x) ϕ0 (x)dx
Z
0
(f , ϕ) = (f (x0 + 0) − f (x0 − 0)) ϕ (x0 ) + {f 0 (x)}ϕ (x) dx
(f 0 , ϕ) = {f 0 (x)} + [f (x)]x0 δ (x − x0 ) , ϕ
In particular θ (x) is the function of HEAVISIDE θ0 (x) = {θ0 (x)} + δ (x) = δ (x)
In the theory of electrical circuits the function of HEAVISIDE is called "scaling unit", the δ-function "unit of
impulse"
Remark 17. The primitive of the δ-function is θ (x) + C where C is an arbitrary constant so θ(x) is reconstituted
as a generalized derivative of δ on the other hand, θ(x) is not reconstituted as its classical derivative because
{θ0 (x)} = 0 si x 6= 0
If ϕ admits a point of discontinuity of the first kind at xk then f 0 (x) is piecewise continuous in R, then f 0 (x) =
{f 0 (x)} + [f ]x0 δ (x − x0 )
dk
(u (x − y)) = uk (x − y) , x ∈ (R) (2)
dtk
d
A (u (x − y)) = A (u) (x − y) , x ∈ (R) (3)
dx
Definition
119
The fundamental solution of operator A is called such a distribution ε (x), x ∈0 (R), for which the derivative is
understood in the direction of the distributions.
d
A ε (x) = δ (x) x ∈ (R) (4)
dx
Remark
d
From (3), it comes that A dx ε (x − y) = δ (x − y) x ∈ (R) (5)
Example
d
1. A = : ε (x) = θ (x)
dx
d2 1
2. A = : ε (x) = |x|
dx2 2
d
3. A = + λ : ε (x) = θ (x) e−λx
dx
d2 sin wx
4. A = 2
+ w2 , ε (x) = θ (x)
dx x
It should be noted that for an operator fixed A the fundamental solution can be an infinite set.
A fundamental question arises, what good is the fundamental solution : The answer is that it helps us solve
homogeneous differential equations. Indeed if we have to solve
d
A u (x) = f (x) , x ∈ (R) (6)
dx
Verification in the case f (x) ∈ C m (R) : for the function in (7) we have ∀x ∈ R
+∞
−d
Z
d d
A u (x) = ε (y)A f (x − y) dy = ε (y) , A f (x − y)
dx dx dy
−∞
d
= A ε (y) , f (x − y) = f (x) (8)
dy
120
Example
d
1. For the equation dx u (x) = f (x) , x ∈ R, formula (7) gives the solution
+∞
Z +∞
Z
u (x) = θ (x − y) f (y) dy = f (y) dy, x ∈ R (10)
−∞ −∞
d2
2. For the equation dx2 u (x) = f (x) , x ∈ R (11) formula (7) gives the particular solution
+∞
Z
1
u (x) = (x − y) f (y) dy, x ∈ (R) (12)
2
−∞
12.5.7 Method of construction of the fundamental solution for any operator of the
form below.
d
A dx
So the function
U0 (x) = 0 x > 0
ε (x) = (14)
0 <0
Example
Solve the equation 3U 00 (x) − U 0 (x) = δ(x) x ∈ R (15)
Solution
1 x
3λ2 − λ = 0 ⇒ λ1 = 0, λ2 = ⇒ U0 (x) = C1 + C2 e 3 (16)
3
The initial conditions in (13) give :
C − 1 + C2
1
C2 = 13 (17)
2
⇒ C2 = 1 et C1 = −1
121
so we can write the solution
x
U (x) = θ(x)(e 3 − 1) (18)
The Green function of this problem at the limits ; It is the function G(x, y) in [0, 1] × [0, 1] differentiable for
x 6= y and satisfying the equation
d
( − ω 2 )G(x, y) = δ(x − y) 0<x<l (2)
dx2
G(0, y) = G(l, y) = 0
Here y plays the role of a parameter, y in ]0, 1[.
We can say that Green’s function is the fundamental solution checking the boundary conditions.
Knowing Green’s function, we easily find the solution of the boundary problem (1) by the formula
Zl
U (x) = G(x, y)f (y)dy (3)
0
Verification
Zl
U (0) = G(0, l)f (y)dy = 0 (4)
0
Zl Zl
d d
( 2 − ω 2 )U (x) = ( 2 − ω 2 )G(x, y)f (y)dy = δ(x − y)f (y)dy = f (x) (5)
dx dx
0 0
Remark 18. Formula (3) shows that the Green function G(x, y) is an integral core of the operator G inverse to
the operator A = dxd 2 − ω 2 of the boundary problem (1)
d
A= − ω2 : C02 ([0, l]) → C([0, l]) (6)
dx2
Here C02 ([0, l]) the set of functions U (x) ∈ C02 ([0, l]) with limit conditions U (0) = U (l) = 0.
Remark 19. The operator in (6) is symmetric in L2 (0, l).
So the operator G = A−1 is also symmetric in L2 (0, l) from here comes from the main property of Green’s function
namely :
G(x, y) = G(y, x) ∀x, y ∈ [0, l] (7)
122
Method of constructing Green’s function in a segment.
The differential equation in (2) is homogeneous for x 6= y since δ(x − y) = 0 that’s why we write
d
( − ω 2 )G(x, y) = 0 pour x 6= y (8)
dx2
and the solution gives :
Aeωx + Be−ωx x < y
G(x, y) = (9)
Ceωx + De−ωx x > y
To determine the constants A, B, C, D we have the initial conditions in (2) and two reattachment conditions for
x = y which are such that
G(y − 0, y) = G(y + 0, y)
G(x, y) = (10)
G0x (y + 0, y) = G0x (y − 0, y) + 1
Zx Zl
sh ωy.sh ω(x − l) sh ω(y − l).sh ωx
ω(x) = f (x)dy + f (y)dy. (15)
ω sh ωl ω sh ωl
0 x
123