Produit scalaire Soit EE un RR-espace vectoriel. On appelle produit scalaire sur EE toute application ⟨⋅,⋅⟩:E×E→R⟨⋅,⋅⟩:E×E→R vérifiant les propriétés suivantes : o elle est bilinéaire : pour tous x,y,z∈Ex,y,z∈E et tout λ∈Rλ∈R, on a⟨x+λy,z⟩=⟨x,z⟩+λ⟨y,z⟩⟨x+λy,z⟩=⟨x,z⟩+λ⟨y,z⟩⟨x,λy+z⟩=λ⟨x,y⟩+⟨x,z⟩. ⟨x,λy+z⟩=λ⟨x,y⟩+⟨x,z⟩. o elle est symétrique : pour tous x,y∈Ex,y∈E, on a ⟨x,y⟩=⟨y,x⟩⟨x,y⟩=⟨y,x⟩. o elle est définie positive : pour tout x∈Ex∈E, on a ⟨x,x⟩≥0⟨x,x⟩≥0 et de plus ⟨x,x⟩=0⟨x,x⟩=0 si et seulement si x=0x=0. Un RR-espace vectoriel EE muni d'un produit scalaire s'appelle un espace préhilbertien. Si EE est de dimension finie, EE est appelé espace euclidien. Les exemples classiques de produits scalaires sont : o Sur RnRn, ⟨x,y⟩=∑nk=1xkyk⟨x,y⟩=∑k=1nxkyk. o Sur C([a,b])C([a,b]), ⟨f,g⟩=∫baf(t)g(t)dt⟨f,g⟩=∫abf(t)g(t)dt. Dans la suite, EE désigne un espace préhilbertien muni du produit scalaire ⟨⋅,⋅⟩⟨⋅,⋅⟩. Norme associée On pose, pour x∈Ex∈E, ∥x∥=√⟨x,x⟩‖x‖=⟨x,x⟩, qu'on appelle norme associée au produit scalaire. Le produit scalaire et la norme associée vérifient l'inégalité de Cauchy- Schwarz :∀x,y∈E,|⟨x,y⟩|≤∥x∥×∥y∥∀x,y∈E,|⟨x,y⟩|≤‖x‖×‖y‖avec égalité si et seulement si (x,y)(x,y) est une famille liée. En particulier, avec les deux produits scalaires usuels, on a∀f,g∈C([a,b]), ∫ba|f(t)g(t)| dt≤(∫baf2(t)dt)1/2(∫bag2(t)dt)1/2,∀f,g∈C([a,b]), ∫ab|f(t)g(t)| dt≤(∫abf2(t)dt)1/2(∫abg2(t)dt)1/2,∀x,y∈Rn, n∑k=1|xkyk| ≤(n∑k=1x2k)1/2(n∑k=1y2k)1/2.∀x,y∈Rn, ∑k=1n|xkyk| ≤(∑k=1nxk2)1/2(∑k=1nyk2)1/2. La norme associée vérifie l'inégalité triangulaire :∀x,y∈E, ∥x+y∥≤∥x∥+∥y∥∀x,y∈E, ‖x+y‖≤‖x‖+‖y‖avec égalité si et seulement si x=0x=0 ou s'il existe λ∈R+λ∈R+ tel que y=λxy=λx (on dit que xx et yy sont positivement liés). La norme associée est une norme sur EE, c'est-à-dire qu'elle vérifie les trois conditions suivantes : 1. ∀x∈E, ∥x∥≥0∀x∈E, ‖x‖≥0 avec égalité si et seulement si x=0x=0; 2. ∀x∈E, ∀λ∈R, ∥λx∥=|λ|×∥x∥∀x∈E, ∀λ∈R, ‖λx‖=|λ|×‖x‖; 3. ∀x,y∈E, ∥x+y∥≤∥x∥+∥y∥.∀x,y∈E, ‖x+y‖≤‖x‖+‖y‖. On a l'identité de polarisation suivante :∀(x,y)∈E, 2⟨x,y⟩=∥x+y∥2−∥x∥2−∥y∥2.∀(x,y)∈E, 2⟨x,y⟩=‖ x+y‖2−‖x‖2−‖y‖2. Familles orthogonales, orthonormales On dit que deux vecteurs x,y∈Ex,y∈E sont orthogonaux si ⟨x,y⟩=0⟨x,y⟩=0. On note x⊥yx⊥y. Une famille (xi)i∈I(xi)i∈I est dit orthogonale si les vecteurs qui la composent sont deux à deux orthogonaux. Une famille orthogonale constituée de vecteurs non-nuls est une famille libre. Si (x1,…,xp)(x1,…,xp) est une famille orthogonale, on a la relation de Pythagore∥∥ ∥∥p∑k=1xk∥∥ ∥∥2=p∑k=1∥xk∥2.‖∑k=1pxk‖2=∑k=1p‖xk‖2. Si XX est une partie de EE, on appelle orthogonal de XX l'ensemble noté X⊥X⊥ défini parX⊥={y∈E; ∀x∈X, ⟨x,y⟩=0}.X⊥={y∈E; ∀x∈X, ⟨x,y⟩=0}.X⊥X⊥ est toujours un sous-espace vectoriel de EE. Un vecteur x∈Ex∈E est dit unitaire ou normé si ∥x∥=1‖x‖=1. Une famille (xi) (xi) est une famille orthonormale si c'est une famille orthogonale dont tous les vecteurs sont normés. Si (x1,…,xp)(x1,…,xp) est une famille libre de EE, il existe une unique famille orthonormale (e1,…,ep)(e1,…,ep) vérifiant les deux conditions suivantes : 1. pour tout k∈{1,…,p}k∈{1,…,p}, vect(e1,…,ek)=vect(x1,…,xk)vect(e1, …,ek)=vect(x1,…,xk); 2. pour tout k∈{1,…,p}k∈{1,…,p}, ⟨ek,xk⟩>0⟨ek,xk⟩>0. Le passage de (x1,…,xp)(x1,…,xp) à (e1,…,ep)(e1,…,ep) s'appelle procédé d'orthonormalisation de Gram-Schmidt. Bases orthonormées On suppose dans cette partie que EE est euclidien de dimension nn. Une base orthonormée de EE est une famille orthogonale (e1,…,en)(e1,…,en) dont tous les vecteurs sont unitaires. C'est en particulier une base de EE. EE possède des bases orthonormées. Si (e1,…,en)(e1,…,en) est une base orthonormée de EE, alors tout x∈Ex∈E s'écrit de façon uniquex=n∑i=1⟨x,ei⟩ei.x=∑i=1n⟨x,ei⟩ei.Le réel ⟨x,ei⟩⟨x,ei⟩ s'appelle coordonnée de xx par rapport à eiei dans la base (e1,…,en)(e1,…,en). Si (e1,…,en)(e1,…,en) est une base orthonormée de EE, si x=∑ni=1xieix=∑i=1nxiei et y=∑ni=1yieiy=∑i=1nyiei, alors on peut calculer le produit scalaire et la norme par les formules suivantes : ⟨x,y⟩=n∑i=1xiyi⟨x,y⟩=∑i=1nxiyi∥x∥=(n∑i=1x2i)1/2.‖x‖=(∑i=1nxi2)1/2. Orientation et produit mixte On suppose dans cette partie que EE est euclidien de dimension nn. Rappelons que choisir une orientation de EE, c'est fixer une base BB de EE. Une base orthonormée (e1,…,en)(e1,…,en) de EE est alors une base orthonormée directe si detB(e1,…,en)>0detB(e1,…,en)>0. Théorème et définition : Si x1,…,xnx1,…,xn sont nn vecteurs de EE, le déterminant de la famille (x1,…,xn)(x1,…,xn) est le même dans toute base orthonormée directe. On l'appelle le produit mixte des vecteurs x1,…,xnx1, …,xn et on le note[x1,…,xn].[x1,…,xn]. Si f∈L(E)f∈L(E), on a[f(x1),…,f(xn)]=det(f)×[x1,…,xn].[f(x1), …,f(xn)]=det(f)×[x1,…,xn]. Projection orthogonale On suppose dans cette partie que FF est un sous-espace de EE de dimension finie. F⊥F⊥ est un sous-espace supplémentaire de FF appelé supplémentaire orthogonal de FF. Si EE est lui-même de dimension finie, on a en particulierdim(F⊥)=dim(E)−dim(F).dim(F⊥)=dim(E)−dim(F). Soit x∈Ex∈E, qui s'écrit uniquement x=y+zx=y+z dans la somme directe F⊕F⊥F⊕F⊥. Alors yy s'appelle le projeté orthogonal de xx sur FF, et est noté pF(x)pF(x). Si (e1,…,ep)(e1,…,ep) est une base orthonormée de FF, alorspF(x)=p∑i=1⟨x,ei⟩ei.pF(x)=∑i=1p⟨x,ei⟩ei. Théorème et définition : Pour tout x∈Ex∈E et tout f∈Ff∈F, on a∥x−f∥≥∥x−pF(x)∥‖x−f‖≥‖x−pF(x)‖avec égalité si et seulement si f=pF(x)f=pF(x). La quantitéd(x,F)=∥x−pF(x)∥=inff∈F∥x−f∥d(x,F)=‖x−pF(x)‖=inff∈F‖x−f‖s'appell e distance de xx à FF. Par le théorème de Pythagore, on ad(x,F)=√∥x∥2−∥pF(x)∥2.d(x,F)=‖x‖2−‖pF(x)‖2. Hyperplan affine On suppose dans cette partie que EE est euclidien de dimension nn. Soit HH un hyperplan affine de EE. On appelle vecteur normal à HH tout vecteur non nul orthogonal à sa direction. Proposition : Soit HH un hyperplan affine, soit A∈HA∈H et soit nn un vecteur normal à HH. AlorsM∈H⟺⟨−−→AM,n⟩=0.M∈H⟺⟨AM→,n⟩=0. En particulier, HH est un hyperplan affine de vecteur normal n=(a1,…,an)n=(a1, …,an) si et seulement s'il existe un réel hh tel que l'équation de HH soita1x1+⋯ +anxn+h=0.a1x1+⋯+anxn+h=0. Proposition : Soit HH un hyperplan affine, soit A∈HA∈H et soit nn un vecteur normal à HH. Alorsd(M,H)=|⟨n,−−→AM⟩|∥n∥.d(M,H)=|⟨n,AM→⟩|‖n‖. En particulier, si HH est un hyperplan affine d'équation ∑ni=1aixi+h=0∑i=1naixi+h=0 et si MM est un point de coordonnées (x1, …,xn)(x1,…,xn), alors la distance de MM à HH est donnée pard(M,H)=∣∣∑ni=1aixi+h∣∣√∑ni=1a2i.d(M,H)=|∑i=1naixi+h|∑i=1nai2. Isométrie vectorielle On suppose dans cette partie que EE est euclidien de dimension nn. On appelle isométrie vectorielle de EE, ou automorphisme orthogonal de EE, toute application linéaire f∈L(E)f∈L(E) telle que, pour tout x∈Ex∈E, ∥f(x)∥=∥x∥‖f(x)‖=‖x‖. Proposition : Soit f∈L(E)f∈L(E). Les assertions suivantes sont équivalentes : o ff est un endomorphisme orthogonal de EE. o ff conserve le produit scalaire : ∀x,y∈E, ⟨f(x),f(y)⟩=⟨x,y⟩∀x,y∈E, ⟨f(x),f(y)⟩=⟨x,y⟩. o L'image par ff d'une base orthonormale est une base orthonormale. L'ensemble des automorphismes orthogonaux de EE est un groupe, appelé groupe orthogonal de EE et noté O(E)O(E). On appelle symétrie orthogonale une symétrie s∈L(E)s∈L(E) telle que ker(s−IdE)ker(s−IdE) et ker(s+IdE)ker(s+IdE) soient orthogonaux. Une symétrie est un endomorphisme orthogonal si et seulement si c'est une symétrie orthogonale. On appelle réflexion de EE une symétrie orthogonale par rapport à un hyperplan. Matrices orthogonales On suppose dans cette partie que EE est euclidien de dimension nn. On appelle matrice orthogonale de taille nn toute matrice M∈Mn(R)M∈Mn(R) vérifiant MTM=InMTM=In (on a alors automatiquement MMT=InMMT=In). Une matrice est orthogonale si et seulement ses colonnes forment une base orthonormale de RnRn, si et seulement si ses lignes forment une base orthonormale de RnRn. L'ensemble des matrices orthogonales de taille nn forme un groupe appelé groupe orthogonal et noté On(R)On(R). Théorème : Soit f∈L(E)f∈L(E). Alors les assertions suivantes sont équivalentes : o ff est orthogonal; o La matrice de ff dans toute base orthonormale de EE est orthogonale.
Le déterminant d'une matrice orthogonale vaut ±1±1. Une matrice orthogonale est
dite positive si son déterminant vaut 11, négative si son déterminant vaut −1−1. L'ensemble des matrices orthogonales positives forme un groupe appelé le groupe spécial orthogonal et note SOn(R)SOn(R). On suppose désormais que EE est orienté. Une isométrie est appelée isométrie positive si sa matrice dans une base orthonormée directe est une matrice orthogonale positive. L'ensemble des isométries positives de EE est un groupe, appelé groupe spécial orthogonal et noté SO(E)SO(E). Isométries vectorielles en dimension 2 On suppose dans cette partie que EE est euclidien orienté de dimension 2. Les matrices orthogonales positives en dimension 2 sont les matrices de la formeM(θ)=(cos(θ)−sin(θ)sin(θ)cos(θ)), θ∈R.M(θ)=(cos(θ) −sin(θ)sin(θ)cos(θ)), θ∈R.Les matrices orthogonales négatives en dimension 2 sont les matrices de la formeN(θ)=(cos(θ)sin(θ)sin(θ) −cos(θ)), θ∈R.N(θ)=(cos(θ)sin(θ)sin(θ)−cos(θ)), θ∈R. On appelle rotation vectorielle d'angle θ∈[0,2π[θ∈[0,2π[ un endomorphisme orthogonal de EE dont la matrice dans une (dans toute) base orthonormale directe de EE est de la forme M(θ)M(θ). On note l'endomorphisme correspondant rθrθ. Si u,vu,v sont deux vecteurs unitaires de EE, il existe une unique rotation vectorielle rθrθ telle que rθ(u)=vrθ(u)=v. θθ est appelé mesure de l'angle orienté (u,v)(u,v) (et est défini à 2π2π-près). Les automorphismes orthogonaux de EE sont les rotations vectorielles et les réflexions.
Physique quantique pour les débutants: Découvrez les fondements de la mécanique quantique et la façon dont elle affecte le monde dans lequel nous vivons à travers ses théories les plus célèbres
L'univers est intelligent. L'âme existe. Mystères quantiques, multivers, intrication, synchronicité. Au-delà de la matérialité, pour une vision spirituelle du cosmos.