Vous êtes sur la page 1sur 38

𝟐) 𝑳′ 𝒆𝒔𝒕𝒊𝒎𝒂𝒕𝒆𝒖𝒓 𝒑𝒂𝒓 𝒊𝒏𝒕𝒆𝒓𝒗𝒂𝒍𝒍𝒆

𝐿𝑜𝑟𝑠𝑞𝑢′ 𝑢𝑛 𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒 𝑒𝑠𝑡 𝑒𝑠𝑡𝑖𝑚é 𝑝𝑎𝑟 𝑢𝑛 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒, 𝑑é𝑑𝑢𝑖𝑡 𝑑𝑒𝑠 𝑟é𝑠𝑢𝑙𝑎𝑡𝑠 𝑑𝑒 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 , 𝑐𝑒 𝑛𝑜𝑚𝑏𝑟𝑒
𝑒𝑠𝑡 𝑎𝑝𝑝𝑒𝑙é 𝒆𝒔𝒕𝒊𝒎𝒂𝒕𝒆𝒖𝒓 𝒑𝒂𝒓 𝒊𝒏𝒕𝒆𝒓𝒗𝒂𝒍𝒍𝒆 𝑑𝑢 𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒.
̂1 , 𝜃
𝐿′ 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑒𝑢𝑟 𝑝𝑎𝑟 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑎𝑠𝑠𝑜𝑐𝑖𝑒 à 𝑢𝑛 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 , 𝑢𝑛 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 [ 𝜃 ̂2 ] 𝑞𝑢𝑖 𝑟𝑒𝑐𝑜𝑢𝑣𝑟𝑒 𝜃 𝑎𝑣𝑒𝑐 𝑢𝑛𝑒

𝑐𝑒𝑟𝑡𝑎𝑖𝑛𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é.
𝑆𝑜𝑖𝑡 𝛼 ∈ ] 0 , 1[ 𝑢𝑛 𝑛𝑖𝑣𝑒𝑎𝑢 𝑑𝑒 𝑟𝑖𝑠𝑞𝑢𝑒 𝑓𝑖𝑥é 𝑝𝑎𝑅 𝑙𝑒 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑐𝑖𝑒𝑛.
𝒂) 𝑫é𝒇𝒊𝒏𝒊𝒕𝒊𝒐𝒏𝒔
𝑫é𝒇𝒊𝒏𝒊𝒕𝒊𝒐𝒏 𝟏
𝑈𝑛𝑒 𝑟é𝑔𝑖𝑜𝑛 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑑𝑒 𝜃 𝑑𝑒 𝑛𝑖𝑣𝑒𝑎𝑢 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 1 − 𝛼 𝑒𝑠𝑡 𝑣𝑢𝑛 𝑒𝑛𝑠𝑒𝑚𝑏𝑙𝑒 𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡 𝑑𝑒

𝑙 ′ 𝑜𝑏𝑠𝑒𝑟𝑣𝑎𝑡𝑖𝑜𝑛 𝑚𝑎𝑖𝑠 𝑝𝑎𝑠 𝑑𝑢 𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒 𝑖𝑛𝑐𝑜𝑛𝑛𝑢 , 𝐶(𝑋) ⊂ Θ , 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 ∶ ∀ 𝜃 ∈ Θ, 𝑃𝜃 (𝜃 ∈ 𝐶(𝑋)) ≥ 1 − 𝛼.

𝑂𝑛 𝑑𝑖𝑡 𝑎𝑙𝑜𝑟𝑠 𝑞𝑢′ 𝑜𝑛 𝑎 𝑢𝑛𝑒 𝑟é𝑔𝑖𝑜𝑛 𝑝𝑎𝑟 𝑒𝑥𝑐è𝑠. 𝐷𝑎𝑛𝑠 𝑙𝑒 𝑐𝑎𝑠 𝑜ù 𝑜𝑛 𝑎 é𝑔𝑎𝑙𝑖𝑡é , 𝑜𝑛 𝑝𝑎𝑟𝑙𝑒 𝑑𝑒 𝑛𝑣𝑒𝑎𝑢 𝑒𝑥𝑎𝑐𝑡𝑒𝑚𝑒𝑛𝑡
é𝑔𝑎𝑙 1 − 𝛼.
𝑫é𝒇𝒊𝒏𝒊𝒕𝒊𝒐𝒏 𝟐
𝑆𝑜𝑖𝑡 𝛼 ∈ ] 0 , 1[.
𝑂𝑛 𝑎𝑝𝑝𝑒𝑙𝑙𝑒 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑 ′ 𝑜𝑟𝑑𝑟𝑒 𝛼 𝑑′ 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑃 , 𝑙𝑎 𝑞𝑢𝑎𝑛𝑡𝑖𝑡é 𝑧𝛼 = 𝑖𝑛𝑓{𝑥 , 𝑃(]−∞ , 𝑥[) ≥ 𝛼}.
𝑃𝑎𝑟 𝑒𝑥𝑒𝑚𝑝𝑙𝑒 𝑎𝑣𝑒𝑐 𝑙𝑎 𝑙𝑜𝑖 𝒩 ( 0 , 1) , 𝑜𝑛 𝑎 ∶
∎ 𝑙𝑒 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑 ′ 𝑜𝑟𝑑𝑟𝑒 97,5 % 𝑒𝑠𝑡 1,96.
∎ 𝑙𝑒 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑 ′ 𝑜𝑟𝑑𝑟𝑒 95 % 𝑒𝑠𝑡 1,645.

𝒃) 𝑪𝒐𝒏𝒔𝒕𝒓𝒖𝒄𝒕𝒊𝒐𝒏 𝒅𝒆 𝒓é𝒈𝒊𝒐𝒏𝒔 𝒅𝒆 𝒄𝒐𝒏𝒇𝒊𝒂𝒏𝒄𝒆


𝑈𝑛 𝑝𝑟𝑒𝑚𝑖è𝑟𝑒 𝑚é𝑡ℎ𝑜𝑑𝑒 𝑐𝑜𝑛𝑠𝑖𝑠𝑡𝑒 à 𝑎𝑝𝑝𝑙𝑖𝑞𝑢𝑒𝑟 𝑙 ′ 𝑖𝑛é𝑔𝑎𝑙𝑖𝑡é 𝑑𝑒 𝐵𝑖𝑒𝑛𝑎𝑦𝑚é − 𝑇𝑐ℎ𝑒𝑏𝑦𝑡𝑐ℎ𝑒𝑣.
𝑅𝑎𝑝𝑝𝑒𝑙𝑜𝑛𝑠 𝑞𝑢𝑒 𝑠𝑖 𝑋 𝑒𝑠𝑡 𝑢𝑛𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒 𝑎𝑦𝑎𝑛𝑡 𝑢𝑛 𝑚𝑜𝑚𝑒𝑛𝑡 𝑑 ′ 𝑜𝑟𝑑𝑟𝑒 2 , 𝑎𝑙𝑜𝑟𝑠
𝑉𝑎𝑟(𝑋)
∀ 𝜀 > 0 , 𝑃(|𝑋 − 𝐸(𝑋) > 𝜀|) ≤ .
𝜀2
𝐴𝑝𝑝𝑙𝑖𝑞𝑢𝑜𝑛𝑠 𝑐𝑒𝑡𝑡𝑒 𝑖𝑛é𝑔𝑎𝑙𝑖𝑡é 𝑑𝑎𝑛𝑠 𝑙𝑒 𝑐𝑎𝑠 𝑑𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒𝑠 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑒𝑠 𝑋1 , 𝑋2 , ⋯, 𝑋𝑛 𝑖𝑑𝑒𝑛𝑡𝑖 −
̅̅̅𝑛̅ . 𝑂𝑛 𝑎 ∶
𝑞𝑢𝑒𝑚𝑒𝑛𝑡 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢é𝑒𝑠 𝑑𝑒 𝑙𝑜𝑖 𝑑𝑒 𝐵𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖 ℬ(𝜃) , 𝑜ù 𝑙 ′ 𝑜𝑛 𝑠𝑜𝑢ℎ𝑎𝑖𝑡𝑒 𝑒𝑠𝑡𝑖𝑚𝑒𝑟 𝜃 à 𝑙 ′ 𝑎𝑖𝑑𝑒 𝑑𝑒 𝑋
𝜃(1 − 𝜃) 1
̅̅̅𝑛̅ − 𝜃 > 𝜀|) ≤
∀ 𝜀 > 0 , 𝑃(|𝑋 ≤ .
𝑛𝜀 2 4 𝑛 𝜀2
1 1
̅̅̅𝑛̅ −
𝑂𝑛 𝑜𝑏𝑡𝑖𝑒𝑛𝑡 𝑎𝑖𝑛𝑠𝑖 𝑢𝑛𝑒 𝑟é𝑔𝑖𝑜𝑛 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑑𝑒 𝑛𝑖𝑣𝑒𝑎𝑢 1 − 𝛼 𝑒𝑛 𝑐𝑜𝑛𝑠𝑖𝑑é𝑟𝑎𝑛𝑡 [ 𝑋 ̅̅̅𝑛̅ −
,𝑋 ].
2 √𝑛 𝛼 2 √𝑛 𝛼

1
𝐴𝑢 𝑙𝑖𝑒𝑢 𝑑𝑒 𝑠𝑒 𝑑𝑜𝑛𝑛𝑒𝑟 𝑢𝑛𝑒 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛 (𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑒𝑢𝑟) 𝑞𝑢𝑖 𝑑𝑜𝑛𝑛𝑒 𝑢𝑛𝑒 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑖𝑜𝑛 𝑝𝑜𝑛𝑠𝑡𝑢𝑒𝑙𝑙𝑒 𝑑′ 𝑢𝑛 𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒
𝑜𝑛 𝑐ℎ𝑒𝑟𝑐ℎ𝑒 𝑢𝑛 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑎𝑛𝑠 𝑙𝑒𝑞𝑢𝑒𝑙 𝑠𝑒 𝑡𝑟𝑜𝑢𝑣𝑒 𝑙𝑒 𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒 é𝑡𝑢𝑑𝑖é 𝑎𝑣𝑒𝑐 𝑢𝑛𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑐𝑜𝑛𝑡𝑟ô𝑙é𝑒.

𝒄) 𝑬𝒔𝒕𝒊𝒎𝒂𝒕𝒆𝒖𝒓 𝒅′ 𝒖𝒏𝒆 𝒑𝒓𝒐𝒑𝒐𝒓𝒕𝒊𝒐𝒏


𝑂𝑛 𝑐𝑜𝑛𝑠𝑖𝑑è𝑟𝑒 𝑢𝑛𝑒 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 𝑝𝑜𝑢𝑟 𝑙𝑎 𝑐𝑎𝑟𝑎𝑐𝑡è𝑟𝑒 𝑜𝑏𝑠𝑒𝑟𝑣é 𝑖𝑎 𝑝𝑟𝑜𝑝𝑜𝑟𝑡𝑖𝑜𝑛 𝑝 𝑑 ′ 𝑢𝑛𝑒 𝑐𝑒𝑟𝑡𝑎𝑖𝑛𝑒
𝑐𝑎𝑡é𝑔𝑜𝑟𝑖𝑒 𝑒𝑠𝑡 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒. 𝑂𝑛 𝑠𝑜𝑢ℎ𝑎𝑖𝑡𝑒 𝑒𝑠𝑡𝑖𝑚𝑒𝑟 𝑐𝑒𝑡𝑡𝑒 𝑝𝑟𝑜𝑝𝑜𝑟𝑡𝑖𝑜𝑛 𝑝 𝑑𝑒 𝑐𝑒𝑡𝑡𝑒 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 à 𝑝𝑎𝑟𝑡𝑖𝑟 𝑑′ 𝑢𝑛
é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑑𝑒 𝑡𝑎𝑖𝑙𝑙𝑒 𝑛 𝑑𝑜𝑛𝑡 𝑙𝑎 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑑𝑒 𝑙𝑎 𝑐𝑎𝑡é𝑔𝑜𝑟𝑖𝑒 é𝑡𝑢𝑑𝑖é𝑒 𝑒𝑠𝑡 𝑓. 𝑆𝑜𝑖𝑡 𝐹 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑞𝑢𝑖 à 𝑐ℎ𝑎𝑞𝑢𝑒
é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑑𝑒 𝑡𝑎𝑖𝑙𝑙𝑒 𝑛 𝑎𝑠𝑠𝑜𝑐𝑖𝑒 𝑙𝑎 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑑𝑢 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑 ′ é𝑙é𝑚𝑒𝑛𝑡𝑠 𝑞𝑢𝑖 𝑎𝑝𝑝𝑎𝑟𝑡𝑖𝑒𝑛𝑛𝑒𝑛𝑡 à 𝑙𝑎 𝑐𝑎𝑡é𝑔𝑜𝑟𝑖𝑒
𝑝𝑞
𝑐ℎ𝑜𝑖𝑠𝑖𝑒. 𝑂𝑛 𝑠𝑎𝑖𝑡 𝑞𝑢𝑒 𝐹 𝑠𝑢𝑖𝑡 𝑎𝑝𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑡𝑖𝑣𝑒𝑚𝑒𝑛𝑡 𝑙𝑎 𝑙𝑜𝑖 𝒩 (𝑝 , 𝜎) 𝑎𝑣𝑒𝑐 𝜎 = √ 𝑝𝑜𝑢𝑟 𝑛 𝑠𝑢𝑓𝑓𝑖𝑠𝑎𝑚𝑚𝑒𝑛𝑡
𝑛

𝑓(1 − 𝑓)
𝑔𝑟𝑎𝑛𝑑 (𝑛 > 30). 𝑂𝑛 𝑑𝑖𝑠𝑝𝑜𝑠𝑒 𝑑𝑒 𝜎 ′ = √ 𝑒𝑠𝑡 𝑙 ′ é𝑐𝑎𝑟𝑡 − 𝑡𝑦𝑝𝑒 𝑎𝑠𝑠𝑜𝑐𝑖é à 𝑙𝑎 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑓 𝑑𝑒
𝑛

𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑑𝑒 𝑡𝑎𝑖𝑙𝑙𝑒 𝑛.
𝑂𝑛 𝑠𝑒 𝑠𝑒𝑟𝑡 𝑑𝑒 𝑙 ′ 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑖𝑜𝑛 𝑝𝑜𝑛𝑐𝑡𝑢𝑒𝑙𝑙𝑒 𝑑𝑒 𝜎 𝑝𝑢𝑖𝑠𝑞𝑢𝑒 𝑝 𝑒𝑠𝑡 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒 ∶

𝑛 𝑓(1 − 𝑓) 𝑛 𝑓(1 − 𝑓)
𝜎 = 𝜎′ √ = √ × √ = √ .
𝑛−1 𝑛 𝑛−1 𝑛−1

𝐹−𝑝
𝐷𝑜𝑛𝑐 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒 𝑍 𝑑é𝑓𝑖𝑛𝑖𝑒 𝑝𝑎𝑟 ∶ 𝑍 = 𝑠𝑢𝑖𝑡 𝑎𝑝𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑡𝑖𝑣𝑒𝑚𝑒𝑛𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒
𝜎
𝑟é𝑑𝑢𝑖𝑡𝑒 𝒩 (0 , 1).
𝑂𝑛 𝑐ℎ𝑒𝑟𝑐ℎ𝑒 𝑢𝑛 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑑𝑒 𝑙𝑎 𝑝𝑟𝑜𝑝𝑜𝑟𝑡𝑖𝑜𝑛 𝑝 , 𝑖𝑒 𝑢𝑛 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑙𝑎 𝑝𝑟𝑜𝑝𝑜𝑟𝑡𝑖𝑜𝑛 𝑝
𝑛′ 𝑎𝑝𝑝𝑎𝑟𝑡𝑖𝑒𝑛𝑛𝑒 𝑝𝑎𝑠 à 𝑐𝑒𝑡 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑠𝑜𝑖𝑡 é𝑔𝑎𝑙𝑒 à 𝛼 𝑜ù 𝛼 ∈ [ 0 , 1 ].
𝑂𝑛 𝑎𝑝𝑝𝑒𝑙𝑙𝑒 𝑐𝑒𝑡 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑎𝑣𝑒𝑐 𝑙𝑒 𝑟𝑖𝑠𝑞𝑢𝑒 𝛼 𝑜𝑢 𝑎𝑣𝑒𝑐 𝑙𝑒 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑐 = 1 − 𝛼.
𝐿𝑒 𝑟𝑖𝑠𝑞𝑢𝑒 𝑞𝑢𝑒 𝑙 ′ 𝑜𝑛 𝑝𝑟𝑒𝑛𝑑 à 𝑑𝑖𝑟𝑒 𝑞𝑢𝑒 𝑝 𝑎𝑝𝑝𝑎𝑟𝑡𝑖𝑒𝑛𝑡 à 𝑐𝑒𝑡 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑒𝑠𝑡 𝑑𝑜𝑛𝑐 𝑑𝑒 𝛼 𝑜𝑢 𝑒𝑛𝑐𝑜𝑟𝑒 𝑙𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é
𝑞𝑢𝑒 𝑝 𝑛′ 𝑎𝑝𝑝𝑎𝑟𝑡𝑖𝑒𝑛𝑛𝑒 𝑝𝑎𝑠 à 𝑐𝑒𝑡 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑒𝑠𝑡 𝑑𝑒 𝑟𝑖𝑠𝑞𝑢𝑒 .
𝐷é𝑡𝑒𝑟𝑚𝑖𝑛𝑜𝑛𝑠 𝑐𝑒𝑡 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 .
𝑂𝑛 𝑟𝑎𝑝𝑝𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 𝑙 ′ 𝑜𝑛 𝑎 𝑑é𝑓𝑖𝑛𝑖 𝑡𝛼⁄2 𝑐𝑜𝑚𝑚𝑒 é𝑡𝑎𝑛𝑡 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 ∶

𝑃(𝑇 > 𝑡𝛼⁄2 ) = 𝛼⁄2 𝑜ù 𝑇 𝑠𝑢𝑖𝑡 𝒩(0 , 1).

𝐴 𝑙 ′ 𝑎𝑖𝑑𝑒 𝑑𝑒𝑠 𝑝𝑟𝑜𝑝𝑟𝑖é𝑡é𝑠 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒, 𝑜𝑛 𝑎 ∶ 𝑃(𝑇 < − 𝑡𝛼⁄2 ) = 𝛼 ⁄2 𝑒𝑡

𝑃(− 𝑡𝛼⁄2 < 𝑇 < 𝑡𝛼⁄2 ) = 1 − 𝛼 ⁄2 − 𝛼 ⁄2 = 1 − 𝛼.


𝐹−𝑝
𝑃(− 𝑡𝛼⁄2 < 𝑇 < 𝑡𝛼⁄2 ) = 1 − 𝛼 ⟺ 𝑃 (− 𝑡𝛼⁄2 < < 𝑡𝛼⁄2 ) = 1 − 𝛼 .
𝜎
2
⟺ 𝑃(− 𝑡𝛼⁄2 × 𝛼 < 𝐹 − 𝑝 < 𝛼 × 𝑡𝛼⁄2 ) = 1 − 𝛼

⟺ 𝑃(𝐹 − 𝑡𝛼⁄2 × 𝛼 < 𝑝 < 𝐹 + 𝛼 × 𝑡𝛼⁄2 ) = 1 − 𝛼

𝑓(1 − 𝑓) 𝑓(1 − 𝑓)
⟺ 𝑃 (𝐹 − 𝑡𝛼⁄2 × √ <𝑝<𝐹+ √ × 𝑡𝛼⁄2 ) = 1 − 𝛼.
𝑛−1 𝑛−1

𝐿′ 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑑𝑒 𝑙𝑎 𝑝𝑟𝑜𝑝𝑜𝑟𝑡𝑖𝑜𝑛 𝑝 𝑎𝑣𝑒𝑐 𝑢𝑛𝑒 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑛𝑎𝑐𝑒 𝑑𝑒 1 − 𝛼 𝑒𝑠𝑡 ∶

𝑓(1 − 𝑓) 𝑓(1 − 𝑓)
] 𝑓 − 𝑡𝛼⁄2 × √ ;𝑓 + √ × 𝑡𝛼⁄2 [ .
𝑛−1 𝑛−1

𝑅𝑒𝑚𝑎𝑟𝑞𝑢𝑒
𝐿𝑜𝑟𝑠𝑞𝑢𝑒 𝑛 𝑒𝑠𝑡 𝑔𝑟𝑎𝑛𝑑 , 𝑙𝑎 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒 𝑒𝑛𝑡𝑟𝑒 𝑛 𝑒𝑡 𝑛 − 1 𝑑𝑒𝑣𝑖𝑒𝑛𝑡 𝑛é𝑔𝑙𝑖𝑔𝑒𝑎𝑔𝑙𝑒, 𝑎𝑢𝑠𝑠𝑖 𝑙𝑎 𝑓𝑜𝑟𝑚𝑢𝑙𝑒 𝑑𝑒𝑣𝑖𝑒𝑛𝑡 ∶

𝑓(1 − 𝑓) 𝑓(1 − 𝑓)
] 𝑓 − 𝑡𝛼⁄2 × √ ;𝑓 + √ × 𝑡𝛼⁄2 [ 𝑞𝑢𝑖 𝑒𝑠𝑡 𝑓𝑜𝑟𝑚𝑢𝑙𝑒 𝑙𝑎 𝑝𝑙𝑢𝑠 𝑐𝑜𝑢𝑟𝑎𝑚𝑚𝑒𝑛𝑡 𝑢𝑡𝑖𝑙𝑖𝑠é𝑒.
𝑛 𝑛

𝐸𝑛 𝑔é𝑛é𝑟𝑎𝑙, 𝑐𝑒𝑡𝑡𝑒 𝑓𝑜𝑟𝑚𝑢𝑙𝑒 𝑒𝑠𝑡 𝑣𝑟𝑎𝑖𝑒 𝑙𝑜𝑟𝑠𝑞𝑢𝑒 𝑛 𝑒𝑠𝑡 𝑔𝑟𝑎𝑛𝑑 , 𝑛𝑝 > 5 𝑒𝑡 𝑛𝑞 > 5.
𝑬𝒙𝒆𝒎𝒑𝒍𝒆
1 1
𝑂𝑛 𝑝𝑒𝑢𝑡 𝑒𝑛𝑐𝑜𝑟𝑒 𝑠𝑖𝑚𝑝𝑙𝑖𝑓𝑖𝑒𝑟 𝑎𝑣𝑒𝑐 𝑢𝑛 𝑟𝑖𝑠𝑞𝑢𝑒 𝛼 = 5 % 𝑒𝑡 𝑓 ≈ 0,5, 𝑙𝑎 𝑓𝑜𝑟𝑚𝑢𝑙𝑒 𝑑𝑒𝑣𝑖𝑒𝑛𝑡 ∶ ]𝑓 − ;𝑓 + [.
√𝑛 √𝑛
𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏
𝑼𝒏 𝒍𝒂𝒃𝒐𝒓𝒂𝒕𝒐𝒊𝒓𝒆 𝒂 𝒆𝒇𝒇𝒆𝒄𝒕𝒖é 𝒖𝒏𝒆 é𝒕𝒖𝒅𝒆 𝒔𝒖𝒓 𝒍𝒆 𝒎𝒂𝒊𝒏𝒕𝒊𝒆𝒏 𝒅𝒆 𝒍𝒂 𝒕𝒆𝒏𝒆𝒖𝒓 𝒅𝒖 𝒄𝒊𝒎𝒆𝒏𝒕 𝒂𝒑𝒓è𝒔 𝟑 𝒂𝒏𝒔 𝒅𝒆
𝒄𝒐𝒏𝒄𝒆𝒓𝒗𝒂𝒕𝒊𝒐𝒏.
𝑺𝒖𝒓 𝒖𝒏 𝒍𝒐𝒕 𝒅𝒆 𝟖𝟎 𝒑𝒂𝒒𝒖𝒆𝒕𝒔, 𝟒𝟕 𝒐𝒏𝒕 𝒖𝒏𝒆 𝒃𝒐𝒏𝒏𝒆 𝒕𝒆𝒏𝒆𝒖𝒓 𝒂𝒗𝒆𝒄 𝒖𝒏 𝒄𝒐𝒆𝒇𝒇𝒊𝒄𝒊𝒆𝒏𝒕 𝒅𝒆 𝒄𝒐𝒏𝒇𝒊𝒂𝒏𝒄𝒆 𝒅𝒆 𝟗𝟓 %.
𝟒𝟕
𝑶𝒏 𝒂 ∶ 𝑷 = 𝒇 = = 𝟎, 𝟓𝟖𝟖 , 𝑸 = 𝟏 − 𝒇 = 𝟎, 𝟒𝟏𝟐 𝒆𝒕 𝒕𝜶 = 𝟏, 𝟗𝟔.
𝟖𝟎

𝒇(𝟏 − 𝒇)
𝒑=𝒇±√ = 𝟎, 𝟓𝟖𝟖 ± 𝟎, 𝟏𝟎𝟖.
𝒏

𝑫𝒐𝒏𝒄 𝒍𝒂 𝒑𝒓𝒐𝒃𝒂𝒃𝒊𝒍𝒊𝒕é 𝒅′ 𝒖𝒏𝒆 𝒃𝒐𝒏𝒏𝒆 𝒕𝒆𝒏𝒆𝒖𝒓 𝒆𝒔𝒕 𝒄𝒐𝒎𝒑𝒓𝒊𝒔𝒆 𝒅𝒂𝒏𝒔 𝒍′ 𝒊𝒏𝒕𝒆𝒓𝒗𝒂𝒍𝒍𝒆 [𝟎, 𝟒𝟖𝟎 ; 𝟎, 𝟔𝟗𝟔].

3
𝒄) 𝑬𝒔𝒕𝒊𝒎𝒂𝒕𝒆𝒖𝒓 𝒅′ 𝒖𝒏𝒆 𝒎𝒐𝒚𝒆𝒏𝒏𝒆
𝑳𝒐𝒓𝒔𝒒𝒖𝒆 𝒍𝒂 𝒗𝒂𝒓𝒊𝒂𝒏𝒄𝒆 𝒆𝒔𝒕 𝒄𝒐𝒏𝒏𝒖𝒆
𝑂𝑛 𝑐𝑜𝑛𝑠𝑖𝑑è𝑟𝑒 𝑢𝑛𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒 𝑋 𝑠𝑢𝑖𝑣𝑎𝑛𝑡 𝒩 (𝜇 , 𝜎) 𝑒𝑡 𝑋1 , ⋯ , 𝑋𝑛 , 𝑛 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑒𝑠 𝑒𝑡 𝑑𝑒
𝑚ê𝑚𝑒 𝑙𝑜𝑖 𝑞𝑢𝑒 𝑋. 𝑂𝑛 𝑟𝑎𝑝𝑝𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 𝑙𝑒𝑠 𝑑é𝑓𝑖𝑛𝑖𝑡𝑖𝑜𝑛𝑠 𝑑𝑒 𝑙𝑎 𝑚𝑜𝑦𝑒𝑛𝑛𝑒 𝑒𝑚𝑝𝑖𝑟𝑖𝑞𝑢𝑒 𝑒𝑡 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒 𝑒𝑚𝑝𝑖𝑟𝑖𝑞𝑢𝑒
𝑛 𝑛
1 1
𝑠𝑜𝑛𝑡 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑣𝑒𝑚𝑒𝑛𝑡 𝑑𝑜𝑛𝑛é𝑒𝑠 𝑝𝑎𝑟 ∶ 𝑋̅ = ∑ 𝑋𝑖 𝑒𝑡 𝑆 2 = ∑(𝑋𝑖 − 𝑋̅)2 .
𝑛 𝑛−1
𝑖=1 𝑖=1

𝑆𝑜𝑖𝑡 𝑡𝛼⁄2 𝑙𝑒 𝑛𝑜𝑚𝑏𝑟𝑒 𝑟é𝑒𝑙 𝑝𝑜𝑠𝑖𝑡𝑖𝑓 𝑡𝑒𝑙 𝑞𝑢𝑒 ∶ 𝑃(− 𝑡𝛼⁄2 < 𝑇 < 𝑡𝛼⁄2 ) = 1 − 𝛼.
𝜎
𝑂𝑛 𝑠𝑎𝑖𝑡 𝑞𝑢𝑒 𝑋̅ 𝑠𝑢𝑖𝑡 𝑙𝑎 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝒩 (𝜇 , ) , 𝑑𝑜𝑛𝑐 ∶
√𝑛
1 − 𝛼 = 𝑃(− 𝑡𝛼⁄2 < 𝑇 < 𝑡𝛼⁄2 )

𝑋̅ − 𝜇
1 − 𝛼 = 𝑃 (− 𝑡𝛼⁄2 < 𝜎 < 𝑡𝛼⁄2 )
√𝑛
𝜎 𝜎
1 − 𝛼 = 𝑃 (𝑋̅ − 𝑡𝛼⁄2 × < 𝜇 < 𝑋̅ + 𝑡𝛼⁄2 × )
√𝑛 √𝑛
𝐿′ 𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑝𝑜𝑢𝑟 𝑙𝑎 𝑚𝑜𝑦𝑒𝑛𝑛𝑒 𝑑 ′ 𝑢𝑛𝑒 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒 𝜎 2 𝑐𝑜𝑛𝑛𝑢𝑒 𝑒𝑠𝑡 𝑑𝑜𝑛𝑛é 𝑝𝑎𝑟 ∶
𝜎 𝜎 𝜎 𝜎
𝑥̅ − 𝑡𝛼⁄2 × < 𝜇 < 𝑥̅ − 𝑡𝛼⁄2 × 𝑠𝑜𝑖𝑡 𝐼 = ] 𝑥̅ − 𝑡𝛼⁄2 × ; 𝑥̅ − 𝑡𝛼⁄2 × [.
√𝑛 √𝑛 √𝑛 √𝑛
𝐶𝑒𝑡 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑟𝑒𝑠𝑡𝑒 𝑣𝑎𝑙𝑎𝑏𝑙𝑒 𝑙𝑜𝑟𝑠𝑞𝑢𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒 𝑒𝑠𝑡 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒 𝑣𝑒𝑡 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑡𝑟è𝑠 𝑔𝑟𝑎𝑑
𝑬𝒙𝒆𝒎𝒑𝒍𝒆
𝑃𝑜𝑢𝑟 𝑢𝑛 𝑟𝑖𝑠𝑞𝑢𝑒 𝛼 = 5 %, 𝑙 ′ 𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑑𝑒 𝑚 𝑎𝑢 𝑛𝑖𝑣𝑒𝑎𝑢 95 % 𝑒𝑠𝑡
𝜎 𝜎
̅̅̅𝑛̅ − 1,96
]𝑋 ̅̅̅𝑛̅ − 1,96
;𝑋 [ 𝑐𝑒 𝑞𝑢𝑖 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑒 𝑞𝑢𝑒 𝑠𝑢𝑟 𝑢𝑛 𝑔𝑟𝑎𝑛𝑑 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑 ′ 𝑒𝑥𝑝é𝑟𝑖𝑒𝑛𝑐𝑒 𝑐𝑒𝑡 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒
√𝑛 √𝑛
𝑐𝑜𝑛𝑡𝑖𝑒𝑛𝑑𝑟𝑎 𝑒𝑓𝑓𝑒𝑐𝑡𝑖𝑣𝑒𝑚𝑒𝑛𝑡 𝑚 𝑑𝑎𝑛𝑠 95 % 𝑑𝑒𝑠 𝑐𝑎𝑠𝑒𝑛 𝑚𝑜𝑦𝑒𝑛𝑛𝑒.

4
𝑳𝒐𝒓𝒔𝒒𝒖𝒆 𝒍𝒂 𝒗𝒂𝒓𝒊𝒂𝒏𝒄𝒆 𝒆𝒔𝒕 𝒊𝒏𝒄𝒐𝒏𝒏𝒖𝒆
𝑆𝑜𝑖𝑒𝑛𝑡 𝑋 𝑒𝑡 𝑌 𝑑𝑒𝑢𝑥 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒𝑠 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑒𝑠 𝑠𝑢𝑖𝑣𝑎𝑛𝑡 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑣𝑒𝑚𝑒𝑛𝑡 𝑙𝑎 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒
𝑟é𝑑𝑢𝑖𝑡𝑒 𝑒𝑡 𝑙𝑎 𝑙𝑜𝑖 𝜒 2 à 𝑛 𝑑𝑒𝑔𝑟é𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡é .
𝑋
𝐿𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒 𝑇 = 𝑠𝑢𝑖𝑡 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑆𝑡𝑢𝑑𝑒𝑛𝑡 à 𝑛 𝑑𝑒𝑔𝑟é𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡é.
√𝑌⁄𝑛
Γ((𝑛 + 1)⁄2)
1 1
𝐿𝑎 𝑑𝑒𝑛𝑠𝑖𝑡é 𝑑𝑒 𝑐𝑒𝑡𝑡𝑒 𝑙𝑜𝑖 𝑒𝑠𝑡 𝑑𝑜𝑛𝑛é𝑒 𝑝𝑎𝑟 𝑓𝑇 (𝑢) = 𝑛+1 .
√𝑛 𝜋 Γ(𝑛⁄2)
𝑢2 2
(1 + )
𝑛
𝐶𝑒𝑡𝑡𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑛′ 𝑎 𝑝𝑎𝑠 𝑑′ 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒 𝑝𝑜𝑢𝑟 𝑛 = 1 𝑒𝑡 𝑝𝑎𝑠 𝑑𝑒 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒 𝑝𝑜𝑢𝑟 𝑛 ≤ 2.
𝑛
𝑆𝑖𝑛𝑜𝑛 𝑜𝑛 𝑎 ∶ 𝐸(𝑇) = 0 𝑒𝑡 𝑉𝑎𝑟(𝑇) = .
𝑛−2
𝑻𝒉é𝒐𝒓è𝒎𝒆
𝐿𝑜𝑟𝑠𝑞𝑢𝑒 𝜎 2 𝑒𝑠𝑡 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒, 𝑢𝑛 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑎𝑢 𝑛𝑖𝑣𝑒𝑎𝑢 1 − 𝛼 𝑑𝑒 𝑚 𝑒𝑠𝑡

√𝑆̂𝑛2 √𝑆̂𝑛2
̅̅̅𝑛̅ − 𝑡𝑛−1 ,1−𝛼⁄2 ×
𝑋 ̅̅̅𝑛̅ + 𝑡𝑛−1 ,1−𝛼⁄2 ×
;𝑋 𝑜ù 𝑡𝑛−1 ,1−𝛼⁄2 𝑒𝑠𝑡 𝑙𝑒 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑 ′ 𝑜𝑟𝑑𝑟𝑒 1 − 𝛼⁄2 𝑑𝑒 𝑙𝑎
√𝑛 √𝑛
[ ]
𝑙𝑜𝑖 𝑑𝑒 𝑆𝑡𝑢𝑑𝑒𝑛𝑡 à 𝑛 − 1 𝑑𝑒𝑔𝑟é𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡é.

𝐶𝑒𝑙𝑎 𝑝𝑟𝑜𝑣𝑖𝑒𝑛𝑡 𝑑𝑢 𝑟é𝑠𝑙𝑡𝑎𝑡 𝑝𝑟é𝑐é𝑑𝑒𝑛𝑡 𝑒𝑡 𝑑𝑒 𝑙 ′ 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝜎 2 𝑝𝑎𝑟 𝑆̂𝑛2 .


𝐿′ 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑑𝑒 𝑙 ′ 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒 𝑝𝑜𝑢𝑟 𝑢𝑛 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡 𝑑𝑒 𝑟𝑖𝑠𝑞𝑢𝑒 𝛼 𝑒𝑠𝑡 𝑑𝑜𝑛𝑐
𝜎̂ 𝜎̂
̅̅̅̅ − 𝒕𝜶
[𝑋 ; ̅𝑋̅̅̅ + 𝒕𝜶 ] 𝑞𝑢𝑒𝑙𝑞𝑢𝑒 𝑠𝑜𝑖𝑡 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑑𝑒 𝑛 𝑠𝑖 𝑋 → 𝒩(𝜇 , 𝜎) 𝑒𝑡 𝜎 2 𝑒𝑠𝑡 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒.
√𝑛 √𝑛
𝐿𝑜𝑟𝑠𝑞𝑢𝑒 𝑛 > 30, 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑆𝑡𝑢𝑑𝑒𝑛𝑡 𝑐𝑜𝑛𝑣𝑒𝑟𝑔𝑒 𝑣𝑒𝑟𝑠 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒 , 𝑎𝑖𝑛𝑠𝑖
𝒕𝜶 (𝑛 − 1 𝑑𝑑𝑙) = 𝒕𝜶 ( 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒).
𝑃𝑜𝑢𝑟 𝑢𝑛 𝑟𝑖𝑠𝑞𝑢𝑒 𝛼 = 0,05, 𝑜𝑛 𝑎 𝑙𝑒 𝑡𝑎𝑏𝑙𝑒𝑎𝑢 𝑠𝑢𝑖𝑣𝑎𝑛𝑡𝑠:

𝑇𝑎𝑖𝑙𝑙𝑒 𝑑𝑒 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝐸𝑐𝑎𝑟𝑡 − 𝑟é𝑑𝑢𝑖𝑡 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑑𝑒 𝑆𝑡𝑢𝑑𝑒𝑛𝑡


𝑛 = 10 𝒕𝜶 = 𝟏, 𝟗𝟔𝟎
𝒕𝜶 = 𝟐, 𝟐𝟐𝟖
𝑛 = 20 𝒕𝜶 = 𝟏, 𝟗𝟔𝟎
𝒕𝜶 = 𝟐, 𝟎𝟖𝟔
𝑛 = 30 𝒕𝜶 = 𝟏, 𝟗𝟔𝟎 𝒕𝜶 = 𝟐, 𝟎𝟒𝟐
𝒕𝜶 = 𝟏, 𝟗𝟔𝟎
𝑛 = 40 𝒕𝜶 = 𝟏, 𝟗𝟔𝟎

5
𝑬𝒙𝒆𝒎𝒑𝒍𝒆
𝑃𝑜𝑢𝑟 𝑛 = 10, 𝑎𝑣𝑒𝑐 𝑢𝑛 𝑛𝑖𝑣𝑒𝑎𝑢 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑑𝑒 95 % 𝑒𝑡 𝑢𝑛 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑠𝑦𝑚é𝑡𝑟𝑖𝑞𝑢𝑒 , 𝑜𝑛 𝑜𝑏𝑡𝑖𝑒𝑛𝑡 𝑙 ′ 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒

√𝑆̂
𝑛
2 √𝑆̂𝑛2
̅̅̅𝑛̅ − 2,228
𝑋 ̅̅̅𝑛̅ + 2,228
;𝑋 .
√𝑛 √𝑛
[ ]
𝑹𝒆𝒎𝒂𝒓𝒒𝒖𝒆
𝐿′ 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑒𝑠𝑡 𝑝𝑙𝑢𝑠 𝑔𝑟𝑎𝑛𝑑 𝑞𝑢𝑒 𝑐𝑒𝑙𝑢𝑖 𝑜𝑏𝑡𝑒𝑛𝑢 𝑙𝑜𝑟𝑠𝑞𝑢′ 𝑜𝑛 𝑐𝑜𝑛𝑛𝑎î𝑡 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒.
𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏
𝑫𝒂𝒏𝒔 𝒖𝒏 é𝒄𝒉𝒂𝒏𝒕𝒊𝒍𝒍𝒐𝒏 𝒅𝒆 𝟐𝟎 é𝒕𝒖𝒅𝒊𝒂𝒏𝒕𝒔 𝒅𝒆 𝒎ê𝒎𝒆 𝒄𝒍𝒂𝒔𝒔𝒆 𝒅′ â𝒈𝒆 𝒆𝒕 𝒅𝒆 𝒎ê𝒎𝒆 𝒔𝒆𝒙𝒆, 𝒍𝒂 𝒕𝒂𝒊𝒍𝒍𝒆 𝒎𝒐𝒚𝒆𝒏𝒏𝒆
𝒐𝒃𝒔𝒆𝒓𝒗é𝒆 𝒆𝒔𝒕 𝒅𝒆 𝟏, 𝟕𝟑 𝒎 𝒆𝒕 𝒍′ é𝒄𝒂𝒓𝒕 − 𝒕𝒚𝒑𝒆 𝒅𝒆 𝟏𝟎 𝒄𝒎.
𝟏) 𝑫é𝒕𝒆𝒓𝒎𝒊𝒏𝒆𝒓 𝒍𝒂 𝒕𝒂𝒊𝒍𝒍𝒆 𝒎𝒐𝒚𝒆𝒏𝒏𝒆 𝒅𝒆 𝒍′ 𝒆𝒏𝒔𝒆𝒎𝒃𝒍𝒆 𝒅𝒆𝒔 é𝒕𝒖𝒅𝒊𝒂𝒏𝒕𝒔 𝒅𝒆 𝒍′ 𝒖𝒏𝒊𝒗𝒆𝒓𝒔𝒊𝒕é.

̂𝟐 = 𝒏 𝟐𝟎
̅ = 𝟏, 𝟕𝟑 , 𝝈
𝑶𝒏 𝒂 ∶ 𝒙 𝑺𝟐 = × 𝟎, 𝟏𝟐 = 𝟎, 𝟎𝟏𝟏 𝒆𝒕 𝒕𝜶 = 𝟐, 𝟎𝟖𝟔.
𝒏−𝟏 𝟏𝟗

𝝈
̂ 𝟎, 𝟎𝟏𝟏 𝝈
̂
𝑫𝒐𝒏𝒄 𝒕𝜶 = 𝟐, 𝟎𝟖𝟔 × √ ̅ ± 𝒕𝜶
= 𝟎, 𝟎𝟒𝟗, 𝒂𝒊𝒏𝒔𝒊 𝒎 = 𝝁 = 𝑿 = 𝟏, 𝟕𝟑 ± 𝟎, 𝟎𝟒𝟗.
√𝒏 𝟐𝟎 √𝒏

𝑷𝒂𝒓 𝒔𝒖𝒊𝒕𝒆 𝒍𝒂 𝒕𝒂𝒊𝒍𝒍𝒆 𝒎𝒐𝒚𝒆𝒏𝒏𝒆 𝒅𝒆𝒔 é𝒕𝒖𝒅𝒊𝒂𝒏𝒕𝒔 𝒅𝒂𝒏𝒔 𝒄𝒆𝒕𝒕𝒆 𝒑𝒐𝒑𝒖𝒍𝒂𝒕𝒊𝒐𝒏 𝒆𝒔𝒕 𝒄𝒐𝒎𝒑𝒓𝒊𝒔𝒆 𝒅𝒂𝒏𝒔 𝒍′ 𝒊𝒏𝒕𝒆𝒓𝒗𝒂𝒍𝒍𝒆
[ 𝟏, 𝟔𝟖 ; 𝟏, 𝟕𝟖] 𝒂𝒗𝒆𝒄 𝒖𝒏𝒆 𝒑𝒓𝒐𝒃𝒂𝒃𝒊𝒍𝒊𝒕é 𝒅𝒆 𝟎, 𝟗𝟓.
𝟐) 𝑹𝒆𝒑𝒓𝒆𝒏𝒅𝒓𝒆 𝒍′ 𝒆𝒙𝒆𝒎𝒑𝒍𝒆 𝒂𝒗𝒆𝒄 𝒏 = 𝟏𝟎𝟎.
𝑶𝒏 𝒂 ∶ 𝒏 = 𝟏𝟎𝟎 > 𝟑𝟎 , 𝒅𝒐𝒏𝒄 𝒄𝒐𝒏𝒗𝒆𝒓𝒈𝒆 𝒗𝒆𝒓𝒔 𝒖𝒏𝒆 𝒍𝒐𝒊 𝒏𝒐𝒓𝒎𝒂𝒍𝒆 𝒄𝒆𝒏𝒕𝒓é𝒆 𝒓é𝒅𝒖𝒊𝒕𝒆.

̂𝟐 = 𝒏 𝟏𝟎𝟎 𝝈
̂
𝑫𝒂𝒏𝒔 𝒄𝒆 𝒄𝒂𝒔, 𝝈 𝑺𝟐 = ̅ ± 𝒕𝜶
× 𝟎, 𝟏𝟐 = 𝟎, 𝟎𝟏 𝒆𝒕 𝒕𝜶 = 𝟏, 𝟗𝟔𝟎 𝒔𝒐𝒊𝒕 𝝁 = 𝑿 = 𝟏, 𝟕𝟑 ± 𝟎, 𝟎𝟐.
𝒏−𝟏 𝟗𝟗 √𝒏
𝑷𝒂𝒓 𝒔𝒖𝒊𝒕𝒆 𝒍𝒂 𝒕𝒂𝒊𝒍𝒍𝒆 𝒎𝒐𝒚𝒆𝒏𝒏𝒆 𝒅𝒆𝒔 é𝒕𝒖𝒅𝒊𝒂𝒏𝒕𝒔 𝒅𝒂𝒏𝒔 𝒄𝒆𝒕𝒕𝒆 𝒑𝒐𝒑𝒖𝒍𝒂𝒕𝒊𝒐𝒏 𝒆𝒔𝒕 𝒄𝒐𝒎𝒑𝒓𝒊𝒔𝒆 𝒅𝒂𝒏𝒔 𝒍′ 𝒊𝒏𝒕𝒆𝒓𝒗𝒂𝒍𝒍𝒆
[ 𝟏, 𝟕𝟏 ; 𝟏, 𝟕𝟓] 𝒂𝒗𝒆𝒄 𝒖𝒏𝒆 𝒑𝒓𝒐𝒃𝒂𝒃𝒊𝒍𝒊𝒕é 𝒅𝒆 𝟎, 𝟗𝟓.

6
𝒅) 𝑬𝒔𝒕𝒊𝒎𝒂𝒕𝒆𝒖𝒓 𝒅′ 𝒖𝒏 é𝒄𝒂𝒓𝒕 − 𝒕𝒚𝒑𝒆
𝑳𝒐𝒓𝒔𝒒𝒖𝒆 𝒍𝒂 𝒎𝒐𝒚𝒆𝒏𝒏𝒆 𝒆𝒔𝒕 𝒄𝒐𝒏𝒏𝒖𝒆
𝐿𝑜𝑟𝑠𝑞𝑢𝑒 𝑚 𝑒𝑠𝑡 𝑐𝑜𝑛𝑛𝑢 , 𝑢𝑛 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑎𝑢 𝑛𝑖𝑣𝑒𝑎𝑢 1 − 𝛼 𝑒𝑠𝑡 ∶
𝑛 𝑛
1 1 𝛼 𝛼
[ ∑(𝑋𝑘 − 𝑚)2 , ∑(𝑋𝑘 − 𝑚)2 ] 𝑜ù 𝑢1 𝑒𝑡 𝑢2 𝑠𝑜𝑛𝑡 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒𝑠 𝑑′ 𝑜𝑟𝑑𝑟𝑒 𝑒𝑡 1 − 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒
𝑢2 𝑢1 2 2
𝑘=1 𝑘=1

𝜒 2 à 𝜈 = 𝑛 𝑑𝑒𝑔𝑟é𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡é.
𝑃𝑟𝑒𝑢𝑣𝑒
𝑛
2
𝑋𝑘 − 𝑚 𝑋𝑘 − 𝑚 2
𝑆𝑖 𝑋𝑘 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝒩 (𝑚 , 𝜎 ), 𝑎𝑙𝑜𝑟𝑠 𝑠𝑢𝑖𝑡 𝑙𝑎 𝑙𝑜𝑖 𝒩 (0 , 1) 𝑒𝑡 𝑝𝑎𝑟 𝑐𝑜𝑛𝑠é𝑞𝑢𝑒𝑛𝑡 ∑ ( ) 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒
𝜎 𝜎
𝑘=1

𝑙𝑜𝑖 𝑑𝑒 𝜒 2 à 𝑛 𝑑𝑒𝑔𝑟é𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡é .


𝛼 𝛼
𝑂𝑛 𝑑é𝑓𝑖𝑛𝑖𝑡 𝑎𝑙𝑜𝑟𝑠 𝑢1 𝑒𝑡 𝑢2 𝑡𝑒𝑙𝑠 𝑞𝑢𝑒 𝑃(𝜒 2 ≤ 𝑢1 ) = 𝑒𝑡 𝑃(𝜒 2 ≥ 𝑢2 ) = 𝑒𝑡 𝑑𝑜𝑛𝑐
2 2
𝑛 𝑛 𝑛
1 1 1
𝑃 (𝑢1 ≤ 2 ∑(𝑋𝑘 − 𝑚)2 ≤ 𝑢2 ) = 1 − 𝛼. 𝑃𝑎𝑟 𝑐𝑜𝑛𝑠é𝑞𝑢𝑒𝑛𝑡 𝑃 ( ∑(𝑋𝑘 − 𝑚)2 ≤ 𝜎 2 ≤ ∑(𝑋𝑘 − 𝑚)2 ).
𝜎 𝑢2 𝑢1
𝑘=1 𝑘=1 𝑘=1

𝑳𝒐𝒓𝒔𝒒𝒖𝒆 𝒍𝒂 𝒎𝒐𝒚𝒆𝒏𝒏𝒆 𝒆𝒔𝒕 𝒊𝒏𝒄𝒐𝒏𝒏𝒖𝒆


𝐿𝑜𝑟𝑠𝑞𝑢𝑒 𝑚 𝑒𝑠𝑡 𝑖𝑛𝑐𝑜𝑛𝑛𝑢 , 𝑢𝑛 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑎𝑢 𝑛𝑖𝑣𝑒𝑎𝑢 1 − 𝛼 𝑒𝑠𝑡 ∶
𝑛 𝑛
1 1 𝛼 𝛼
̅̅̅𝑛̅)2 ,
[ ∑(𝑋𝑘 − 𝑋 ̅̅̅𝑛̅)2 ] 𝑜ù 𝑢1 𝑒𝑡 𝑢2 𝑠𝑜𝑛𝑡 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒𝑠 𝑑 ′ 𝑜𝑟𝑑𝑟𝑒
∑(𝑋𝑘 − 𝑋 𝑒𝑡 1 − 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒
𝑢2 𝑢1 2 2
𝑘=1 𝑘=1

𝜒 2 à 𝜈 = 𝑛 − 1 𝑑𝑒𝑔𝑟é𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡é.
𝒆) 𝑪𝒐𝒎𝒑𝒂𝒓𝒂𝒊𝒔𝒐𝒏 𝒅𝒆 𝒎𝒐𝒚𝒆𝒏𝒏𝒆𝒔 𝒆𝒕 𝒅𝒆 𝒗𝒂𝒓𝒊𝒂𝒏𝒄𝒆𝒔

𝑆𝑜𝑖𝑒𝑛𝑡 (𝑋1 , 𝑋2 , ⋯ , 𝑋𝑛1 ) 𝑢𝑛 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑑′ 𝑢𝑛𝑒 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑠𝑢𝑖𝑣𝑎𝑛𝑡 𝑙𝑎 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝒩 (𝑚1 , 𝜎12 ) 𝑒𝑡

(𝑌1 , 𝑌2 , ⋯ , 𝑌𝑛2 ) 𝑢𝑛 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑑′ 𝑢𝑛𝑒 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑠𝑢𝑖𝑣𝑎𝑛𝑡 𝑙𝑎 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝒩 (𝑚2 , 𝜎22 ) 𝑒𝑡 𝑐𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠

𝑠𝑜𝑛𝑡 𝑠𝑢𝑝𝑝𝑜𝑠é𝑠 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑠.


𝑰𝒏𝒕𝒆𝒓𝒗𝒂𝒍𝒍𝒆 𝒅𝒆 𝒄𝒐𝒏𝒇𝒊𝒂𝒏𝒄𝒆 𝒅𝒆 𝒍𝒂 𝒅𝒊𝒇𝒇é𝒓𝒆𝒏𝒄𝒆 𝒅𝒆 𝒅𝒆𝒖𝒙 𝒎𝒐𝒚𝒆𝒏𝒏𝒆𝒔
𝑛1 𝑛2
1 1
𝑂𝑛 𝑝𝑜𝑠𝑒 ∶ 𝑋̅ = ∑ 𝑋𝑖 , 𝑌̅ = ∑ 𝑋𝑖 𝑒𝑡 𝐷 = 𝑋̅ − 𝑌̅ .
𝑛1 𝑛2
𝑖=1 𝑖=1

𝑷𝒓𝒐𝒑𝒐𝒔𝒊𝒕𝒊𝒐𝒏
𝐿′ 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑒𝑢𝑟 𝐷 𝑒𝑠𝑡 𝑢𝑛 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑒𝑢𝑟 𝑠𝑎𝑛𝑠 𝑏𝑖𝑎𝑖𝑠 𝑑𝑒 𝑚1 − 𝑚2 .

7
𝑻𝒉é𝒐𝒓è𝒎𝒆
𝑆𝑖 𝜎1 𝑒𝑡 𝜎2 𝑠𝑜𝑛𝑡 𝑐𝑜𝑛𝑛𝑢𝑒𝑠, 𝑎𝑙𝑜𝑟𝑠 𝑙 ′ 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑑𝑒 𝑚1 − 𝑚2 𝑎𝑢 𝑛𝑖𝑣𝑒𝑎𝑢 1 − 𝛼 𝑒𝑠𝑡

𝜎1 2 𝜎2 2 𝜎1 2 𝜎2 2 𝛼
[𝐷 − 𝑡1−𝛼 √ + , 𝐷 + 𝑡1−𝛼 √ + ] 𝑜ù 𝑡1−𝛼 𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑒 𝑙𝑒 𝑓𝑟𝑎𝑐𝑡𝑖𝑙𝑒 𝑑′ 𝑜𝑟𝑑𝑟𝑒 1 − 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖
2 𝑛1 𝑛2 2 𝑛1 𝑛2 2 2

𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒.


𝑻𝒉é𝒐𝒓è𝒎𝒆
𝑆𝑖 𝜎1 𝑒𝑡 𝜎2 𝑠𝑜𝑛𝑡 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒𝑠 𝑚𝑎𝑖𝑠 é𝑔𝑎𝑙𝑒𝑠, 𝑎𝑙𝑜𝑟𝑠 𝑙 ′ 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑑𝑒 𝑚1 − 𝑚2 𝑎𝑢 𝑛𝑖𝑣𝑒𝑎𝑢 1 − 𝛼 𝑒𝑠𝑡

𝑆𝑋,𝑌 2 𝑆𝑋,𝑌 2 𝑆𝑋,𝑌 2 𝑆𝑋,𝑌 2


[𝐷 − 𝑡𝑛 𝛼 √ + , 𝐷 + 𝑡𝑛 +𝑛 −2 ,1−𝛼 √ + ] 𝑜ù 𝑡𝑛 +𝑛 −2 ,1−𝛼 𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑒 𝑙𝑒
1 +𝑛2 −2 ,1− 2 𝑛1 𝑛2 1 2 2 𝑛1 𝑛2 1 2 2

𝛼
𝑓𝑟𝑎𝑐𝑡𝑖𝑙𝑒 𝑑′ 𝑜𝑟𝑑𝑟𝑒 1 − 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑆𝑡𝑢𝑑𝑒𝑛𝑡 à 𝑛1 + 𝑛2 − 2 𝑑𝑒𝑔𝑟é𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡é𝑠.
2
𝑻𝒉é𝒐𝒓è𝒎𝒆
𝑆𝑖 𝜎1 𝑒𝑡 𝜎2 𝑠𝑜𝑛𝑡 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒𝑠 𝑚𝑎𝑖𝑠 𝑛𝑜𝑛 𝑛é𝑐𝑒𝑠𝑠𝑎𝑖𝑟𝑒𝑚𝑒𝑛𝑡 é𝑔𝑎𝑙𝑒𝑠 à 𝑛1 = 𝑛2 = 𝑛 > 30, 𝑎𝑙𝑜𝑟𝑠 𝑢𝑛 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑒
𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑑𝑒 𝑚1 − 𝑚2 𝑎𝑢 𝑛𝑖𝑣𝑒𝑎𝑢 1 − 𝛼 𝑒𝑠𝑡

√ 𝑆̂ 2 ̂2
𝑛1 ,𝑋 + 𝑆𝑛2 ,𝑌 √ 𝑆̂ 2 ̂2
𝑛1 ,𝑋 + 𝑆𝑛2 ,𝑌
[𝐷 − 𝑡1−𝛼 , 𝐷 + 𝑡1−𝛼 ] 𝑜ù 𝑡1−𝛼 𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑒 𝑙𝑒 𝑓𝑟𝑎𝑐𝑡𝑖𝑙𝑒 𝑑 ′ 𝑜𝑟𝑑𝑟𝑒
2 𝑛 2 𝑛 2

𝛼
1− 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒.
2
𝑰𝒏𝒕𝒆𝒓𝒗𝒂𝒍𝒍𝒆 𝒅𝒆 𝒄𝒐𝒏𝒇𝒊𝒂𝒏𝒄𝒆 𝒅𝒖 𝒓𝒂𝒑𝒑𝒐𝒓𝒕 𝒅𝒆 𝒅𝒆𝒖𝒙 𝒗𝒂𝒓𝒊𝒂𝒏𝒄𝒆𝒔
𝜎1 2
𝑢𝑛 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝑎𝑢 𝑛𝑖𝑣𝑒𝑎𝑢 1 − 𝛼 𝑑𝑒 𝑒𝑠𝑡
𝜎2 2

1 𝑆̂
𝑛1 ,𝑋
2
1 𝑆̂
𝑛1 ,𝑋
2
[ , ] 𝑜ù 𝑙𝑒𝑠 𝑓𝑟𝑎𝑐𝑡𝑖𝑙𝑒𝑠 𝑠𝑜𝑛𝑡 𝑐𝑒𝑢𝑥 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒
𝑓𝑛
1 −1 ,𝑛2 −1 , 1−
𝛼
2
𝑆̂
𝑛 ,𝑌
2
2 𝑓𝑛
1 −1 ,𝑛2 −1 , 1−
𝛼
2
𝑆̂2
𝑛2 ,𝑌

𝐹𝑖𝑠ℎ𝑒𝑟 − 𝑆𝑛𝑒𝑑𝑒𝑐𝑜𝑟 ℱ (𝑛1 − 1 , 𝑛2 − 1 ).

8
𝑰𝑰𝑰 − 𝑳𝒆𝒔 𝒕𝒆𝒔𝒕𝒔 𝒔𝒕𝒂𝒕𝒊𝒔𝒕𝒊𝒒𝒖𝒆𝒔 ( 𝟓𝒉 )
𝟏) 𝑵𝒐𝒕𝒊𝒐𝒏𝒔 𝒅𝒆 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏𝒔 , 𝒅𝒆 𝒓𝒊𝒔𝒒𝒖𝒆𝒔 , 𝒅𝒆 𝒕𝒆𝒔𝒕𝒔
𝐿𝑎 𝑑𝑒𝑠𝑐𝑟𝑖𝑝𝑡𝑖𝑜𝑛 𝑑𝑒 ′′𝑙 𝑎′′ 𝑟é𝑎𝑙𝑖𝑡é 𝑒𝑛 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑠𝑒 𝑓𝑎𝑖𝑡 à 𝑙 ′ 𝑎𝑖𝑑𝑒 𝑑𝑒 ′′𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 ′′ 𝑞𝑢𝑖 𝑠𝑜𝑛𝑡 𝑑𝑒𝑠 𝑐𝑜𝑙𝑜𝑛𝑛𝑒𝑠 𝑑𝑒
𝑣𝑎𝑙𝑒𝑢𝑟𝑠 𝑛𝑢𝑚é𝑟𝑖𝑞𝑢𝑒𝑠. 𝑂𝑛 𝑠𝑒 𝑝𝑜𝑠𝑒 𝑠𝑜𝑢𝑣𝑒𝑛𝑡 𝑙𝑎 𝑞𝑢𝑒𝑠𝑡𝑖𝑜𝑛 𝑑𝑒 𝑐𝑜𝑚𝑝𝑎𝑟𝑒𝑟 𝑐𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠, 𝑑𝑒 𝑡𝑒𝑠𝑡𝑒𝑟 𝑠𝑖 𝑒𝑙𝑙𝑒𝑠 𝑠𝑜𝑛𝑡
é𝑔𝑎𝑙𝑒𝑠 𝑜𝑢 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑡𝑒𝑠 , 𝑑𝑒 𝑠𝑎𝑣𝑜𝑖𝑟 𝑠𝑖 𝑜𝑛 𝑝𝑒𝑢𝑡 𝑐𝑜𝑛𝑠𝑖𝑑é𝑟𝑒𝑟 𝑞𝑢′ 𝑒𝑙𝑙𝑒𝑠 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑𝑒𝑛𝑡 𝑜𝑢 𝑛𝑜𝑛 à 𝑢𝑛𝑒 𝑚ê𝑚𝑒
𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛, 𝑠𝑖 𝑒𝑙𝑙𝑒𝑠 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑𝑒𝑛𝑡 à 𝑢𝑛𝑒 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛 𝑑𝑜𝑛𝑛é𝑒, 𝑠𝑖 𝑒𝑙𝑙𝑒𝑠 𝑠𝑜𝑛𝑡 𝑐𝑜𝑛𝑓𝑜𝑟𝑚𝑒𝑠 à 𝑢𝑛 𝑚𝑜𝑑è𝑙𝑒 𝑝𝑟é𝑐𝑖𝑠
𝑒𝑡𝑐, 𝑠𝑎𝑐ℎ𝑎𝑛𝑡 𝑞𝑢𝑒 𝑐𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑒𝑡 𝑙𝑒𝑢𝑟𝑠 𝑑𝑜𝑛𝑛é𝑒𝑠 𝑛𝑒 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑𝑒𝑛𝑡 𝑞𝑢′ à 𝑢𝑛 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑑𝑒 𝑣𝑎𝑙𝑒𝑢𝑟𝑠.
𝐸𝑡𝑎𝑛𝑡 𝑑𝑜𝑛𝑛é 𝑞𝑢′ 𝑜𝑛 𝑛𝑒 𝑝𝑒𝑢𝑡 𝑗𝑎𝑚𝑎𝑖𝑠 ê𝑡𝑟𝑒 𝑠û𝑟 𝑞𝑢𝑒 𝑙𝑒 𝑟é𝑠𝑢𝑙𝑡𝑎𝑡 𝑑𝑒𝑠 𝑐𝑎𝑙𝑐𝑢𝑙𝑠 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑 à ′′𝑙 𝑎′′ 𝑟é𝑎𝑙𝑖𝑡é , 𝑙𝑒𝑠
𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑐𝑖𝑒𝑛𝑠 𝑒𝑡 𝑜𝑛𝑡 𝑑é𝑣𝑒𝑙𝑜𝑝𝑝é 𝑢𝑛 𝑐𝑎𝑑𝑟𝑒 𝑑′ 𝑎𝑛𝑎𝑙𝑦𝑠𝑒 𝑞𝑢𝑖 𝑝𝑒𝑟𝑚𝑒𝑡 𝑑𝑒 𝑝𝑟𝑒𝑛𝑑𝑟𝑒 𝑑𝑒 𝑡𝑒𝑙𝑙𝑒𝑠 𝑑é𝑐𝑖𝑠𝑖𝑜𝑛𝑠 𝑡𝑜𝑢𝑡 𝑒𝑛
𝑑𝑖𝑠𝑝𝑜𝑠𝑎𝑛𝑡 𝑑 ′ 𝑢𝑛𝑒 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑖𝑜𝑛 𝑑𝑢 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑𝑒 𝑐𝑒𝑠 𝑑é𝑐𝑖𝑠𝑖𝑜𝑛𝑠.

𝟐) 𝑳𝒆𝒔 𝒕𝒆𝒔𝒕𝒔 𝒅′ 𝒉𝒚𝒑𝒐𝒕𝒉è𝒔𝒆𝒔


𝑢𝑛 𝑡𝑒𝑠𝑡 𝑑′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑒𝑠𝑡 𝑢𝑛 𝑝𝑟𝑜𝑐é𝑑é 𝑑′ 𝑖𝑛𝑓é𝑟𝑒𝑛𝑐𝑒 𝑝𝑒𝑟𝑚𝑒𝑡𝑡𝑎𝑛𝑡 𝑑𝑒 𝑐𝑜𝑛𝑡𝑟ô𝑙𝑒𝑟 ( 𝑎𝑐𝑐𝑒𝑝𝑡𝑒𝑟 𝑜𝑢 𝑟𝑒𝑗𝑒𝑡𝑒𝑟 ) à 𝑝𝑎𝑟𝑡𝑖𝑟
𝑑𝑒 𝑙 ′ é𝑡𝑢𝑑𝑒 𝑑 ′ 𝑢𝑛 𝑜𝑢 𝑝𝑙𝑢𝑠𝑖𝑒𝑢𝑟𝑠 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒𝑠 , 𝑙𝑎 𝑣𝑎𝑙𝑖𝑑𝑖𝑡é 𝑑 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒𝑠 𝑟𝑒𝑙𝑎𝑡𝑖𝑣𝑒𝑠 à 𝑢𝑛𝑒 𝑜𝑢
𝑝𝑙𝑢𝑠𝑖𝑒𝑢𝑟𝑠 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠.
𝐿𝑒𝑠 𝑚é𝑡ℎ𝑜𝑑𝑒𝑠 𝑑𝑒 𝑙 ′ 𝑖𝑛𝑓é𝑟𝑒𝑛𝑐𝑒 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑛𝑜𝑢𝑠 𝑝𝑒𝑟𝑚𝑒𝑡𝑡𝑒𝑛𝑡 𝑑𝑒 𝑑é𝑡𝑒𝑟𝑚𝑖𝑛𝑒𝑟 , 𝑎𝑣𝑒𝑐 𝑢𝑛𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑑𝑜𝑛𝑛é𝑒,
𝑠𝑖 𝑙𝑒𝑠 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒𝑠 𝑐𝑜𝑛𝑠𝑡𝑎𝑡é𝑒𝑠 𝑎𝑢 𝑛𝑖𝑣𝑒𝑎𝑢 𝑑𝑒𝑠 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑝𝑒𝑢𝑣𝑒𝑛𝑡 ê𝑡𝑟𝑒 𝑖𝑚𝑝𝑢𝑡𝑎𝑏𝑙𝑒𝑠 𝑎𝑢 ℎ𝑎𝑠𝑎𝑟𝑑 𝑜𝑢 𝑠𝑖 𝑒𝑙𝑙𝑒𝑠
𝑠𝑜𝑛𝑡 𝑠𝑢𝑓𝑓𝑖𝑠𝑎𝑚𝑚𝑒𝑛𝑡 𝑖𝑚𝑝𝑜𝑟𝑡𝑎𝑛𝑡𝑒𝑠 𝑝𝑜𝑢𝑟 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑒𝑟 𝑞𝑢𝑒 𝑙𝑒𝑠 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑝𝑟𝑜𝑣𝑖𝑒𝑛𝑛𝑒𝑛𝑡 𝑑𝑒 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠
𝑣𝑟𝑎𝑖𝑠𝑒𝑚𝑏𝑙𝑎𝑏𝑙𝑒𝑚𝑒𝑛𝑡 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑡𝑒𝑠.
𝐿𝑒𝑠 𝑡𝑒𝑠𝑡𝑠 𝑑′ ℎ𝑦𝑝𝑜𝑦ℎè𝑠𝑒𝑠 𝑓𝑜𝑛𝑡 𝑎𝑝𝑝𝑒𝑙 à 𝑢𝑛 𝑐𝑒𝑟𝑡𝑎𝑖𝑛 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒𝑠 𝑐𝑜𝑛𝑐𝑒𝑟𝑛𝑎𝑛𝑡 𝑙𝑎 𝑛𝑎𝑡𝑢𝑟𝑒 𝑑𝑒 𝑙𝑎
𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑑𝑜𝑛𝑡 𝑝𝑟𝑜𝑣𝑖𝑒𝑛𝑡 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 ( 𝑛𝑜𝑟𝑚𝑎𝑙𝑖𝑡é 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 , é𝑔𝑎𝑙𝑖𝑡é 𝑑𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 , 𝑒𝑡𝑐 ).
𝐸𝑛 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛 𝑑𝑒 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑡𝑒𝑠𝑡é𝑒, 𝑝𝑙𝑢𝑠𝑖𝑒𝑢𝑟𝑠 𝑡𝑦𝑝𝑒𝑠 𝑑𝑒 𝑡𝑒𝑠𝑡𝑠 𝑝𝑒𝑢𝑣𝑒𝑛𝑡 ê𝑡𝑟𝑒 𝑟é𝑎𝑙𝑖𝑠é𝑠 ∶
∎ 𝐿𝑒𝑠 𝑡𝑒𝑠𝑡𝑠 𝑑𝑒𝑠𝑡𝑖𝑛é𝑠 è 𝑣é𝑟𝑖𝑓𝑖𝑒𝑟 𝑠𝑖 𝑢𝑛 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑝𝑒𝑢𝑡 ê𝑡𝑟𝑒 𝑐𝑜𝑛𝑠𝑖𝑑é𝑟é 𝑐𝑜𝑚𝑚𝑒 𝑒𝑥𝑡𝑟𝑎𝑖𝑡 𝑑 ′ 𝑢𝑛𝑒 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛
𝑑𝑜𝑛𝑛é𝑒 , 𝑣𝑖𝑠 − à − 𝑣𝑖𝑠 𝑑 ′ 𝑢𝑛 𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒 𝑐𝑜𝑚𝑚𝑒 𝑙𝑎 𝑚𝑜𝑦𝑒𝑛𝑛𝑒 𝑜𝑢 𝑙𝑎 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑜𝑏𝑠𝑒𝑟𝑣é𝑒 ( 𝑡𝑒𝑠𝑡 𝑑𝑒 𝑐𝑜𝑛
𝑓𝑜𝑟𝑚𝑖𝑡é ) 𝑜𝑢 𝑝𝑎𝑟 𝑟𝑎𝑝𝑝𝑜𝑟𝑡 à 𝑠𝑎 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛 𝑜𝑏𝑠𝑒𝑟𝑣é𝑒 ( 𝑡𝑒𝑠𝑡 𝑑 ′ 𝑎𝑗𝑢𝑠𝑡𝑒𝑚𝑒𝑛𝑡). 𝐷𝑎𝑛𝑠 𝑐𝑒 𝑐𝑎𝑠 , 𝑙𝑎 𝑙𝑜𝑖
𝑡ℎé𝑜𝑟𝑖𝑞𝑢𝑒 𝑑𝑢 𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒 𝑒𝑠𝑡 𝑐𝑜𝑛𝑛𝑢𝑒 𝑑𝑒 𝑙𝑎 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛.
∎ 𝐿𝑒𝑠 𝑡𝑒𝑠𝑡𝑠 𝑑𝑒𝑠𝑡𝑖𝑛é𝑠 à 𝑐𝑜𝑚𝑝𝑎𝑟𝑒𝑟 𝑝𝑙𝑢𝑠𝑖𝑒𝑢𝑟𝑠 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 à 𝑙 ′ 𝑎𝑖𝑑𝑒 𝑑 ′ 𝑢𝑛 𝑛𝑜𝑚𝑏𝑟𝑒 é𝑞𝑢𝑖𝑣𝑎𝑙𝑒𝑛𝑡 𝑑′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠
( 𝑡𝑒𝑠𝑡𝑠 𝑑′ é𝑔𝑎𝑙𝑖𝑡é 𝑜𝑢 𝑑 ′ ℎ𝑜𝑚𝑜𝑔é𝑛é𝑖𝑡é )𝑠𝑜𝑛𝑡𝑙𝑒𝑠 𝑝𝑙𝑢𝑠 𝑐𝑜𝑢𝑟𝑎𝑚𝑚𝑒𝑛𝑡 𝑢𝑡𝑖𝑙𝑖𝑠é𝑠. 𝐷𝑎𝑛𝑠 𝑐𝑒 𝑐𝑎𝑠 , 𝑙𝑎 𝑙𝑜𝑖 𝑡ℎé𝑜𝑟𝑖𝑞𝑢𝑒 𝑒𝑠𝑡
𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒 𝑎𝑢 𝑛𝑖𝑣𝑒𝑎𝑢 𝑑𝑒𝑠 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠. 𝑂𝑛 𝑝𝑒𝑢𝑡 𝑎𝑗𝑜𝑢𝑡𝑒𝑟 à 𝑐𝑒𝑡𝑡𝑒 𝑐𝑎𝑡é𝑔𝑜𝑟𝑖𝑒 𝑙𝑒 𝑡𝑒𝑠𝑡 𝑑 ′ 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑐𝑒 𝑞𝑢𝑖 𝑐ℎ𝑒𝑟𝑐ℎ𝑒
à 𝑡𝑒𝑠𝑡𝑒𝑟 𝑙 ′ 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑐𝑒 𝑒𝑛𝑡𝑟𝑒 𝑑𝑒𝑢𝑥 𝑐𝑎𝑟𝑎𝑐𝑡è𝑟𝑒𝑠 , 𝑔é𝑛é𝑟𝑎𝑙𝑒𝑚𝑒𝑛𝑡 𝑞𝑢𝑎𝑙𝑖𝑡𝑎𝑡𝑖𝑓𝑠.

9
𝒂) 𝑷𝒓𝒊𝒏𝒄𝒊𝒑𝒆 𝒅𝒆𝒔 𝒕𝒆𝒔𝒕𝒔
𝐿𝑒 𝑝𝑟𝑖𝑛𝑐𝑖𝑝𝑒 𝑑𝑒𝑠 𝑡𝑒𝑠𝑡𝑠 𝑑′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒𝑠 𝑒𝑠𝑡 𝒅𝒆 𝒑𝒐𝒔𝒆𝒓 𝒖𝒏𝒆 𝒉𝒚𝒑𝒐𝒕𝒉è𝒔𝒆 𝒅𝒆 𝒕𝒓𝒂𝒗𝒂𝒊𝒍 𝑒𝑡 𝒅𝒆 𝒑𝒓é𝒅𝒊𝒓𝒆 𝒍𝒆𝒔
𝒄𝒐𝒏𝒔é𝒒𝒖𝒆𝒏𝒄𝒆𝒔 𝑑𝑒 𝑐𝑒𝑡𝑡𝑒 ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑝𝑜𝑢𝑟 𝑙𝑎 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑜𝑢 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛.
𝑂𝑛 𝑐𝑜𝑚𝑝𝑎𝑟𝑒 𝑐𝑒𝑠 𝑝𝑟é𝑑𝑖𝑐𝑡𝑖𝑜𝑛𝑠 𝑎𝑣𝑒𝑐 𝑙𝑒𝑠 𝑜𝑏𝑠𝑒𝑟𝑣𝑎𝑡𝑖𝑜𝑛𝑠 𝑒𝑡 𝑙 ′ 𝑜𝑛 𝑐𝑜𝑛𝑐𝑙𝑢𝑡 𝑒𝑛 𝑎𝑐𝑐𝑒𝑝𝑡𝑎𝑛𝑡 𝑜𝑢 𝑒𝑛 𝑟𝑒𝑗𝑒𝑡𝑎𝑛𝑡 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒
𝑑𝑒 𝑡𝑟𝑎𝑣𝑎𝑖𝑙 à 𝑝𝑎𝑟𝑡𝑖𝑟 𝑑𝑒 𝒓è𝒈𝒍𝒆𝒔 𝒅𝒆 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏𝒔 𝒐𝒃𝒋𝒆𝒄𝒕𝒊𝒗𝒆𝒔.
𝐷é𝑓𝑖𝑛𝑖𝑟 𝑙𝑒𝑠 ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒𝑠 𝑑𝑒 𝑡𝑟𝑎𝑣𝑎𝑖𝑙 , 𝑐𝑜𝑛𝑠𝑡𝑖𝑡𝑢𝑒 𝑢𝑛 é𝑙é𝑚𝑒𝑛𝑡 𝑒𝑠𝑠𝑒𝑛𝑡𝑖𝑒𝑙 𝑑𝑒𝑠 𝑡𝑒𝑠𝑡𝑠 𝑑 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒𝑠 𝑑𝑒 𝑚ê𝑚𝑒 𝑞𝑢𝑒
𝑣é𝑟𝑖𝑓𝑖𝑒𝑟 𝑙𝑒𝑠 𝑐𝑜𝑛𝑑𝑖𝑡𝑖𝑜𝑛𝑠 𝑑 ′ 𝑎𝑝𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑜𝑛𝑑𝑒 𝑐𝑒𝑠 𝑑𝑒𝑟𝑛𝑖è𝑟𝑒𝑠 ( 𝑛𝑜𝑟𝑚𝑎𝑙𝑖𝑡é 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 , é𝑔𝑎𝑙𝑖𝑡é 𝑑𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠
𝑜𝑢 ℎ𝑜𝑚𝑜𝑠𝑐é𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑡é , 𝑒𝑡𝑐 ).
𝐶𝑒𝑠 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑡𝑒𝑠 é𝑡𝑎𝑝𝑒𝑠 𝑑𝑜𝑖𝑣𝑒𝑛𝑡 ê𝑡𝑟𝑒 𝑠𝑢𝑖𝑣𝑖𝑒𝑠 𝑝𝑜𝑢𝑟 𝑡𝑒𝑠𝑡𝑒𝑟 𝑢𝑛𝑒 ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 ∶
∎ 𝑑é𝑓𝑖𝑛𝑖𝑟 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑛𝑢𝑙𝑙𝑒 𝑛𝑜𝑡é𝑒 𝐻0 à 𝑐𝑜𝑛𝑡𝑟ô𝑙𝑒𝑟 ,
∎ 𝑐ℎ𝑜𝑖𝑠𝑖𝑟 𝑢𝑛 𝑡𝑒𝑠𝑡 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑜𝑢 𝑢𝑛𝑒 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑝𝑜𝑢𝑟 𝑐𝑜𝑛𝑡𝑟ô𝑙𝑒𝑟 𝐻0 ,
∎ 𝑑é𝑓𝑖𝑛𝑖𝑟 𝑙𝑎 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛 𝑑𝑒 𝑙𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑠𝑜𝑢𝑠 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 ≪ 𝐻0 𝑒𝑠𝑡 𝑟é𝑎𝑙𝑖𝑠é𝑒 ≫,
∎ 𝑑é𝑓𝑖𝑛𝑖𝑟 𝑙𝑒 𝑛𝑖𝑣𝑒𝑎𝑢 𝑑𝑒 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑜𝑛 𝑑𝑢 𝑡𝑒𝑠𝑡 𝑜𝑢 𝑟é𝑔𝑖𝑜𝑛 𝑐𝑟𝑖𝑡𝑖𝑞𝑢𝑒 𝑛𝑜𝑡é𝑒 𝛼 ,
∎ 𝑐𝑎𝑙𝑐𝑢𝑙𝑒𝑟, à 𝑝𝑎𝑟𝑡𝑖𝑟 𝑑𝑒𝑠 𝑑𝑜𝑛𝑛é𝑒𝑠 𝑓𝑜𝑢𝑟𝑛𝑖𝑒𝑠 𝑝𝑎𝑟 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 , 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑑𝑒 𝑙𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒,
∎ 𝑝𝑟𝑒𝑛𝑑𝑟𝑒 𝑢𝑛𝑒 𝑑é𝑐𝑖𝑠𝑖𝑜𝑛 𝑐𝑜𝑛𝑐𝑒𝑟𝑛𝑎𝑛𝑡 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑝𝑜𝑠é𝑒 𝑒𝑡 𝑓𝑎𝑖𝑟𝑒 𝑢𝑛𝑒 𝑖𝑛𝑡𝑒𝑟𝑝𝑟é𝑡𝑎𝑡𝑖𝑜𝑛 .

𝒃) 𝑪𝒉𝒐𝒊𝒙 𝒅𝒆 𝒍′ 𝒉𝒚𝒑𝒐𝒕𝒉è𝒔𝒆 à 𝒕𝒆𝒔𝒕𝒆𝒓


𝑂𝑛 𝑑𝑖𝑠𝑡𝑖𝑛𝑔𝑢𝑒 𝑒𝑛 𝑔é𝑛é𝑟𝑎𝑙 𝑑𝑒𝑢𝑥 ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒𝑠 𝑠𝑒𝑢𝑙𝑒𝑚𝑒𝑛𝑡 ∶
¬ 𝑙𝑎 𝑝𝑟𝑒𝑚𝑖è𝑟𝑒, é𝑔𝑎𝑙𝑒𝑚𝑒𝑛𝑡 𝑛𝑜𝑚𝑚é𝑒 𝒉𝒚𝒑𝒐𝒕𝒉è𝒔𝒆 𝒏𝒖𝒍𝒍𝒆 𝐻0 𝑒𝑠𝑡 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑞𝑢𝑒 𝑙 ′ 𝑜𝑛 𝑑é𝑠𝑖𝑟𝑒 𝑐𝑜𝑛𝑡𝑟ô𝑙𝑒𝑟 ∶
𝑒𝑙𝑙𝑒 𝑐𝑜𝑛𝑠𝑖𝑠𝑡𝑒 à 𝑑𝑖𝑟𝑒 𝑞𝑢′ 𝑖𝑙 𝑛′ 𝑒𝑥𝑖𝑠𝑡𝑒 𝑝𝑎𝑠 𝑑𝑒 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒 𝑒𝑛𝑡𝑟𝑒 𝑙𝑒𝑠 𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒𝑠 𝑐𝑜𝑚𝑝𝑎𝑟é𝑠 𝑜𝑢 𝑞𝑢𝑒 𝑙𝑎
𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒 𝑜𝑏𝑠𝑒𝑟𝑣é𝑒 𝑛′ 𝑒𝑠𝑡 𝑝𝑎𝑠 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑒 𝑒𝑡 𝑒𝑠𝑡 𝑑𝑢𝑒 𝑎𝑢𝑥 𝑓𝑙𝑢𝑐𝑡𝑢𝑎𝑡𝑖𝑜𝑛𝑠 𝑑 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑛𝑎𝑔𝑒.
𝐶𝑒𝑡𝑡𝑒 ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑒𝑠𝑡 𝑓𝑜𝑟𝑚𝑢𝑙é𝑒 𝑑𝑎𝑛𝑠 𝑙𝑒 𝑏𝑢𝑡 𝑑 ′ ê𝑡𝑟𝑒 𝑟𝑒𝑗𝑒𝑡é𝑒.
¬ 𝑙𝑎 𝑠𝑒𝑐𝑜𝑛𝑑𝑒 , 𝑐𝑜𝑚𝑝𝑙é𝑚𝑒𝑛𝑡𝑎𝑖𝑟𝑒 𝑑𝑒 𝑙𝑎 𝑝𝑟𝑒𝑚𝑖è𝑟𝑒 , 𝑟𝑒𝑔𝑟𝑜𝑢𝑝𝑎𝑛𝑡 𝑡𝑜𝑢𝑠 𝑙𝑒𝑠 𝑎𝑢𝑡𝑟𝑒𝑠 𝑐𝑎𝑠 , 𝑒𝑠𝑡 𝑛𝑜𝑚𝑚é𝑒 𝒉𝒚𝒑𝒐𝒕𝒉è𝒔𝒆
𝒂𝒍𝒕𝒆𝒓𝒏𝒂𝒕𝒊𝒗𝒆 𝑜𝑢 𝑐𝑜𝑛𝑡𝑟𝑒 ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻1 . 𝐸𝑙𝑙𝑒 𝑒𝑠𝑡 é𝑞𝑢𝑖𝑣𝑎𝑙𝑒𝑛𝑡𝑒 à 𝑑𝑖𝑟𝑒 ≪ 𝐻0 𝑒𝑠𝑡 𝑓𝑎𝑢𝑠𝑠𝑒 ≫.
𝐿𝑎 𝑑é𝑐𝑖𝑠𝑖𝑜𝑛 𝑑𝑒 𝑟𝑒𝑗𝑒𝑡𝑒𝑟 𝐻0 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑒 𝑞𝑢𝑒 𝐻1 𝑒𝑠𝑡 𝑟é𝑎𝑙𝑖𝑠é𝑒 𝑜𝑢 𝐻1 𝑒𝑠𝑡 𝑣𝑟𝑎𝑖𝑒.

10
𝑹𝒆𝒎𝒂𝒓𝒒𝒖𝒆𝒔

∎ 𝐼𝑙 𝑒𝑥𝑖𝑠𝑡𝑒 𝑢𝑛𝑒 𝑑𝑖𝑠𝑠𝑦𝑚é𝑡𝑟𝑖𝑒 𝑖𝑚𝑝𝑜𝑟𝑡𝑎𝑛𝑡𝑒 𝑑𝑎𝑛𝑠 𝑙𝑒𝑠 𝑐𝑜𝑛𝑐𝑙𝑢𝑠𝑖𝑜𝑛𝑠 𝑑𝑒𝑠 𝑡𝑒𝑠𝑡𝑠.

𝐸𝑛 𝑒𝑓𝑓𝑒𝑡 , 𝑙𝑎 𝑑é𝑐𝑖𝑠𝑖𝑜𝑛 𝑑′ 𝑎𝑐𝑐𝑒𝑝𝑡𝑒𝑟 𝐻0 𝑛′ 𝑒𝑠𝑡 𝑝𝑎𝑠 é𝑞𝑢𝑖𝑣𝑎𝑙𝑒𝑛𝑡 à ≪ 𝐻0 𝑒𝑠𝑡 𝑣𝑟𝑎𝑖𝑒 𝑒𝑡 𝐻1

𝑒𝑠𝑡 𝑓𝑎𝑢𝑠𝑠𝑒 ≫ . 𝐶𝑒𝑙𝑎 𝑡𝑟𝑎𝑑𝑢𝑖𝑡 𝑠𝑒𝑢𝑙𝑒𝑚𝑒𝑛𝑡 𝑙 ′ 𝑜𝑝𝑖𝑛𝑖𝑜𝑛 𝑠𝑒𝑙𝑜𝑛 𝑙𝑎𝑞𝑢𝑒𝑙𝑙𝑒 , 𝑖𝑙 𝑛′ 𝑦 𝑎 𝑝𝑎𝑠 𝑑 ′ é𝑣𝑖𝑑𝑒𝑛𝑐𝑒 𝑛𝑒𝑡𝑡𝑒 𝑝𝑜𝑢𝑟 𝑞𝑢𝑒

𝐻0 𝑠𝑜𝑖𝑡 𝑓𝑎𝑢𝑠𝑠𝑒.

∎ 𝑈𝑛 𝑡𝑒𝑠𝑡 𝑐𝑜𝑛𝑑𝑢𝑖𝑡 à 𝑟𝑒𝑗𝑒𝑡𝑒𝑟 𝑜𝑢 à 𝑛𝑒 𝑝𝑎𝑠 𝑟𝑒𝑗𝑒𝑡𝑒𝑟 𝑢𝑛𝑒 ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑛𝑢𝑙𝑙𝑒 𝑗𝑎𝑚𝑎𝑖𝑠 𝑙 ′ 𝑎𝑐𝑐𝑒𝑝𝑡𝑒𝑟 𝑑 ′ 𝑒𝑚𝑏𝑙é𝑒.

𝒄) 𝑻𝒆𝒔𝒕 𝒖𝒏𝒊𝒕𝒂𝒕é𝒓𝒂𝒍 𝒆𝒕 𝒕𝒆𝒔𝒕 𝒃𝒊𝒍𝒂𝒕é𝒓𝒂𝒍


𝑻𝒆𝒔𝒕 𝒃𝒊𝒍𝒂𝒕é𝒓𝒂𝒍
𝑇 𝑒𝑠𝑡 𝑏𝑖𝑙𝑎𝑡é𝑟𝑎𝑙 ∶ 𝐻0 ∶ 𝑝 = 𝑝0 𝑒𝑡 𝐻1 ∶ 𝑝 ≠ 𝑝0 .

𝐿𝑒 𝑡𝑒𝑠𝑡 𝑠𝑒𝑟𝑎 𝑏𝑖𝑙𝑎𝑡é𝑟𝑎𝑙 𝑐𝑎𝑟 𝑜𝑛 𝑐𝑜𝑛𝑠𝑖𝑑è𝑟𝑒 𝑞𝑢𝑒 𝑙𝑎 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑝 𝑝𝑒𝑢𝑡 ê𝑡𝑟𝑒 𝑠𝑢𝑝é𝑟𝑖𝑒𝑢𝑟𝑒 𝑜𝑢 𝑖𝑛𝑓é𝑟𝑖𝑒𝑢𝑟𝑒 à 𝑝0 .

𝛼
𝐿𝑎 𝑟é𝑔𝑖𝑜𝑛 𝑐𝑟𝑖𝑡𝑖𝑞𝑢𝑒 𝛼 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑 à 𝑢𝑛𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑑𝑒 𝑝𝑎𝑟𝑡 𝑒𝑡 𝑑 ′ 𝑎𝑢𝑡𝑟𝑒 𝑑𝑒 𝑙𝑎 𝑐𝑜𝑢𝑟𝑏𝑒.
2

𝑻𝒆𝒔𝒕 𝒖𝒏𝒊𝒍𝒂𝒕é𝒓𝒂𝒍
− 𝑇 𝑒𝑠𝑡 𝑢𝑛𝑖𝑙𝑎𝑡é𝑟𝑎𝑙 à 𝑔𝑎𝑢𝑐ℎ𝑒 ∶ 𝐻0 ∶ 𝑝 = 𝑝0 𝑒𝑡 𝐻1 ∶ 𝑝 < 𝑝0 .

− 𝑇 𝑒𝑠𝑡 𝑢𝑛𝑖𝑙𝑎𝑡é𝑟𝑎𝑙 à 𝑔𝑎𝑢𝑐ℎ𝑒 ∶ 𝐻0 ∶ 𝑝 = 𝑝0 𝑒𝑡 𝐻1 ∶ 𝑝 > 𝑝0 .

𝐿𝑒 𝑡𝑒𝑠𝑡 𝑠𝑒𝑟𝑎 𝑢𝑛𝑖𝑙𝑎𝑡é𝑟𝑎𝑙 𝑐𝑎𝑟 𝑜𝑛 𝑐𝑜𝑛𝑠𝑖𝑑è𝑟𝑒 𝑞𝑢𝑒 𝑙𝑎 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑝 𝑛𝑒 𝑝𝑒𝑢𝑡 ê𝑡𝑟𝑒 𝑞𝑢𝑒 𝑠𝑢𝑝é𝑟𝑖𝑒𝑢𝑟𝑒 𝑜𝑢 𝑖𝑛𝑓é𝑟𝑖𝑒𝑢𝑟𝑒
à 𝑝0 .
𝐿𝑎 𝑟é𝑔𝑖𝑜𝑛 𝑐𝑟𝑖𝑡𝑖𝑞𝑢𝑒 𝛼 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑 à 𝑢𝑛𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝛼.
𝒅) 𝑪𝒉𝒐𝒊𝒙 𝒅𝒖 𝒕𝒆𝒔𝒕 𝒔𝒕𝒂𝒕𝒊𝒔𝒕𝒊𝒒𝒖𝒆
𝐶𝑒 𝑐ℎ𝑜𝑖𝑥 𝑑é𝑝𝑒𝑛𝑑 𝑑𝑒 𝑙𝑎 𝑛𝑎𝑡𝑢𝑟𝑒 𝑑𝑒𝑠 𝑑𝑜𝑛𝑛é𝑒𝑠, 𝑑𝑢 𝑡𝑦𝑝𝑒 𝑑 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑞𝑢𝑒 𝑙 ′ 𝑜𝑛𝑑é𝑠𝑖𝑟𝑒 𝑐𝑜𝑛𝑡𝑟ô𝑙𝑒𝑟 , 𝑑𝑒𝑠
𝑎𝑓𝑓𝑖𝑟𝑚𝑎𝑡𝑖𝑜𝑛𝑠 𝑞𝑢𝑒 𝑙 ′ 𝑜𝑛 𝑝𝑒𝑢𝑡 𝑎𝑑𝑚𝑒𝑡𝑡𝑟𝑒 𝑐𝑜𝑛𝑐𝑒𝑟𝑛𝑎𝑛𝑡 𝑙𝑎 𝑛𝑎𝑡𝑢𝑟𝑒 𝑑𝑒𝑠 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 é𝑡𝑢𝑑𝑖é𝑒𝑠 ( 𝑛𝑜𝑟𝑚𝑎𝑙𝑖𝑡é ,
é𝑔𝑎𝑙𝑖𝑡é 𝑑𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠) 𝑒𝑡 𝑑 ′ 𝑎𝑢𝑡𝑟𝑒𝑠𝑐𝑟𝑖𝑡è𝑟𝑒𝑠 𝑞𝑢𝑒 𝑛𝑜𝑢𝑠 𝑝𝑟é𝑐𝑖𝑠𝑒𝑟𝑜𝑛𝑠.
𝑈𝑛 𝒕𝒆𝒔𝒕 𝒕𝒂𝒕𝒊𝒔𝒕𝒊𝒒𝒖𝒆 𝑜𝑢 𝑢𝑛 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑒𝑠𝑡 𝑢𝑛𝑒 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛 𝑑𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒𝑠 𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑎𝑛𝑡
𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑐𝑜𝑛𝑠𝑖𝑑é𝑟é𝑝𝑒𝑟𝑚𝑒𝑡 𝑑𝑒 𝑑𝑖𝑠𝑡𝑖𝑛𝑔𝑢𝑒𝑟 𝑒𝑛𝑡𝑟𝑒 𝐻0 𝑣𝑟𝑎𝑖𝑒 𝑜𝑢 𝐻0 𝑓𝑎𝑢𝑠𝑠𝑒.
𝐷𝑎𝑛𝑠 𝑙𝑎 𝑚𝑒𝑠𝑢𝑟𝑒 𝑜ù 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑠𝑢𝑖𝑣𝑖𝑒 𝑝𝑎𝑟 𝑙𝑒 𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒 𝑝0 𝑎𝑢 𝑛𝑖𝑣𝑒𝑎𝑢 𝑑𝑒 𝑙𝑎 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑒𝑛 𝑔é𝑛é𝑟𝑎𝑙
𝑒𝑠𝑡 𝑐𝑜𝑛𝑛𝑢𝑒 , 𝑜𝑛 𝑝𝑒𝑢𝑡 𝑎𝑖𝑛𝑠𝑖 é𝑡𝑎𝑏𝑙𝑖𝑟 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑑𝑒 𝑙𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑆 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 ∶ 𝑆 = 𝑝 − 𝑝0 .

11
𝒅) 𝑪𝒉𝒐𝒊𝒙 𝒅𝒆 𝒍𝒂 𝒓é𝒈𝒊𝒐𝒏 𝒄𝒓𝒊𝒕𝒊𝒒𝒖𝒆 𝒆𝒕 𝒓è𝒈𝒍𝒆 𝒅𝒆 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏
𝑹é𝒈𝒊𝒐𝒏 𝒄𝒓𝒊𝒕𝒊𝒒𝒖𝒆
𝐶𝑜𝑛𝑛𝑎𝑖𝑠𝑠𝑎𝑛𝑡 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑠𝑢𝑖𝑣𝑖𝑒 𝑝𝑎𝑟 𝑙𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑆 𝑠𝑜𝑢𝑠 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 , 𝑖𝑙 𝑒𝑠𝑡 𝑝𝑜𝑠𝑠𝑖𝑏𝑙𝑒 𝑑′ é𝑡𝑎𝑏𝑙𝑖𝑟
𝑢𝑛𝑒 𝒗𝒂𝒍𝒆𝒖𝒓 𝒔𝒆𝒖𝒊𝒍 , 𝑆𝑠𝑒𝑢𝑖𝑙 𝑑𝑒 𝑙𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑝𝑜𝑢𝑟 𝑢𝑛𝑟 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑑𝑜𝑛𝑛é𝑒 𝑎𝑝𝑝𝑒𝑙é𝑒 𝑙𝑒 𝑛𝑖𝑣𝑒𝑎𝑢 𝑑𝑒 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑜𝑛
𝑑𝑢 𝑡𝑒𝑠𝑡 ∶ 𝛼.
𝐿𝑎 𝒓é𝒈𝒊𝒐𝒏 𝒄𝒓𝒊𝒕𝒊𝒒𝒖𝒆 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑 à 𝑙 ′ 𝑒𝑛𝑠𝑒𝑚𝑏𝑙𝑒 𝑑𝑒𝑠 𝑣𝑎𝑙𝑒𝑢𝑟𝑠 𝑡𝑒𝑙𝑙𝑒𝑠 𝑞𝑢𝑒 ∶ 𝑆 > 𝑆𝑠𝑒𝑢𝑖𝑙 .
𝐿𝑒 𝑛𝑖𝑣𝑒𝑎𝑢 𝑑𝑒 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑜𝑛 𝑒𝑠𝑡 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 𝑃(𝑆 > 𝑆𝑠𝑒𝑢𝑖𝑙 ) = 𝛼 𝑎𝑣𝑒𝑐 𝑃(𝑆 ≤ 𝑆𝑠𝑒𝑢𝑖𝑙 ) = 1 − 𝛼.
𝑆𝑒𝑙𝑜𝑛 𝑙𝑎 𝑛𝑎𝑡𝑢𝑟𝑒 𝑢𝑛𝑖𝑙𝑎𝑡é𝑟𝑎𝑙 𝑑𝑢 𝑡𝑒𝑠𝑡 , 𝑙𝑎 𝑑é𝑓𝑖𝑛𝑖𝑡𝑖𝑜𝑛 𝑑𝑒 𝑙𝑎 𝑟é𝑔𝑖𝑜𝑛 𝑐𝑟𝑖𝑡𝑖𝑞𝑢𝑒 𝑣𝑎𝑟𝑖𝑒, 𝑑𝑜ù 𝑙𝑒 𝑡𝑎𝑏𝑙𝑒𝑎𝑢 𝑠𝑢𝑖𝑣𝑎𝑛𝑡 ∶

𝑇𝑒𝑠𝑡 𝑢𝑛𝑖𝑙𝑎𝑡é𝑟𝑎𝑙 𝑇𝑒𝑠𝑡 𝑏𝑖𝑙𝑎𝑡é𝑟𝑎𝑙


𝐻0 ∶ 𝑝 = 𝑝0 𝐻0 ∶ 𝑝 = 𝑝0

𝐻𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑒 𝐻1 ∶ 𝑝 > 𝑝0 𝐻1 ∶ 𝑝 < 𝑝0 𝐻1 ∶ 𝑝 ≠ 𝑝0

𝑉𝑎𝑙𝑒𝑢𝑟 𝑑𝑒 𝑆 𝑠𝑜𝑢𝑠 𝐻1
𝑆>0 𝑆<0 |𝑆| ≠ 0
𝑆 = 𝑝 − 𝑝0

𝑁𝑖𝑣𝑒𝑎𝑢 𝑑𝑒 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑜𝑛 𝛼 𝑃(𝑆 > 𝑆𝑠𝑒𝑢𝑖𝑙 ) = 𝛼 𝑃(𝑆 < 𝑆𝑠𝑒𝑢𝑖𝑙 ) = 𝛼 𝑃(|𝑆| > 𝑆𝑠𝑒𝑢𝑖𝑙 ) = 𝛼

𝑹è𝒈𝒍𝒆𝒔 𝒅𝒆 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏𝒔
𝐼𝑙 𝑒𝑥𝑖𝑠𝑡𝑒 𝑑𝑒𝑢𝑥 𝑠𝑡𝑟𝑎𝑡é𝑔𝑖𝑒𝑠 𝑝𝑜𝑢𝑟 𝑝𝑟𝑒𝑛𝑑𝑟𝑒 𝑢𝑛𝑒 𝑑é𝑐𝑖𝑠𝑖𝑜𝑛 𝑒𝑛 𝑐𝑒 𝑞𝑢𝑖 𝑐𝑜𝑛𝑐𝑒𝑟𝑛𝑒 𝑢𝑛 𝑡𝑒𝑠𝑡 𝑑 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒:
∎ 𝑙𝑎 𝑝𝑟𝑒𝑚𝑖è𝑟𝑒 𝑠𝑡𝑟𝑎𝑡é𝑔𝑖𝑒 𝑓𝑖𝑥𝑒 à 𝑝𝑟𝑖𝑜𝑟𝑖 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑑𝑢 𝑠𝑒𝑢𝑖𝑙 𝑑𝑒 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑜𝑛 ,
∎ 𝑙𝑎 𝑠𝑒𝑐𝑜𝑛𝑑𝑒 é𝑡𝑎𝑏𝑙𝑖𝑡 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑑𝑒 𝑙𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑐𝑟𝑖𝑡𝑖𝑞𝑢𝑒 𝛼𝑜𝑏𝑠 𝑎 𝑝𝑜𝑠𝑡𝑒𝑟𝑖𝑜𝑟𝑖.
𝑹è𝒈𝒍𝒆 𝒅𝒆 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏 𝟏
𝑆𝑜𝑢𝑠 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 ≪ 𝐻0 𝑒𝑠𝑡 𝑣𝑟𝑎𝑖𝑒 ≫ 𝑒𝑡 𝑝𝑜𝑢𝑟 𝑐𝑎𝑙𝑐𝑢𝑙𝑒𝑟 𝑢𝑛 𝑠𝑒𝑢𝑖𝑙 𝑑𝑒 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑜𝑛 𝛼 𝑓𝑖𝑥è ∶
∎ 𝑠𝑖 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑑𝑒 𝑙𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑆 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 ( 𝑆𝑜𝑏𝑠 )𝑒𝑠𝑡 𝑠𝑢𝑝é𝑟𝑖𝑒𝑢𝑟𝑒 à 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑠𝑒𝑢𝑖𝑙 (𝑆𝑠𝑒𝑢𝑖𝑙 ) , 𝑎𝑙𝑜𝑟𝑠
𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑟𝑒𝑗𝑒𝑡é𝑒 𝑎𝑢 𝑠𝑒𝑢𝑖𝑙 𝑑𝑒 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑 ′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 𝑒𝑡 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻1 𝑒𝑠𝑡 𝑎𝑐𝑐𝑒𝑝𝑡é𝑒.
∎ 𝑠𝑖 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑑𝑒 𝑙𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑆 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 ( 𝑆𝑜𝑏𝑠 )𝑒𝑠𝑡 𝑖𝑛𝑓é𝑟𝑖𝑒𝑢𝑟𝑒 𝑜𝑢 é𝑔𝑎𝑙𝑒 à 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑠𝑒𝑢𝑖𝑙 (𝑆𝑠𝑒𝑢𝑖𝑙 ) , 𝑎𝑙𝑜𝑟𝑠
𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑛𝑒 𝑝𝑒𝑢𝑡 ê𝑡𝑟𝑒 𝑟𝑒𝑗𝑒𝑡é𝑒.
𝑅𝑒𝑚𝑎𝑟𝑞𝑢𝑒
𝐿𝑒 𝑐ℎ𝑜𝑖𝑥 𝑑𝑢 𝑟𝑖𝑠𝑞𝑢𝑒 𝛼 𝑒𝑠𝑡 𝑙𝑖é 𝑎𝑢𝑥 𝑐𝑜𝑛𝑠é𝑞𝑢𝑒𝑛𝑐𝑒𝑠 𝑝𝑟𝑎𝑡𝑖𝑞𝑢𝑒𝑠 𝑑𝑒 𝑙𝑎 𝑑é𝑐𝑖𝑠𝑖𝑜𝑛 ∶

¬ 𝑠𝑖 𝑙𝑒𝑠 𝑐𝑜𝑛𝑠é𝑞𝑢𝑒𝑛𝑐𝑒𝑠 𝑠𝑜𝑛𝑡 𝑔𝑟𝑎𝑣𝑒𝑠 , 𝑜𝑛 𝑐ℎ𝑜𝑖𝑠𝑖𝑟𝑎 𝛼 = 1 % 𝑜𝑢 1 0⁄00

¬ 𝑠𝑖 𝑙𝑒 𝑑é𝑏𝑎𝑡 𝑒𝑠𝑡 𝑝𝑙𝑢𝑡ô𝑡 𝑎𝑐𝑎𝑑é𝑚𝑖𝑞𝑢𝑒 , 𝑜𝑛 𝑐ℎ𝑜𝑖𝑠𝑖𝑟𝑎 𝛼 = 5 % .

12
𝑹è𝒈𝒍𝒆 𝒅𝒆 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏 𝟐
𝐿𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑐𝑟𝑖𝑡𝑖𝑞𝑢𝑒 𝑑𝑒 𝛼 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 𝑃(𝑆 ≥ 𝑆𝑜𝑏𝑠 ) = 𝛼𝑜𝑏𝑠 𝑒𝑠𝑡 é𝑣𝑎𝑙𝑢é𝑒 ∶
∎ 𝑠𝑖 𝛼𝑜𝑏𝑠 = 0,05 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑎𝑐𝑐𝑒𝑝𝑡é𝑒 𝑐𝑎𝑟 𝑙𝑒 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑 ′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝑑𝑒 𝑟𝑒𝑗𝑒𝑡𝑒𝑟 𝐻0 , 𝑎𝑙𝑜𝑟𝑠 𝑞𝑢′ 𝑒𝑙𝑙𝑒 𝑒𝑠𝑡
𝑣𝑟𝑎𝑖𝑒 𝑒𝑠𝑡 𝑡𝑟𝑜𝑝 𝑖𝑚𝑝𝑜𝑟𝑡𝑎𝑛𝑡.
∎ 𝑠𝑖 𝛼𝑜𝑏𝑠 < 0,05 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑟𝑒𝑗𝑒𝑡é𝑒 𝑐𝑎𝑟 𝑙𝑒 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑 ′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝑑𝑒 𝑟𝑒𝑗𝑒𝑡𝑒𝑟 𝐻0 , 𝑎𝑙𝑜𝑟𝑠 𝑞𝑢′ 𝑒𝑙𝑙𝑒 𝑒𝑠𝑡
𝑣𝑟𝑎𝑖𝑒 𝑒𝑠𝑡 𝑡𝑟è𝑠 𝑓𝑎𝑖𝑏𝑙𝑒.

𝒆) 𝑹𝒊𝒔𝒒𝒖𝒆 𝒅′ 𝒆𝒓𝒓𝒆𝒖𝒓, 𝒑𝒖𝒊𝒔𝒔𝒂𝒏𝒄𝒆 𝒆𝒕 𝒓𝒐𝒃𝒖𝒔𝒕𝒆𝒔𝒔𝒆 𝒅′ 𝒖𝒏 𝒕𝒆𝒔𝒕


𝑹𝒊𝒔𝒒𝒖𝒆 𝒅′ 𝒆𝒓𝒓𝒆𝒖𝒓 𝒅𝒆 𝒑𝒓𝒆𝒎𝒊è𝒓𝒆 𝒆𝒔𝒑è𝒄𝒆 𝜶
𝐿𝑒 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 𝑒𝑠𝑡 𝑙𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑞𝑢𝑒 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑒𝑥𝑝é𝑟𝑖𝑚𝑒𝑛𝑡𝑎𝑙𝑒 𝑜𝑢 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 𝑑𝑒 𝑙𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑆
𝑎𝑝𝑝𝑎𝑟𝑡𝑖𝑒𝑛𝑛𝑒 à 𝑙𝑎 𝑟é𝑔𝑖𝑜𝑛 𝑐𝑟𝑖𝑡𝑖𝑞𝑢𝑒 𝑠𝑖 𝐻0 𝑒𝑠𝑡 𝑣𝑟𝑎𝑖𝑒. 𝐷𝑎𝑛𝑠 𝑐𝑒 𝑐𝑎𝑠, 𝐻0 𝑒𝑠𝑡 𝑟𝑒𝑗𝑒𝑡é𝑒 𝑒𝑡 𝐻1 𝑒𝑠𝑡 𝑐𝑜𝑛𝑠𝑖𝑑é𝑟é𝑒 𝑐𝑜𝑚𝑚𝑒
𝑣𝑟𝑎𝑖𝑒.
¬ 𝐿𝑒 𝑟𝑖𝑠𝑞𝑢𝑒 𝛼 𝑑𝑒 𝒑𝒓𝒆𝒎𝒊è𝒓𝒆 𝒆𝒔𝒑è𝒄𝒆 𝑒𝑠𝑡 𝑐𝑒𝑙𝑢𝑖 𝑑𝑒 𝑟𝑒𝑗𝑒𝑡𝑒𝑟 𝐻0 𝑎𝑙𝑜𝑟𝑠 𝑞𝑢′ 𝑒𝑙𝑙𝑒 𝑒𝑠𝑡 𝑣𝑟𝑎𝑖𝑒
𝛼 = 𝑃(𝑟𝑒𝑗𝑒𝑡𝑒𝑟 𝐻0 ⁄𝐻0 𝑣𝑟𝑎𝑖𝑒) 𝑜𝑢 𝑎𝑐𝑐𝑒𝑝𝑡𝑒𝑟 𝐻1 𝑎𝑙𝑜𝑟𝑠 𝑞𝑢′ 𝑒𝑙𝑙𝑒 𝑒𝑠𝑡 𝑓𝑎𝑢𝑠𝑠𝑒 𝛼 = 𝑃(𝑎𝑐𝑐𝑒𝑝𝑡𝑒𝑟 𝐻1 ⁄𝐻1 𝑓𝑎𝑢𝑠𝑠𝑒).
𝐿𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑑𝑢 𝑟𝑖𝑠𝑞𝑢𝑒 𝛼 𝑑𝑜𝑖𝑡 ê𝑡𝑟𝑒 𝑓𝑖𝑥é𝑒 à 𝑝𝑟𝑖𝑜𝑟𝑖 𝑝𝑎𝑟 𝑙 ′ 𝑒𝑥𝑝é𝑟𝑖𝑚𝑒𝑛𝑡𝑎𝑡𝑖𝑜𝑛 𝑒𝑡 𝑗𝑎𝑚𝑎𝑖𝑠 𝑒𝑛 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛 𝑑𝑒𝑠 𝑑𝑜𝑛𝑛é𝑒𝑠.
𝐶 ′ 𝑒𝑠𝑡 𝑢𝑛 𝑐𝑜𝑚𝑝𝑟𝑜𝑚𝑖𝑠 𝑒𝑛𝑡𝑟𝑒 𝑙𝑒 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑𝑒 𝑐𝑜𝑛𝑐𝑙𝑢𝑟𝑒 à 𝑡𝑜𝑟𝑡 𝑒𝑡 𝑙𝑎 𝑓𝑎𝑐𝑢𝑙𝑡é 𝑑𝑒 𝑐𝑜𝑛𝑐𝑙𝑢𝑟𝑒.
𝑹𝒆𝒎𝒂𝒓𝒒𝒖𝒆
𝑇𝑜𝑢𝑡𝑒𝑠 𝑐ℎ𝑜𝑠𝑒𝑠 é𝑡𝑎𝑛𝑡 é𝑔𝑎𝑙𝑒𝑠 𝑝𝑎𝑟 𝑎𝑖𝑙𝑙𝑒𝑢𝑟𝑠 , 𝑙𝑎 𝑟é𝑔𝑖𝑜𝑛 𝑐𝑟𝑖𝑡𝑖𝑞𝑢𝑒 𝑑𝑖𝑚𝑖𝑛𝑢𝑒 𝑙𝑜𝑟𝑠𝑞𝑢𝑒 𝛼 𝑑é𝑐𝑟𝑜𝑖𝑡 𝑒𝑡 𝑑𝑜𝑛𝑐 𝑜𝑛 𝑟𝑒𝑗𝑒𝑡𝑡𝑒
𝑚𝑜𝑖𝑛𝑠 𝑓𝑟é𝑞𝑢𝑒𝑚𝑚𝑒𝑛𝑡 𝐻0 . 𝐴 𝑣𝑜𝑢𝑙𝑜𝑖𝑟 𝑐𝑜𝑚𝑚𝑒𝑡𝑡𝑟𝑒 𝑚𝑜𝑖𝑛𝑠 𝑑 ′ 𝑒𝑟𝑟𝑒𝑢𝑟𝑠 , 𝑜𝑛 𝑐𝑜𝑛𝑐𝑙𝑢𝑡 𝑝𝑙𝑢𝑠 𝑟𝑎𝑟𝑒𝑚𝑒𝑛𝑡.
𝑬𝒙𝒆𝒎𝒑𝒍𝒆
𝑆𝑖 𝑙 ′ 𝑜𝑛 𝑐ℎ𝑒𝑟𝑐ℎ𝑒 à 𝑡𝑒𝑠𝑡𝑒𝑟 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑞𝑢′ 𝑢𝑛𝑒 𝑝𝑖è𝑐𝑒 𝑑𝑒 𝑚𝑜𝑛𝑛𝑎𝑖𝑒 𝑛′ 𝑒𝑠𝑡 𝑝𝑎𝑠 ≪ 𝑡𝑟𝑢𝑞𝑢é𝑒 ≫, 𝑛𝑜𝑢𝑠 𝑎𝑙𝑙𝑜𝑛𝑠
𝑎𝑑𝑜𝑝𝑡𝑒𝑟 𝑙𝑎 𝑟è𝑔𝑙𝑒 𝑑𝑒 𝑑é𝑐𝑖𝑠𝑖𝑜𝑛 𝑠𝑢𝑖𝑣𝑎𝑛𝑡𝑒 ∶
𝐻0 ∶ 𝑙𝑎 𝑝𝑖è𝑐𝑒 𝑛′ 𝑒𝑠𝑡 𝑝𝑎𝑠 𝑡𝑟𝑢𝑞𝑢é𝑒 𝑒𝑠𝑡 𝑎𝑐𝑐𝑒𝑝𝑡é𝑒 𝑋 ∈ [ 40 , 60 ] 𝑟𝑒𝑗𝑒𝑡é𝑒 𝑋 ∉ [ 40 , 60 ] 𝑑𝑜𝑛𝑐 𝑋 < 40 𝑜𝑢 𝑋 > 60
𝑎𝑣𝑒𝑐 ≪ 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑓𝑎𝑐𝑒𝑠 ≫ 𝑜𝑏𝑡𝑒𝑛𝑢𝑠 𝑒𝑛 𝑙𝑎𝑛ç𝑎𝑛𝑡 100 𝑓𝑜𝑖𝑠 𝑙𝑎 𝑝𝑖è𝑐𝑒.
𝑄𝑢𝑒𝑙 𝑒𝑠𝑡 𝑙𝑒 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑 ′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝑑𝑒 𝑝𝑟𝑒𝑚𝑖è𝑟𝑒 𝑒𝑠𝑝è𝑐𝑒 𝛼 𝑑𝑎𝑛𝑠 𝑐𝑒 𝑐𝑎𝑠 ?

13
𝑹𝒊𝒔𝒒𝒖𝒆 𝒅′ 𝒆𝒓𝒓𝒆𝒖𝒓 𝒅𝒆 𝒅𝒆𝒖𝒙𝒊è𝒎𝒆 𝒆𝒔𝒑è𝒄𝒆 𝜷
𝐿𝑒 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛽 𝑒𝑠𝑡 𝑙𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑞𝑢𝑒 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑒𝑥𝑝é𝑟𝑖𝑚𝑒𝑛𝑡𝑎𝑙𝑒 𝑜𝑢 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 𝑑𝑒 𝑙𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒
𝑛′ 𝑎𝑝𝑝𝑎𝑟𝑡𝑖𝑒𝑛𝑛𝑒 𝑝𝑎𝑠 à 𝑙𝑎 𝑟é𝑔𝑖𝑜𝑛 𝑐𝑟𝑖𝑡𝑖𝑞𝑢𝑒 𝑠𝑖 𝐻1 𝑒𝑠𝑡 𝑐𝑜𝑛𝑠𝑖𝑑é𝑟é𝑒 𝑐𝑜𝑚𝑚𝑒 𝑓𝑎𝑢𝑠𝑠𝑒.
𝐿𝑒 𝑟𝑖𝑠𝑞𝑢𝑒 𝛽 𝑑𝑒 𝑑𝑒𝑢𝑥𝑖è𝑚𝑒 𝑒𝑠𝑝è𝑐𝑒 𝑒𝑠𝑡 𝑐𝑒𝑙𝑢𝑖 𝑑′ 𝑎𝑐𝑐𝑒𝑝𝑡𝑒𝑟 𝐻0 𝑎𝑙𝑜𝑟𝑠 𝑞𝑢𝑒 ′ 𝑒𝑙𝑙𝑒 𝑒𝑠𝑡 𝑓𝑎𝑢𝑠𝑠𝑒
𝛽 = 𝑃(𝑎𝑐𝑐𝑒𝑝𝑡𝑒𝑟 𝐻0 ⁄ 𝐻0 𝑓𝑎𝑢𝑠𝑠𝑒 ) 𝑜𝑢 𝑃(𝑎𝑐𝑐𝑒𝑝𝑡𝑒𝑟 𝐻0 ⁄ 𝐻1 𝑣𝑟𝑎𝑖𝑒 ) 𝑜𝑢 𝑟𝑒𝑗𝑒𝑡𝑒𝑟 𝐻1 𝑎𝑙𝑜𝑟𝑠 𝑞𝑢′ 𝑒𝑙𝑙𝑒 𝑒𝑠𝑡 𝑣𝑟𝑎𝑖𝑒.
𝛽 = 𝑃(𝑟𝑒𝑗𝑒𝑡𝑒𝑟 𝐻1 ⁄ 𝐻1 𝑣𝑟𝑎𝑖𝑒 ).
𝑅𝑒𝑚𝑎𝑟𝑞𝑢𝑒
𝑃𝑜𝑢𝑟 𝑞𝑢𝑎𝑛𝑡𝑖𝑓𝑖𝑒𝑟 𝑙𝑒 𝑟𝑖𝑠𝑞𝑢𝑒 𝛽 , 𝑖𝑙 𝑓𝑎𝑢𝑡 𝑐𝑜𝑛𝑛𝑎î𝑡𝑟𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑑𝑒 𝑙𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑆 𝑠𝑜𝑢𝑠 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻1 .
𝐸𝑥𝑒𝑚𝑝𝑙𝑒
𝑆𝑖 𝑙 ′ 𝑜𝑛 𝑟𝑒𝑝𝑟𝑒𝑛𝑑 𝑙 ′ 𝑒𝑥𝑒𝑚𝑝𝑙𝑒 𝑝𝑟é𝑐é𝑑𝑒𝑛𝑡 𝑑𝑒 𝑙𝑎 𝑝𝑖è𝑐𝑒 𝑑𝑒 𝑚𝑜𝑛𝑛𝑎𝑖𝑒 , 𝑙𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑝 𝑑 ′ 𝑜𝑏𝑡𝑒𝑛𝑖𝑟 𝑓𝑎𝑐𝑒 𝑒𝑠𝑡 𝑑𝑒 0,6
𝑝𝑜𝑢𝑟 𝑢𝑛𝑒 𝑝𝑖è𝑐𝑒 𝑡𝑟𝑢𝑞𝑢é𝑒. 𝑆𝑖 𝑙 ′ 𝑜𝑛 𝑎𝑑𝑜𝑝𝑡𝑒 𝑡𝑜𝑢𝑗𝑜𝑢𝑟𝑠 𝑙𝑎 𝑚ê𝑚𝑒 𝑟è𝑔𝑙𝑒 𝑑𝑒 𝑑é𝑐𝑖𝑠𝑖𝑜𝑛 ∶
𝐻0 ∶ 𝑙𝑎 𝑝𝑖è𝑐𝑒 𝑛′ 𝑒𝑠𝑡 𝑝𝑎𝑠 𝑡𝑟𝑢𝑞𝑢é𝑒 𝑒𝑠𝑡
¬ 𝑎𝑐𝑐𝑒𝑝𝑡é𝑒 𝑠𝑖 𝑋 ∈ [ 40 , 60 ]
¬ 𝑟𝑒𝑗𝑒𝑡é𝑒 𝑠𝑖 𝑋 ∉ [ 40 , 60 ] 𝑑𝑜𝑛𝑐 𝑠𝑜𝑖𝑡 𝑋 < 40 𝑜𝑢 𝑋 > 60.
𝑎𝑣𝑒𝑐 𝑋 ≪ 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑓𝑎𝑐𝑒𝑠 ≫ 𝑜𝑏𝑡𝑒𝑛𝑢𝑒𝑠 𝑒𝑛 𝑙𝑎𝑛ç𝑎𝑛𝑡 100 𝑓𝑜𝑖𝑠 𝑙𝑎 𝑝𝑖è𝑐𝑒.
𝑄𝑢𝑒𝑙 𝑒𝑠𝑡 𝑙𝑒 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑 ′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝑑𝑒 𝑠𝑒𝑐𝑜𝑛𝑑𝑒 𝑒𝑠𝑝è𝑐𝑒 𝛽 𝑑𝑎𝑛𝑠 𝑐𝑒 𝑐𝑎𝑠 ?

𝒇) 𝑳𝒂 𝒑𝒖𝒊𝒔𝒔𝒂𝒏𝒄𝒆 𝒆𝒕 𝒍𝒂 𝒓𝒐𝒃𝒖𝒔𝒕𝒆𝒔𝒕𝒆 𝒅′ 𝒖𝒏 𝒕𝒆𝒔𝒕 (𝟏 − 𝜷)


𝐿𝑒𝑠 𝑡𝑒𝑠𝑡𝑠 𝑛𝑒 𝑠𝑜𝑛𝑡 𝑝𝑎𝑠 𝑓𝑎𝑖𝑡𝑠 𝑝𝑜𝑢𝑟 𝑑é𝑚𝑜𝑛𝑡𝑟𝑒𝑟 𝐻0 𝑚𝑎𝑖𝑠 𝑝𝑜𝑢𝑟 𝑟𝑒𝑗𝑒𝑡𝑒𝑟 𝐻0 . 𝐿′ 𝑎𝑝𝑡𝑖𝑡𝑢𝑑𝑒 𝑑 ′ 𝑢𝑛 𝑡𝑒𝑠𝑡 à 𝑟𝑒𝑗𝑒𝑡𝑒𝑟 𝐻0 𝑎𝑙𝑜𝑟𝑠
𝑞𝑢′ 𝑒𝑙𝑙𝑒 𝑒𝑠𝑡 𝑓𝑎𝑢𝑠𝑠𝑒 𝑐𝑜𝑛𝑠𝑡𝑖𝑡𝑢𝑒 𝒍𝒂 𝒑𝒖𝒊𝒔𝒔𝒂𝒏𝒄𝒆 𝒅𝒖 𝒕𝒆𝒔𝒕.
𝐿𝑎 𝑝𝑢𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑′ 𝑢𝑛 𝑡𝑒𝑠𝑡 𝑒𝑠𝑡 1 − 𝛽 = 𝑃(𝑟𝑒𝑗𝑒𝑡𝑒𝑟 𝐻0 ⁄ 𝐻0 𝑓𝑎𝑢𝑠𝑠𝑒 ) 𝑜𝑢 𝑃(𝑎𝑐𝑐𝑒𝑝𝑡𝑒𝑟 𝐻1 ⁄ 𝐻1 𝑣𝑟𝑎𝑖𝑒 ).
𝐿𝑎 𝑝𝑢𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑′ 𝑢𝑛 𝑡𝑒𝑠𝑡 𝑒𝑠𝑡 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛 𝑑𝑒 𝑙𝑎 𝑛𝑎𝑡𝑢𝑟𝑒 𝑑𝑒 𝐻1 .
𝑈𝑛 𝑡𝑒𝑠𝑡 𝑢𝑛𝑖𝑙𝑎𝑡é𝑟𝑎𝑙 𝑒𝑠𝑡 𝑝𝑙𝑢𝑠 𝑝𝑢𝑖𝑠𝑠𝑎𝑛𝑡 𝑞𝑢′ 𝑢𝑛 𝑡𝑒𝑠𝑡 𝑏𝑖𝑙𝑎𝑡é𝑟𝑎𝑙.
𝐿𝑎 𝑝𝑢𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑′ 𝑢𝑛 𝑡𝑒𝑠𝑡 𝑎𝑢𝑔𝑚𝑒𝑛𝑡𝑒 𝑎𝑣𝑒𝑐 𝑙𝑎 𝑡𝑎𝑖𝑙𝑙𝑒 𝑑𝑒 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑁 é𝑡𝑢𝑑𝑖é à 𝑣𝑎𝑙𝑒𝑢𝑟 𝑑𝑒 𝑎 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡.
𝐿𝑎 𝑝𝑢𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑′ 𝑢𝑛 𝑡𝑒𝑠𝑡 𝑑𝑖𝑚𝑖𝑛𝑢𝑒 𝑙𝑜𝑟𝑠𝑞𝑢𝑒 𝛼 𝑑𝑖𝑚𝑖𝑛𝑢𝑒.
𝐸𝑥𝑒𝑚𝑝𝑙𝑒
𝑆𝑖 𝑙 ′ 𝑜𝑛 𝑟𝑒𝑝𝑟𝑒𝑛𝑑 𝑙 ′ 𝑒𝑥𝑒𝑚𝑝𝑙𝑒 𝑝𝑟é𝑐é𝑑𝑒𝑛𝑡 𝑑𝑒 𝑙𝑎 𝑝𝑖è𝑐𝑒 𝑑𝑒 𝑚𝑜𝑛𝑛𝑎𝑖𝑒, 𝑐𝑎𝑙𝑐𝑢𝑙𝑒𝑟 𝑙𝑎 𝑝𝑢𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑𝑢 𝑡𝑒𝑠𝑡 𝑙𝑜𝑟𝑠𝑞𝑢𝑒 𝑙𝑎
𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑑′ 𝑜𝑏𝑡𝑒𝑛𝑖𝑟 𝑓𝑎𝑐𝑒 𝑒𝑠𝑡 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑣𝑒𝑚𝑒𝑛𝑡 0,3 − 0,4 − 0,6 − 0,7 − 0,8 𝑝𝑜𝑢𝑟 𝑢𝑛𝑒 𝑝𝑖è𝑐𝑒 𝑡𝑟𝑢𝑞𝑢é𝑒.
𝑄𝑢𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑡𝑒𝑧 − 𝑣𝑜𝑢𝑠 ?

14
𝐿𝑒𝑠 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑡𝑒𝑠 𝑠𝑖𝑡𝑢𝑎𝑡𝑖𝑜𝑛𝑠 𝑞𝑢𝑒 𝑙 ′ 𝑜𝑛 𝑝𝑒𝑢𝑡 𝑟𝑒𝑛𝑐𝑜𝑛𝑡𝑟𝑒𝑟 𝑑𝑎𝑛𝑠 𝑙𝑒 𝑐𝑎𝑑𝑟𝑒 𝑑𝑒𝑠 𝑡𝑒𝑠𝑡𝑠 𝑑′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒𝑠𝑜𝑛𝑡 𝑟é𝑠𝑢𝑚é𝑒𝑠
𝑑𝑎𝑛𝑠 𝑙𝑒 𝑡𝑎𝑏𝑙𝑒𝑎𝑢 𝑠𝑢𝑖𝑣𝑎𝑛𝑡 ∶

𝑅é𝑎𝑙𝑖𝑡é →
𝐻0 𝑒𝑠𝑡 𝑣𝑟𝑎𝑖𝑒 𝐻0 𝑒𝑠𝑡 𝑓𝑎𝑢𝑠𝑠𝑒
𝐷é𝑐𝑖𝑠𝑖𝑜𝑛 ↓

𝑀𝑎𝑛𝑞𝑢𝑒 𝑑𝑒 𝑝𝑢𝑖𝑠𝑠𝑎𝑛𝑐𝑒
𝑛𝑒 𝑝𝑎𝑠 𝑟𝑒𝑗𝑒𝑡𝑒𝑟 𝐻0 𝑐𝑜𝑟𝑟𝑒𝑐𝑡
𝑟𝑖𝑠𝑞𝑢𝑒 𝑑𝑒 𝑠𝑒𝑐𝑜𝑛𝑑𝑒 𝑒𝑠𝑝è𝑐𝑒 𝛽

𝑅𝑒𝑗𝑒𝑡 à 𝑡𝑜𝑟𝑡 𝑃𝑢𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑𝑢 𝑡𝑒𝑠𝑡


𝑟𝑒𝑗𝑒𝑡𝑒𝑟 𝐻0
𝑟𝑖𝑠𝑞𝑢𝑒 𝑑𝑒 𝑝𝑟𝑒𝑚𝑖è𝑟𝑒 𝑒𝑠𝑝è𝑐𝑒 1−𝛽

𝐿𝑎 𝑟𝑜𝑏𝑢𝑠𝑡𝑒𝑠𝑠𝑒 𝑑′ 𝑢𝑛𝑒 𝑡𝑒𝑐ℎ𝑛𝑖𝑞𝑢𝑒 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑒 𝑠𝑎 𝑠𝑒𝑛𝑠𝑖𝑏𝑖𝑙𝑖𝑡é à 𝑑𝑒𝑠 é𝑐𝑎𝑟𝑡𝑠 𝑎𝑢𝑥 ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒𝑠 𝑓𝑎𝑖𝑡𝑒𝑠.

15
𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏𝒔
𝑬𝑿𝑬𝑹𝑪𝑰𝑪𝑬 𝟏
𝑈𝑛𝑒 𝑚𝑎𝑐ℎ𝑖𝑛𝑒 𝑞𝑢𝑖 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛𝑛𝑒 𝑏𝑖𝑒𝑛 𝑝𝑟𝑜𝑑𝑢𝑖𝑡 90 % 𝑑 ′ 𝑎𝑟𝑡𝑖𝑐𝑙𝑒𝑠 𝑛𝑜𝑛 − 𝑑é𝑓𝑒𝑐𝑡𝑢𝑒𝑢𝑥. 𝑆𝑖 𝑙𝑒 𝑝𝑜𝑢𝑟𝑐𝑒𝑛𝑡𝑎𝑔𝑒 𝑒𝑠𝑡
𝑖𝑛𝑓é𝑟𝑖𝑒𝑢𝑟 à 90 %, 𝑎𝑙𝑜𝑟𝑠 𝑙𝑎 𝑚𝑎𝑐ℎ𝑖𝑛𝑒 𝑑𝑜𝑖𝑡 ê𝑡𝑟𝑒 𝑟é𝑝𝑎𝑟é𝑒.
𝑂𝑛 𝑝𝑟é𝑙è𝑣𝑒 100 𝑎𝑟𝑡𝑖𝑐𝑙𝑒𝑠 𝑎𝑢 ℎ𝑎𝑠𝑎𝑟𝑑 𝑑𝑎𝑛𝑠 𝑙𝑒 𝑙𝑜𝑡 𝑑𝑒 𝑝𝑟𝑜𝑑𝑢𝑐𝑡𝑖𝑜𝑛 , 𝑒𝑡 𝑜𝑛 𝑦 𝑡𝑟𝑜𝑢𝑣𝑒 87 𝑎𝑟𝑡𝑖𝑐𝑙𝑒𝑠 𝑎𝑐𝑐𝑒𝑝𝑡𝑎𝑏𝑙𝑒𝑠.
𝐴𝑢 𝑠𝑒𝑢𝑖𝑙 𝑑𝑒 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑜𝑛 𝛼 = 0,05 , 𝑙𝑎 𝑚𝑎𝑐ℎ𝑖𝑛𝑒 𝑑𝑜𝑖𝑡 − 𝑒𝑙𝑙𝑒 ê𝑡𝑟𝑒 𝑟é𝑝𝑎𝑟é𝑒 ?
𝑹é𝒔𝒐𝒍𝒖𝒕𝒊𝒐𝒏
𝑪𝒐𝒎𝒑𝒓𝒆𝒏𝒅𝒓𝒆 𝒍𝒆 𝒑𝒓𝒐𝒃𝒍è𝒎𝒆
𝑶𝒏 𝒇𝒂𝒊𝒕 𝒖𝒏 𝒕𝒆𝒔𝒕 𝒔𝒖𝒓 𝒍𝒂 𝒑𝒓𝒐𝒑𝒐𝒓𝒕𝒊𝒐𝒏 𝒑 𝒅′ 𝒂𝒓𝒕𝒊𝒄𝒍𝒆𝒔 𝒏𝒐𝒏 − 𝒅é𝒇𝒆𝒄𝒕𝒖𝒆𝒖𝒙. 𝑳𝒆 𝒕𝒆𝒔𝒕 à 𝒆𝒇𝒇𝒆𝒄𝒕𝒖𝒆𝒓 𝒆𝒔𝒕 𝒖𝒏
𝒕𝒆𝒔𝒕 𝒖𝒏𝒊𝒍𝒂𝒕é𝒓𝒂𝒍 à 𝒈𝒂𝒖𝒄𝒉𝒆. 𝑳𝒂 𝒑𝒓𝒐𝒑𝒐𝒓𝒕𝒊𝒐𝒏 𝒅′ 𝒂𝒓𝒕𝒊𝒄𝒍𝒆𝒔 𝒏𝒐𝒏 − 𝒅é𝒇𝒆𝒄𝒕𝒖𝒆𝒖𝒙 𝒏𝒆 𝒅𝒐𝒊𝒕 𝒑𝒂𝒔 ê𝒕𝒓𝒆
𝒊𝒏𝒇é𝒓𝒊𝒆𝒖𝒓𝒆 à 𝟗𝟎 %. 𝑩𝒊𝒆𝒏 é𝒗𝒊𝒅𝒆𝒎𝒎𝒆𝒏𝒕 , 𝒊𝒍 𝒏′ 𝒚 𝒂 𝒂𝒖𝒄𝒖𝒏 𝒐𝒃𝒔𝒕𝒂𝒄𝒍𝒆 à 𝒄𝒆 𝒒𝒖𝒆 𝒄𝒆𝒔 𝒎ê𝒎𝒆𝒔 𝒂𝒓𝒕𝒊𝒄𝒍𝒆𝒔 𝒔𝒐𝒊𝒆𝒏𝒕
𝒆𝒏 𝒑𝒍𝒖𝒔 𝒈𝒓𝒂𝒏𝒅𝒆 𝒑𝒓𝒐𝒑𝒐𝒓𝒕𝒊𝒐𝒏 𝒏𝒐𝒏 − 𝒅é𝒇𝒆𝒄𝒕𝒆𝒖𝒙.
𝑬𝒕𝒂𝒑𝒆 𝟏 ∶ 𝑭𝒐𝒓𝒎𝒖𝒍𝒂𝒕𝒊𝒐𝒏 𝒅𝒆 𝒍′ 𝒉𝒚𝒑𝒐𝒕𝒉è𝒔𝒆
𝑯𝟎 ∶ 𝒑 = 𝟗𝟎 % 𝒍𝒂 𝒎𝒂𝒄𝒉𝒊𝒏𝒆 𝒇𝒐𝒏𝒄𝒕𝒊𝒐𝒏𝒏𝒆 𝒃𝒊𝒆𝒏
𝑯𝟏 ∶ 𝒑 < 𝟗𝟎 % 𝒍𝒂 𝒎𝒂𝒄𝒉𝒊𝒏𝒆 𝒅𝒐𝒊𝒕 ê𝒕𝒓𝒆 𝒓é𝒑𝒂𝒓é𝒆
𝒕𝒆𝒔𝒕 𝒖𝒏𝒊𝒍𝒂𝒕é𝒓𝒂𝒍 à 𝒈𝒂𝒖𝒄𝒉𝒆
𝑬𝒕𝒂𝒑𝒆 𝟐 ∶ 𝑺𝒆𝒖𝒊𝒍 𝒅𝒆 𝒔𝒊𝒈𝒏𝒊𝒇𝒊𝒄𝒂𝒕𝒊𝒐𝒏
𝜶=𝟓%
𝑬𝒕𝒂𝒑𝒆 𝟑 ∶ 𝑪𝒉𝒐𝒊𝒙 𝒅𝒆 𝒍𝒂 𝒅𝒊𝒔𝒕𝒓𝒊𝒃𝒖𝒕𝒊𝒐𝒏
𝒏 = 𝟏𝟎𝟎 > 𝟑𝟎 , 𝒏𝒐𝒖𝒔 𝒖𝒕𝒊𝒍𝒊𝒔𝒆𝒓𝒐𝒏𝒔 𝒍𝒂 𝒍𝒐𝒊 𝒏𝒐𝒓𝒎𝒂𝒍𝒆.
𝑬𝒕𝒂𝒑𝒆 𝟒 ∶ 𝑹é𝒈𝒊𝒐𝒏 𝒄𝒓𝒊𝒕𝒊𝒒𝒖𝒆
𝑳𝒂 𝒓é𝒈𝒊𝒐𝒏 𝒑𝒐𝒖𝒓 𝒍𝒂𝒒𝒖𝒆𝒍𝒍𝒆 𝒐𝒏 𝒗𝒂 𝒓𝒆𝒋𝒆𝒕𝒆𝒓 𝒍𝒆 𝒕𝒆𝒔𝒕 𝒔𝒐𝒊𝒕 𝑷(𝑿 < 𝒕𝜶 ) = 𝟎, 𝟎𝟓 𝒄𝒆 𝒒𝒖𝒊 𝒔𝒊𝒈𝒏𝒊𝒇𝒊𝒆 𝒒𝒖𝒆 𝒁 𝒆𝒔𝒕
𝒏é𝒈𝒂𝒕𝒊𝒇.
𝑫𝒐𝒏𝒄 𝑷(𝑿 < 𝒕𝜶 ) = 𝟎, 𝟎𝟓 ⟺ 𝑷(𝑿 > −𝒕𝜶 ) = 𝟎, 𝟎𝟓
⟺ 𝑷(𝑿 < −𝒕𝜶 ) = 𝟏 − 𝟎, 𝟎𝟓
⟺ 𝑷(𝑿 < −𝒕𝜶 ) = 𝟎, 𝟗𝟓.
𝑷𝒂𝒓 𝒍𝒆𝒄𝒕𝒖𝒓𝒆 𝒅𝒆 𝒍𝒂 𝒕𝒂𝒃𝒍𝒆 , 𝒐𝒏 𝒂 ∶ 𝟎, 𝟗𝟒𝟗𝟓 < 𝟎, 𝟗𝟓𝟎𝟎 < 𝟎, 𝟗𝟓𝟎𝟓 𝒂𝒗𝒆𝒄 𝟏, 𝟔𝟒 < −𝒕𝜶 < 𝟏, 𝟔𝟓.
𝑷𝒂𝒓 𝒊𝒏𝒕𝒆𝒓𝒑𝒐𝒍𝒂𝒕𝒊𝒐𝒏 𝒍𝒊𝒏é𝒂𝒊𝒓𝒆 , 𝒐𝒏 𝒂 ∶ 𝒕𝜶 = −𝟏, 𝟔𝟒𝟓.
𝑳𝒂 𝒛𝒐𝒏𝒆 𝒅𝒆 𝒓𝒆𝒋𝒆𝒕 𝒆𝒔𝒕 𝒅𝒐𝒏𝒄 𝒕𝜶 < −𝟏, 𝟔𝟒𝟓.

16
𝑬𝒕𝒂𝒑𝒆 𝟓 ∶ 𝑹è𝒈𝒍𝒆 𝒅𝒆 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏
𝑳𝒂 𝒛𝒐𝒏𝒆 𝒅𝒆 𝒓𝒆𝒋𝒆𝒕 é𝒕𝒂𝒏𝒕 𝒕𝜶 < −𝟏, 𝟔𝟒𝟓 ∶
¬ 𝒔𝒊 𝒕𝜶 < −𝟏, 𝟔𝟒𝟓 , 𝒂𝒍𝒐𝒓𝒔 𝒍𝒂 𝒎𝒂𝒄𝒉𝒊𝒏𝒆 𝒏𝒆 𝒇𝒐𝒏𝒄𝒕𝒊𝒐𝒏𝒏𝒆 𝒑𝒂𝒔 𝒃𝒊𝒆𝒏,
¬ 𝒔𝒊 𝒕𝜶 ≥ −𝟏, 𝟔𝟒𝟓 , 𝒂𝒍𝒐𝒓𝒔 𝒍𝒂 𝒎𝒂𝒄𝒉𝒊𝒏𝒆 𝒇𝒐𝒏𝒄𝒕𝒊𝒐𝒏𝒏𝒆 𝒃𝒊𝒆𝒏.
𝑬𝒕𝒂𝒑𝒆 𝟔 ∶ 𝑪𝒂𝒍𝒄𝒖𝒍 𝒅𝒖 𝒓𝒂𝒑𝒑𝒐𝒓𝒕 𝒄𝒓𝒊𝒕𝒊𝒒𝒖𝒆

𝒑 − 𝒑𝟎 𝟎, 𝟗𝟎 (𝟏 − 𝟎, 𝟗𝟎) 𝒑𝟎 (𝟏 − 𝒑𝟎 ) 𝟎, 𝟖𝟕 − 𝟎, 𝟗𝟎
𝑹𝑪 = 𝒂𝒗𝒆𝒄 𝝈𝑭 = √ =√ = 𝟎, 𝟎𝟑 , 𝒅𝒐𝒏𝒄 𝑹𝑪 = = −𝟏.
𝝈𝑭 𝟏𝟎𝟎 𝒏 𝟎, 𝟎𝟑

𝑬𝒕𝒂𝒑𝒆 𝟕 ∶ 𝑫é𝒄𝒊𝒔𝒊𝒐𝒏
𝑹𝑪 = −𝟏 𝒏′ 𝒂𝒑𝒑𝒂𝒓𝒕𝒊𝒆𝒏𝒕 𝒑𝒂𝒔 à ]−∞ ; −𝟏, 𝟔𝟒𝟓 [ , 𝒐𝒏 𝒏𝒆 𝒑𝒆𝒖𝒕 𝒑𝒂𝒔 𝒓𝒆𝒋𝒆𝒕𝒆𝒓 𝒂𝒖 𝒔𝒆𝒖𝒊𝒍 𝒅𝒆 𝟓 % ,
𝒍′ 𝒉𝒚𝒑𝒐𝒕𝒉è𝒔𝒆 𝒏𝒖𝒍𝒍𝒆 𝒔𝒆𝒍𝒐𝒏 𝒍𝒂𝒒𝒖𝒆𝒍𝒍𝒆 𝟗 𝒂𝒓𝒕𝒊𝒄𝒍𝒆𝒔 𝒑𝒓𝒐𝒅𝒖𝒊𝒕𝒔 𝒔𝒖𝒓 𝟏𝟎 𝒏𝒆 𝒔𝒐𝒏𝒕 𝒑𝒂𝒔 𝒅é𝒇𝒆𝒄𝒕𝒖𝒆𝒖𝒙. 𝑳𝒂 𝒎𝒂𝒄𝒉𝒊𝒏𝒆
𝒏′ 𝒂 𝒑𝒂𝒔 𝒃𝒆𝒔𝒐𝒊𝒏 𝒅′ ê𝒕𝒓𝒆 𝒓é𝒑𝒂𝒓é𝒆 𝒐𝒖 𝒍𝒂 𝒎𝒂𝒄𝒉𝒊𝒏𝒆 𝒇𝒐𝒏𝒄𝒕𝒊𝒐𝒏𝒏𝒆 𝒃𝒊𝒆𝒏.

17
𝑬𝑿𝑬𝑹𝑪𝑰𝑪𝑬 𝟐
𝐿𝑒 𝑑é𝑝𝑙𝑖𝑎𝑛𝑡 𝑝𝑢𝑏𝑙𝑖𝑐𝑖𝑡𝑎𝑖𝑟𝑒 𝑑𝑒 𝑙 ′ 𝑒𝑛𝑡𝑟𝑒𝑝𝑟𝑖𝑠𝑒 𝑆𝐼𝑀 − 𝑆𝑃 𝑎𝑣𝑎𝑛𝑐𝑒 𝑢𝑛 𝑐𝑜û𝑡 𝑚𝑜𝑦𝑒𝑛 𝑑 ′ 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑢𝑙𝑡𝑎𝑡𝑖𝑜𝑛 𝑝𝑎𝑟 𝑐𝑙𝑖𝑒𝑛𝑡
𝑑𝑒 5.600 𝐹. 𝑈𝑛 𝑐𝑙𝑖𝑒𝑛𝑡 𝑑𝑒 𝑙𝑎 𝑓𝑖𝑟𝑚𝑒 𝑐𝑎𝑙𝑐𝑢𝑙𝑒 𝑙𝑒 𝑐𝑜û𝑡 𝑚𝑜𝑦𝑒𝑛 𝑑𝑒 𝑙𝑎 𝑐𝑜𝑛𝑠𝑢𝑙𝑡𝑎𝑡𝑖𝑜𝑛 𝑠𝑢𝑟 𝑙𝑎 𝑏𝑎𝑠𝑒 𝑑 ′ 𝑢𝑛 é𝑐ℎ𝑎𝑡𝑖𝑙𝑙𝑜𝑛
𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒 𝑑𝑒 36 𝑐𝑙𝑖𝑒𝑛𝑡𝑠, 𝑒𝑡 𝑡𝑟𝑜𝑢𝑣𝑒 5.750 𝐹 , 𝑎𝑣𝑒𝑐 𝑢𝑛 é𝑐𝑎𝑟𝑡 − 𝑡𝑦𝑝𝑒 𝑑𝑒 175 𝐹.
𝐼𝑙 𝑎𝑡𝑡𝑎𝑞𝑢𝑒 𝑙𝑎 𝑓𝑖𝑟𝑚𝑒 𝑝𝑜𝑢𝑟 𝑝𝑢𝑏𝑙𝑖𝑐𝑖𝑡é 𝑚𝑜𝑛𝑠𝑜𝑛𝑔è𝑟𝑒. 𝐴 − 𝑡 − 𝑖𝑙 𝑟𝑎𝑖𝑠𝑜𝑛 , 𝑠𝑖 𝑙 ′ 𝑜𝑛 𝑝𝑟𝑒𝑛𝑑 𝛼 = 5 %.
𝑹é𝒔𝒐𝒍𝒖𝒕𝒊𝒐𝒏
𝑪𝒐𝒎𝒑𝒓𝒆𝒏𝒅𝒓𝒆 𝒍𝒆 𝒑𝒓𝒐𝒃𝒍è𝒎𝒆
𝑰𝒍 𝒇𝒂𝒖𝒕 𝒄𝒐𝒎𝒑𝒓𝒆𝒏𝒅𝒓𝒆 𝒒𝒖𝒆 𝒍𝒆 𝒄𝒍𝒊𝒆𝒏𝒕 𝒏′ 𝒂𝒖𝒓𝒂 𝒂𝒖𝒄𝒖𝒏 𝒈𝒓𝒊𝒆𝒇 𝒑𝒂𝒓𝒕𝒊𝒄𝒖𝒍𝒊𝒆𝒓 𝒔𝒊 𝒍′ 𝒆𝒏𝒕𝒓𝒆𝒑𝒓𝒊𝒔𝒆𝒇𝒂𝒄𝒕𝒖𝒓𝒆 𝒔𝒆𝒔
𝒄𝒐𝒏𝒔𝒖𝒍𝒕𝒂𝒕𝒊𝒐𝒏𝒔 à 𝒖𝒏 𝒄𝒐û𝒕 𝒊𝒏𝒇é𝒓𝒊𝒆𝒖𝒓 à 𝒄𝒆𝒍𝒖𝒊 𝒊𝒏𝒅𝒊𝒒𝒖é 𝒑𝒂𝒓 𝒍𝒂 𝒇𝒊𝒓𝒎𝒆.
𝑰𝒍 𝒔′ 𝒂𝒈𝒊𝒕 𝒅𝒐𝒏𝒄 𝒅′ 𝒆𝒇𝒇𝒆𝒄𝒕𝒖𝒆𝒓 𝒖𝒏 𝒕𝒆𝒔𝒕 𝒖𝒏𝒊𝒍𝒂𝒕é𝒓𝒂𝒍 à 𝒅𝒓𝒐𝒊𝒕𝒆 𝒐ù 𝒍𝒂 𝒓é𝒈𝒊𝒐𝒏 𝒅𝒆 𝒓𝒆𝒋𝒆𝒕 𝒔𝒆 𝒕𝒓𝒐𝒖𝒗𝒆 𝒃𝒆𝒍 𝒆𝒕 𝒃𝒊𝒆𝒏
à 𝒅𝒓𝒐𝒊𝒕𝒆 𝒅𝒆 𝒍𝒂 𝒓é𝒈𝒊𝒐𝒏 𝒅′ 𝒂𝒄𝒄𝒆𝒑𝒕𝒂𝒕𝒊𝒐𝒏 ∶ 𝒍𝒆 𝒄𝒍𝒊𝒆𝒏𝒕 𝒄𝒉𝒆𝒓𝒄𝒉𝒆 𝒔𝒖𝒓𝒕𝒐𝒖𝒕 à 𝒅é𝒎𝒐𝒏𝒕𝒓𝒆𝒓 𝒒𝒖𝒆 𝒍𝒆𝒔 𝒑𝒓𝒊𝒙
𝒑𝒓𝒂𝒕𝒊𝒒𝒖é𝒔 𝒔𝒐𝒏𝒕 𝒑𝒍𝒖𝒔 é𝒍𝒆𝒗é𝒔 𝒒𝒖𝒆 𝒄𝒆𝒖𝒙 𝒊𝒏𝒅𝒊𝒒𝒖é𝒔 , 𝒄𝒐𝒎𝒎𝒆 𝒆𝒏 𝒂𝒕𝒕𝒆𝒔𝒕𝒆 𝒅′ 𝒂𝒊𝒍𝒍𝒆𝒖𝒓𝒔 𝒍𝒂 𝒎𝒐𝒚𝒆𝒏𝒏𝒆 𝒕𝒓𝒐𝒖𝒗é𝒆.

𝑬𝒕𝒂𝒑𝒆 𝟏 ∶ 𝑭𝒐𝒓𝒎𝒖𝒍𝒂𝒕𝒊𝒐𝒏 𝒅𝒆 𝒍′ 𝒉𝒚𝒑𝒐𝒕𝒉è𝒔𝒆


𝑯𝟎 ∶ 𝝁 = 𝟓. 𝟔𝟎𝟎 𝒊𝒍 𝒏′ 𝒂 𝒑𝒂𝒔 𝒓𝒂𝒊𝒔𝒐𝒏 𝒅′ 𝒂𝒕𝒕𝒂𝒒𝒖𝒆𝒓 𝒍𝒂 𝒇𝒊𝒓𝒎𝒆
𝑯𝟏 ∶ 𝝁 > 𝟓. 𝟔𝟎𝟎 𝒊𝒍 𝒂 𝒓𝒂𝒊𝒔𝒐𝒏 𝒅′ 𝒂𝒕𝒕𝒂𝒒𝒖𝒆𝒓 𝒍𝒂 𝒇𝒊𝒓𝒎𝒆
𝒕𝒆𝒔𝒕 𝒖𝒏𝒊𝒍𝒂𝒕é𝒓𝒂𝒍 à 𝒅𝒓𝒐𝒊𝒕𝒆
𝑬𝒕𝒂𝒑𝒆 𝟐 ∶ 𝑺𝒆𝒖𝒊𝒍 𝒅𝒆 𝒔𝒊𝒈𝒏𝒊𝒇𝒊𝒄𝒂𝒕𝒊𝒐𝒏
𝜶=𝟓%
𝑬𝒕𝒂𝒑𝒆 𝟑 ∶ 𝑪𝒉𝒐𝒊𝒙 𝒅𝒆 𝒍𝒂 𝒅𝒊𝒔𝒕𝒓𝒊𝒃𝒖𝒕𝒊𝒐𝒏
𝒏 = 𝟑𝟔 > 𝟑𝟎 , 𝒏𝒐𝒖𝒔 𝒖𝒕𝒊𝒍𝒊𝒔𝒆𝒓𝒐𝒏𝒔 𝒍𝒂 𝒍𝒐𝒊 𝒏𝒐𝒓𝒎𝒂𝒍𝒆.
𝑬𝒕𝒂𝒑𝒆 𝟒 ∶ 𝑹é𝒈𝒊𝒐𝒏 𝒄𝒓𝒊𝒕𝒊𝒒𝒖𝒆
𝑳𝒂 𝒓é𝒈𝒊𝒐𝒏 𝒑𝒐𝒖𝒓 𝒍𝒂𝒒𝒖𝒆𝒍𝒍𝒆 𝒐𝒏 𝒗𝒂 𝒓𝒆𝒋𝒆𝒕𝒆𝒓 𝒍𝒆 𝒕𝒆𝒔𝒕 𝒔𝒐𝒊𝒕 𝑷(𝑿 > 𝒕𝜶 ) = 𝟎, 𝟎𝟓 𝒔𝒐𝒊𝒕 𝑷(𝑿 < 𝒕𝜶 ) = 𝟎, 𝟗𝟓
𝑫𝒐𝒏𝒄 𝑷(𝑿 < 𝒕𝜶 ) = 𝟎, 𝟗𝟓 ⟺ 𝒕𝜶 = 𝟏, 𝟔𝟒𝟓 . 𝑳𝒂 𝒛𝒐𝒏𝒆 𝒅𝒆 𝒓𝒆𝒋𝒆𝒕 𝒆𝒔𝒕 𝒅𝒐𝒏𝒄 𝒕𝜶 > 𝟏, 𝟔𝟒𝟓.
𝑬𝒕𝒂𝒑𝒆 𝟓 ∶ 𝑹è𝒈𝒍𝒆 𝒅𝒆 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏
𝑳𝒂 𝒛𝒐𝒏𝒆 𝒅𝒆 𝒓𝒆𝒋𝒆𝒕 é𝒕𝒂𝒏𝒕 𝒕𝜶 > 𝟏, 𝟔𝟒𝟓 ∶
¬ 𝒔𝒊 𝒕𝜶 > 𝟏, 𝟔𝟒𝟓 , 𝒂𝒍𝒐𝒓𝒔 𝒍𝒆 𝒄𝒍𝒊𝒆𝒏𝒕 𝒏′ 𝒂 𝒑𝒂𝒔 𝒓𝒂𝒊𝒔𝒐𝒏 𝒅′ 𝒂𝒕𝒕𝒂𝒒𝒖𝒆𝒓 𝒍𝒂 𝒇𝒊𝒓𝒎𝒆 ,
¬ 𝒔𝒊 𝒕𝜶 < 𝟏, 𝟔𝟒𝟓 , 𝒂𝒍𝒐𝒓𝒔 𝒍𝒆 𝒄𝒍𝒊𝒆𝒏𝒕 𝒂 𝒓𝒂𝒊𝒔𝒐𝒏 𝒅′ 𝒂𝒕𝒕𝒂𝒒𝒖𝒆𝒓 𝒍𝒂 𝒇𝒊𝒓𝒎𝒆.

18
𝑬𝒕𝒂𝒑𝒆 𝟔 ∶ 𝑪𝒂𝒍𝒄𝒖𝒍 𝒅𝒖 𝒓𝒂𝒑𝒑𝒐𝒓𝒕 𝒄𝒓𝒊𝒕𝒊𝒒𝒖𝒆
𝝁 − 𝝁𝟎 𝝈 𝟏𝟕𝟓 𝟓𝟕𝟓𝟎 − 𝟓. 𝟔𝟎𝟎
𝑹𝑪 = 𝒂𝒗𝒆𝒄 𝝈
̂𝒙 = = = 𝟐𝟗, 𝟓𝟖 , 𝒅𝒐𝒏𝒄 𝑹𝑪 = = 𝟓, 𝟎𝟕.
𝝈
̂𝒙 √𝒏 − 𝟏 √𝟑𝟔 − 𝟏 𝟐𝟗, 𝟓𝟖
𝑬𝒕𝒂𝒑𝒆 𝟕 ∶ 𝑫é𝒄𝒊𝒔𝒊𝒐𝒏
𝑹𝑪 = 𝟓, 𝟎𝟕 𝒂𝒑𝒑𝒂𝒓𝒕𝒊𝒆𝒏𝒕 à ] 𝟏, 𝟔𝟒𝟓 ; +∞ [ , 𝒐𝒏 𝒓𝒆𝒋𝒆𝒕𝒕𝒆 𝒂𝒖 𝒔𝒆𝒖𝒊𝒍 𝒅𝒆 𝟓 % , 𝒍′ 𝒉𝒚𝒑𝒐𝒕𝒉è𝒔𝒆 𝒏𝒖𝒍𝒍𝒆 𝒔𝒆𝒍𝒐𝒏
𝒍𝒂𝒒𝒖𝒆𝒍𝒍𝒆 𝒍𝒆 𝒑𝒓𝒊𝒙 𝒎𝒐𝒚𝒆𝒏 𝒅′ 𝒖𝒏𝒆 𝒄𝒐𝒏𝒔𝒖𝒍𝒕𝒂𝒕𝒊𝒐𝒏 𝒔𝒆𝒓𝒂𝒊𝒕 é𝒈𝒂𝒍 à 𝟓. 𝟔𝟎𝟎 𝑭. 𝑳𝒆 𝒄𝒍𝒊𝒆𝒏𝒕 𝒂 𝒅𝒐𝒏𝒄 𝒓𝒂𝒊𝒔𝒐𝒏
𝒅′ 𝒂𝒕𝒕𝒂𝒖𝒒𝒆𝒓 𝒍𝒂 𝒇𝒊𝒓𝒎𝒆 𝒑𝒐𝒖𝒓 𝒑𝒖𝒃𝒍𝒊𝒄𝒊𝒕é 𝒎𝒆𝒏𝒔𝒐𝒏𝒈è𝒓𝒆 𝒔𝒖𝒓 𝒍𝒂 𝒃𝒂𝒔𝒆 𝒅𝒆𝒔 𝒊𝒏𝒇𝒐𝒓𝒎𝒂𝒕𝒊𝒐𝒏𝒔 𝒅𝒐𝒏𝒕 𝒊𝒍 𝒅𝒊𝒔𝒑𝒐𝒔𝒆.

19
𝟑) 𝑻𝒆𝒔𝒕 𝒅𝒆 𝒄𝒐𝒏𝒇𝒐𝒓𝒎𝒊𝒕é
𝐿𝑒𝑠 𝑡𝑒𝑠𝑡𝑠 𝑑𝑒 𝑐𝑜𝑚𝑓𝑜𝑟𝑚𝑖𝑡é 𝑠𝑜𝑛𝑡 𝑑𝑒𝑠𝑡𝑖𝑛é𝑠 à 𝑣é𝑟𝑖𝑓𝑖𝑒𝑟 𝑠𝑖 𝑢𝑛 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑝𝑒𝑢𝑡 ê𝑡𝑟𝑒 𝑐𝑜𝑛𝑠𝑖𝑑é𝑟é 𝑐𝑜𝑚𝑚𝑒 𝑒𝑥𝑡𝑟𝑎𝑖𝑡
𝑑′ 𝑢𝑛𝑒 𝑝𝑜𝑝𝑢𝑝𝑎𝑡𝑖𝑜𝑛 𝑑𝑜𝑛𝑛é𝑒 𝑜𝑢 𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑎𝑡𝑖𝑓 𝑑𝑒 𝑐𝑒𝑡𝑡𝑒 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 , 𝑣𝑖𝑠 − à − 𝑣𝑖𝑠 𝑑 ′ 𝑢𝑛 𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒 𝑐𝑜𝑚𝑚𝑒
𝑙𝑎 𝑚𝑜𝑦𝑒𝑛𝑛𝑒 , 𝑙𝑎 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑜𝑢 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒 𝑜𝑏𝑠𝑒𝑟𝑣é𝑒. 𝐶𝑒𝑐𝑖 𝑖𝑚𝑝𝑙𝑖𝑞𝑢𝑒 𝑞𝑢𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑡ℎé𝑜𝑟𝑖𝑞𝑢𝑒 𝑑𝑢 𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒 𝑒𝑠𝑡
𝑐𝑜𝑛𝑛𝑢𝑒 𝑎𝑢 𝑛𝑖𝑣𝑒𝑎𝑢 𝑑𝑒 𝑙𝑎 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛.
𝒂) 𝑪𝒐𝒎𝒑𝒂𝒓𝒂𝒊𝒔𝒐𝒏 𝒎𝒐𝒚𝒆𝒏𝒏𝒆 𝒐𝒃𝒔𝒆𝒓𝒗é𝒆 𝒆𝒕 𝒎𝒐𝒚𝒆𝒏𝒏𝒆 𝒕𝒉é𝒐𝒓𝒊𝒒𝒖𝒆
𝑷𝒓𝒊𝒏𝒄𝒊𝒑𝒆 𝒅𝒖 𝒕𝒆𝒔𝒕
𝑆𝑜𝑖𝑡 𝑋 , 𝑢𝑛𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒 𝑜𝑏𝑠𝑒𝑟𝑣é𝑒 𝑠𝑢𝑟 𝑢𝑛𝑒 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 , 𝑠𝑢𝑖𝑣𝑎𝑛𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑒𝑡 𝑢𝑛 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛
𝑒𝑥𝑡𝑟𝑎𝑖𝑡 𝑑𝑒 𝑐𝑒𝑡𝑡𝑒 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛.
𝐿𝑒 𝑏𝑢𝑡 𝑒𝑠𝑡 𝑑𝑒 𝑠𝑎𝑣𝑜𝑖𝑟 𝑠𝑖 𝑢𝑛 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑑𝑒 𝑚𝑜𝑦𝑒𝑛𝑛𝑒 𝑥̅ , 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑒𝑢𝑟 𝑑𝑒 𝜇 , 𝑎𝑝𝑝𝑎𝑟𝑡𝑖𝑒𝑛𝑡 à 𝑢𝑛𝑒 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑑𝑒
𝑟é𝑓é𝑟𝑒𝑛𝑐𝑒 𝑐𝑜𝑛𝑛𝑢𝑒 𝑑′ 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒 𝜇0 (𝐻0 𝑣𝑟𝑎𝑖𝑒) 𝑒𝑡 𝑛𝑒 𝑑𝑖𝑓𝑓è𝑟𝑒 𝑑𝑒 𝜇0 𝑞𝑢𝑒 𝑝𝑎𝑟 𝑑𝑒𝑠 𝑓𝑙𝑢𝑐𝑡𝑢𝑎𝑡𝑖𝑜𝑛𝑠 𝑑 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛
𝑛𝑎𝑔𝑒 𝑜𝑢 𝑏𝑖𝑒𝑛 𝑎𝑝𝑝𝑎𝑟𝑡𝑖𝑒𝑛𝑡 à 𝑢𝑛𝑒 𝑎𝑢𝑡𝑟𝑒 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒 𝑑 ′ 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒 𝜇 (𝐻1 𝑣𝑟𝑎𝑖𝑒).
𝑃𝑜𝑢𝑟 𝑡𝑒𝑠𝑡𝑒𝑟 𝑐𝑒𝑡𝑡𝑒 ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 , 𝑖𝑙 𝑒𝑥𝑖𝑠𝑡𝑒 𝑑𝑒𝑢𝑥 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒𝑠 ∶ 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒 𝜎02 𝑑𝑒 𝑙𝑎 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑟é𝑓é𝑟𝑒𝑛𝑐𝑒
𝑒𝑠𝑡 𝑐𝑜𝑛𝑛𝑢𝑒 (𝑡𝑒𝑠𝑡 𝜀) 𝑜𝑢 𝑐𝑒𝑡𝑡𝑒 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒 𝑒𝑠𝑡 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒 𝑒𝑡 𝑖𝑙 𝑓𝑎𝑢𝑡 𝑙 ′ 𝑒𝑠𝑡𝑖𝑚𝑒𝑟 (𝑡𝑒𝑠𝑡 𝑇).
𝑽𝒂𝒓𝒊𝒂𝒏𝒄𝒆 𝒅𝒆 𝒍𝒂 𝒑𝒐𝒑𝒖𝒍𝒂𝒕𝒊𝒐𝒏 𝒄𝒐𝒏𝒏𝒖𝒆
𝑺𝒕𝒂𝒕𝒊𝒔𝒕𝒊𝒒𝒖𝒆 𝒅𝒖 𝒕𝒆𝒔𝒕
𝑆𝑜𝑖𝑡 𝑋̅ 𝑙𝑎 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛 𝑑′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑛𝑎𝑔𝑒 𝑑𝑒 𝑙𝑎 𝑚𝑜𝑦𝑒𝑛𝑛𝑒 𝑑𝑎𝑛𝑠 𝑙𝑎 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖
𝜎
𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 𝑋̅ ∼ 𝒩 (𝜇 , ).
√𝑛
𝐿𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 é𝑡𝑢𝑑𝑖é𝑒 𝑒𝑠𝑡 𝑙 ′ é𝑐𝑎𝑟𝑡 ∶ 𝑆 = 𝑋̅ − 𝜇0 𝑑𝑜𝑛𝑡 𝑙𝑎 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑒𝑠𝑡 𝑙𝑎 𝑠𝑢𝑖𝑣𝑎𝑛𝑡𝑒 ∶
𝜎 𝜎2
𝑆 ~ 𝒩 (0 , ) 𝑎𝑣𝑒𝑐 𝑠𝑜𝑢𝑠 𝐻0 ∶ 𝐸(𝑆) = 0 𝑒𝑡 𝑉(𝑆) = .
√𝑛 𝑛
𝑆 − 𝐸(𝑆) 𝑋̅ − 𝜇0
𝐺𝑟â𝑐𝑒 𝑎𝑢 𝑡ℎé𝑜𝑟è𝑚𝑒 𝑐𝑒𝑛𝑡𝑟𝑎𝑙 𝑙𝑖𝑚𝑖𝑡𝑒 , 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑍 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 𝑍 = = .
2 2
√𝜎 √𝜎
𝑛 𝑛
𝑋̅ − 𝜇0
𝑆𝑜𝑢𝑠 𝐻0 ∶ 𝜇 = 𝜇0 𝑎𝑣𝑒𝑐 𝜎 2 𝑐𝑜𝑛𝑛𝑢𝑒 , 𝑍 = 𝜎 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑐𝑒𝑛𝑡é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒 𝒩 (0 , 1)
√𝑛

20
𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏 𝒆𝒕 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏
𝐿′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑡𝑒𝑠𝑡é𝑒 𝑒𝑠𝑡 𝑙𝑎 𝑠𝑢𝑖𝑣𝑎𝑛𝑡𝑒 ∶
𝐻0 ∶ 𝜇 = 𝜇0 𝑐𝑜𝑛𝑡𝑟𝑒 𝐻1 ∶ 𝜇 ≠ 𝜇0 .
|𝑋̅ − 𝜇0 |
𝑈𝑛𝑒 𝑣𝑎𝑙𝑒𝑢𝑟 𝑧 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑏𝑙𝑒 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒 𝑍 𝑒𝑠𝑡 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 ∶ 𝑧 = 𝜎 𝑛𝑜𝑡é𝑒 𝜀𝑜𝑏𝑠 𝑎𝑣𝑒𝑐 𝜀 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 𝑒𝑠𝑡
√𝑛
𝑐𝑜𝑚𝑝𝑎𝑟é𝑒 𝑎𝑣𝑒𝑐 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑠𝑒𝑢𝑖𝑙 𝑙𝑢𝑒 𝑠𝑢𝑟 𝑙𝑎 𝑡𝑎𝑏𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒 𝑝𝑜𝑢𝑟 𝑢𝑛 𝑟𝑖𝑠𝑢𝑞𝑒 𝑑′ 𝑒𝑟𝑟𝑒𝑢𝑟
𝛼 𝑓𝑖𝑥é ( 𝑅è𝑔𝑙𝑒 𝑑𝑒 𝑑é𝑐𝑖𝑠𝑖𝑜𝑛 1).
∎ 𝑆𝑖 𝜀𝑜𝑏𝑠 > 𝜀𝑠𝑒𝑢𝑖𝑙 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑟𝑒𝑗𝑒𝑡é𝑒 𝑎𝑢 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑 ′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 ∶ 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑎𝑝𝑝𝑎𝑟𝑡𝑖𝑒𝑛𝑡 à 𝑢𝑛𝑒
𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑑′ 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒 𝜇 𝑒𝑡 𝑛′ 𝑒𝑠𝑡 𝑝𝑎𝑠 𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑎𝑡𝑖𝑓 𝑑𝑒 𝑙𝑎 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑟é𝑓é𝑟𝑒𝑛𝑐𝑒 𝑑 ′ 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒 𝜇0 .
∎ 𝑆𝑖 𝜀𝑜𝑏𝑠 ≤ 𝜀𝑠𝑒𝑢𝑖𝑙 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑎𝑐𝑐𝑒𝑝𝑡é𝑒 ∶ 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑒𝑠𝑡 𝑝𝑎𝑠 𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑎𝑡𝑖𝑓 𝑑𝑒 𝑙𝑎
𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑟é𝑓é𝑟𝑒𝑛𝑐𝑒 𝑑′ 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒 𝜇0 .
𝑽𝒂𝒓𝒊𝒂𝒏𝒄𝒆 𝒅𝒆 𝒍𝒂 𝒑𝒐𝒑𝒖𝒍𝒂𝒕𝒊𝒐𝒏 𝒊𝒏𝒄𝒐𝒏𝒏𝒖𝒆
𝑺𝒕𝒂𝒕𝒊𝒔𝒕𝒊𝒒𝒖𝒆 𝒅𝒖 𝒕𝒆𝒔𝒕
𝐿𝑎 𝑑é𝑚𝑎𝑟𝑐ℎ𝑒 𝑒𝑠𝑡 𝑙𝑎 𝑚ê𝑚𝑒 𝑞𝑢𝑒 𝑝𝑜𝑢𝑟 𝑙𝑒 𝑡𝑒𝑠𝑡 𝜀 𝑚𝑎𝑖𝑠 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒 𝑑𝑒 𝑙𝑎 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑛′ é𝑡𝑎𝑛𝑡 𝑝𝑎𝑠 𝑐𝑜𝑛𝑛𝑢𝑒 , 𝑒𝑙𝑙𝑒 𝑒𝑠𝑡
𝑛
𝑒𝑠𝑡𝑖𝑚é𝑒 𝑝𝑎𝑟 ∶ 𝜎̂ 2 = 𝑠2.
𝑛−1
𝐿𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 é𝑡𝑢𝑑𝑖é𝑒 𝑒𝑠𝑡 𝑙 ′ é𝑐𝑎𝑟𝑡: 𝑆 = 𝑋̅ − 𝜇0 𝑑𝑜𝑛𝑡 𝑙𝑎 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑒𝑠𝑡 𝑙𝑎 𝑠𝑢𝑖𝑣𝑎𝑛𝑡𝑒:
𝜎̂ 𝜎̂ 2
𝑆 (0, ) 𝑎𝑣𝑒𝑐 𝐸(𝑆) = 0 𝑒𝑡 𝑉𝑎𝑟(𝑆) = .
√𝑛 𝑛
𝑁𝑜𝑢𝑠 𝑝𝑜𝑢𝑣𝑜𝑛𝑠 é𝑡𝑎𝑏𝑙𝑖𝑟 𝑔𝑟â𝑐𝑒 𝑎𝑢 𝑡ℎé𝑜𝑟è𝑚𝑒 𝑐𝑒𝑛𝑡𝑟𝑎𝑙 𝑙𝑖𝑚𝑖𝑡𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑇 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 ∶
𝑆 − 𝐸(𝑆) 𝑋̅ − 𝜇0
𝑇= = .
√𝑉(𝑆) 𝜎̂
√𝑛
𝑷𝒓𝒐𝒑𝒐𝒔𝒊𝒕𝒊𝒐𝒏
𝑋̅ − 𝜇0
𝑆𝑜𝑢𝑠 𝐻0 ∶ 𝜇 = 𝜇0 𝑎𝑣𝑒𝑐 𝜎 2 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒 , 𝑇 = 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑑𝑒 𝑆𝑡𝑢𝑑𝑒𝑛𝑡 à 𝑛 − 1 𝑑𝑑𝑙.
𝜎̂
√𝑛
𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏 𝒆𝒕 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏
𝐿′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑡𝑒𝑠𝑡é𝑒 𝑒𝑠𝑡 𝑙𝑎 𝑠𝑢𝑖𝑣𝑎𝑛𝑡𝑒 ∶
𝐻0 ∶ 𝜇 = 𝜇0 𝑐𝑜𝑛𝑡𝑟𝑒 𝐻1 ∶ 𝜇 ≠ 𝜇0 , 𝑢𝑛𝑒 𝑣𝑎𝑙𝑒𝑢𝑟 𝑡 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒 𝑇 𝑒𝑠𝑡 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 𝑝𝑎𝑟 ∶
|𝑥̅ − 𝜇0 | |𝑋̅ − 𝜇0 |
𝑡= = 𝑠 , 𝑡 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 (𝑡𝑜𝑏𝑠 ) 𝑒𝑠𝑡 𝑐𝑜𝑚𝑝𝑎𝑟é𝑒 𝑎𝑣𝑒𝑐 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑡𝑠𝑒𝑢𝑖𝑙 𝑙𝑢𝑒 𝑑𝑎𝑛𝑠 𝑙𝑎 𝑡𝑎𝑏𝑙𝑒 𝑑𝑒 𝑆𝑡𝑢𝑑𝑒𝑛𝑡
𝜎̂
√𝑛 √𝑛 − 1
21
𝑝𝑜𝑢𝑟 𝑢𝑛 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 𝑓𝑖𝑥é 𝑒𝑡 (𝑛 − 1) 𝑑𝑑𝑙.
∎ 𝑆𝑖 𝑡𝑜𝑏𝑠 > 𝑡𝑠𝑒𝑢𝑖𝑙 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑟𝑒𝑗𝑒𝑡é𝑒 𝑎𝑢 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑 ′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 ∶ 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑎𝑝𝑝𝑎𝑟𝑡𝑖𝑒𝑛𝑡 à 𝑢𝑛𝑒
𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑑′ 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒 𝜇 𝑒𝑡 𝑛′ 𝑒𝑠𝑡 𝑝𝑎𝑠 𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑎𝑡𝑖𝑓 𝑑𝑒 𝑙𝑎 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑟é𝑓é𝑟𝑒𝑛𝑐𝑒 𝑑 ′ 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒 𝜇0 .
∎ 𝑆𝑖 𝑡𝑜𝑏𝑠 ≤ 𝑡𝑠𝑒𝑢𝑖𝑙 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑎𝑐𝑐𝑒𝑝𝑡é𝑒 ∶ 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑝𝑎𝑠 𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑎𝑡𝑖𝑓 𝑑𝑒 𝑙𝑎
𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑟é𝑓é𝑟𝑒𝑛𝑐𝑒 𝑑′ 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒 𝜇0 .
𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏
𝑷𝒐𝒖𝒓 é𝒕𝒖𝒅𝒊𝒆𝒓 𝒖𝒏 𝒍𝒐𝒕 𝒅𝒆 𝒇𝒂𝒃𝒓𝒊𝒄𝒂𝒕𝒊𝒐𝒏 𝒅𝒆 𝒄𝒐𝒎𝒑𝒓𝒊𝒍é𝒔 , 𝒐𝒏 𝒑𝒓é𝒍è𝒗𝒆 𝒂𝒖 𝒉𝒂𝒔𝒂𝒓𝒅 𝟏𝟎 𝒄𝒐𝒎𝒑𝒓𝒊𝒎é𝒔 𝒑𝒂𝒓𝒎𝒊𝒔 𝒍𝒆𝒔 𝟑𝟎.
𝒑𝒓𝒐𝒅𝒖𝒊𝒕𝒔 𝒆𝒕 𝒐𝒏 𝒍𝒆𝒔 𝒑è𝒔𝒆. 𝑶𝒏 𝒐𝒃𝒔𝒆𝒓𝒗𝒆 𝒍𝒆𝒔 𝒗𝒂𝒍𝒆𝒖𝒓𝒔 𝒅𝒆 𝒑𝒐𝒊𝒅𝒔 𝒆𝒏 𝒈𝒓𝒂𝒎𝒎𝒆𝒔 ∶
𝟎, 𝟖𝟏 − 𝟎, 𝟖𝟒 − 𝟎, 𝟖𝟑 − 𝟎, 𝟖𝟎 − 𝟎, 𝟖𝟓 − 𝟎, 𝟖𝟔 − 𝟎, 𝟖𝟓 − 𝟎, 𝟖𝟑 − 𝟎, 𝟖𝟒 − 𝟎; 𝟖𝟎.
𝑳𝒆 𝒑𝒐𝒊𝒅𝒔 𝒎𝒐𝒚𝒆𝒏 𝒐𝒃𝒔𝒆𝒓𝒗é 𝒆𝒔𝒕 − 𝒊𝒍 𝒄𝒐𝒎𝒑𝒂𝒕𝒊𝒃𝒍𝒆 𝒂𝒗𝒆𝒄 𝒍𝒂 𝒗𝒂𝒍𝒆𝒖𝒓 𝟎, 𝟖𝟑 𝒈 , 𝒎𝒐𝒚𝒆𝒏𝒏𝒆 𝒅𝒆 𝒍𝒂 𝒑𝒓𝒐𝒅𝒖𝒄𝒕𝒊𝒐𝒏
𝒂𝒖 𝒔𝒆𝒖𝒊𝒍 𝟗𝟖 % .

22
𝒃) 𝑪𝒐𝒎𝒑𝒂𝒓𝒂𝒊𝒔𝒐𝒏 𝒇𝒓é𝒒𝒖𝒆𝒏𝒄𝒆 𝒐𝒃𝒔𝒆𝒓𝒗é𝒆 𝒆𝒕 𝒇𝒓é𝒒𝒖𝒆𝒏𝒄𝒆 𝒕𝒉é𝒐𝒓𝒊𝒒𝒖𝒆
𝑷𝒓𝒊𝒏𝒄𝒊𝒑𝒆 𝒅𝒖 𝒕𝒆𝒔𝒕
𝑆𝑜𝑖𝑡 𝑋 𝑢𝑛𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑞𝑢𝑎𝑛𝑡𝑖𝑡𝑎𝑡𝑣𝑒 𝑝𝑟𝑒𝑛𝑎𝑛𝑡 𝑑𝑒𝑢𝑥 𝑚𝑜𝑑𝑎𝑙𝑖𝑡é𝑠 ( 𝑠𝑢𝑐𝑐è𝑠 𝑋 = 1 , é𝑐ℎ𝑒𝑐 𝑋 = 0 )𝑜𝑏𝑠𝑒𝑟𝑣é𝑒 𝑠𝑢𝑟 𝑢𝑛𝑒
𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑒𝑡 𝑢𝑛 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑒𝑥𝑡𝑟𝑎𝑖𝑡 𝑑𝑒 𝑐𝑒𝑡𝑡𝑒 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛.
𝑘
𝐿𝑒 𝑏𝑢𝑡 𝑒𝑠𝑡 𝑑𝑒 𝑠𝑎𝑣𝑜𝑖𝑟 𝑠𝑖 𝑢𝑛 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑑𝑒 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑜𝑏𝑠𝑒𝑟𝑣é𝑒 , 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑒𝑢𝑟 𝑑𝑒 𝑝 , 𝑎𝑝𝑝𝑎𝑟𝑡𝑖𝑒𝑛𝑡 à 𝑢𝑛𝑒
𝑛
𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑟é𝑓é𝑟𝑒𝑛𝑐𝑒 𝑐𝑜𝑛𝑛𝑢𝑒𝑑𝑒 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑝0 (𝐻0 𝑣𝑟𝑎𝑖𝑒) 𝑜𝑢 à 𝑢𝑛𝑒 𝑎𝑢𝑡𝑟𝑒 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒 𝑑𝑒
𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑝 (𝐻1 𝑣𝑟𝑎𝑖𝑒).
𝑺𝒕𝒂𝒕𝒊𝒔𝒕𝒊𝒒𝒖𝒆 𝒅𝒖 𝒕𝒆𝒔𝒕
𝑘
𝐿𝑎 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛 𝑑′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑛𝑎𝑔𝑒 𝑑𝑒 𝑙𝑎 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑑𝑒 𝑠𝑢𝑐𝑐è𝑠 𝑑𝑎𝑛𝑠 𝑙𝑎 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒 , 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒
𝑛
𝑘 𝑝0 𝑞0
𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 ∶ 𝑠𝑢𝑖𝑡 𝒩 ( 𝑝 , √ ) , 𝑙𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 é𝑡𝑎𝑛𝑡 𝑠𝑢𝑝𝑝𝑜𝑠é𝑒𝑠 é𝑔𝑎𝑙𝑒𝑠 𝑑𝑎𝑛𝑠 𝑙𝑎
𝑛 𝑛

𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑟é𝑓é𝑟𝑒𝑛𝑐𝑒 𝑒𝑡 𝑙𝑎 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑑′ 𝑜ù 𝑒𝑠𝑡 𝑒𝑥𝑡𝑟𝑎𝑖𝑡 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛.


𝑘
𝐿𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 é𝑡𝑢𝑑𝑖é𝑒 𝑒𝑠𝑟 𝑙 ′ é𝑐𝑎𝑟𝑡 ∶ 𝑆 = − 𝑝0 𝑑𝑜𝑛𝑡 𝑙𝑎 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑒𝑠𝑡 𝑙𝑎 𝑠𝑢𝑖𝑣𝑎𝑛𝑡𝑒 ∶
𝑛
𝑝0 𝑞0 𝑝0 𝑞0
𝑆 𝑠𝑢𝑖𝑡 𝒩 ( 0 , √ ) 𝑎𝑣𝑒𝑐 𝑠𝑜𝑢𝑠 𝐻0 , 𝐸(𝑆) = 0 𝑒𝑡 𝑉𝑎𝑟(𝑆) = .
𝑛 𝑛

𝑁𝑜𝑢𝑠 𝑝𝑜𝑢𝑣𝑜𝑛𝑠 é𝑡𝑎𝑏𝑙𝑖𝑟 𝑔𝑟â𝑐𝑒 𝑎𝑢 𝑡ℎé𝑜𝑟è𝑚𝑒 𝑐𝑒𝑛𝑡𝑟𝑎𝑙 𝑙𝑖𝑚𝑖𝑡𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑍 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 ∶
𝑆 − 𝐸(𝑆) 𝑋̅ − 𝜇0
𝑇= = 𝑚𝑎𝑖𝑠 𝑠𝑒𝑢𝑙𝑒𝑚𝑒𝑛𝑡 𝑠𝑖 𝑛 𝑝0 𝑒𝑡 𝑛 𝑞0 ≥ 10.
√𝐸(𝑆) 𝑝 𝑞
√ 0 0
𝑛
𝑘
− 𝑝0
𝑆𝑜𝑢𝑠 𝐻0 ∶ 𝑝 = 𝑝0 , 𝑍 = 𝑛 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒 𝒩 ( 0 , 1).
𝑝0 𝑞0

𝑛
𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏 𝒆𝒕 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏
𝐿′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑡𝑒𝑠𝑡é𝑒 𝑒𝑠𝑡 𝑙𝑎 𝑠𝑢𝑖𝑣𝑎𝑛𝑡𝑒 ∶
𝐻0 ∶ 𝑝 = 𝑝0 𝑐𝑜𝑛𝑡𝑟𝑒 𝐻1 ∶ 𝑝 ≠ 𝑝0 , 𝑢𝑛𝑒 𝑣𝑎𝑙𝑒𝑢𝑟 𝑧 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒 𝑍 𝑒𝑠𝑡 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 𝑝𝑎𝑟 ∶
𝑘
|𝑛 − 𝑝0 |
𝑧= , 𝜀 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 (𝜀𝑜𝑏𝑠 ) 𝑒𝑠𝑡 𝑐𝑜𝑚𝑝𝑎𝑟é𝑒 𝑎𝑣𝑒𝑐 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝜀𝑠𝑒𝑢𝑖𝑙 𝑙𝑢𝑒 𝑑𝑎𝑛𝑠 𝑙𝑎 𝑡𝑎𝑏𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒
𝑝0 𝑞0

𝑛
𝑐𝑒𝑛𝑡𝑟é𝑒 𝑝𝑜𝑢𝑟 𝑢𝑛 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 𝑓𝑖𝑥é (𝑅è𝑔𝑙𝑒 𝑑𝑒 𝑑é𝑐𝑖𝑠𝑖𝑜𝑛 1).

23
∎ 𝑆𝑖 𝜀𝑜𝑏𝑠 > 𝜀𝑠𝑒𝑢𝑖𝑙 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑟𝑒𝑗𝑒𝑡é𝑒 𝑎𝑢 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑 ′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 ∶ 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑎𝑝𝑝𝑎𝑟𝑡𝑖𝑒𝑛𝑡 à 𝑢𝑛𝑒
𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑝 𝑒𝑡 𝑛′ 𝑒𝑠𝑡 𝑝𝑎𝑠 𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑎𝑡𝑖𝑓 𝑑𝑒 𝑙𝑎 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑟é𝑓é𝑟𝑒𝑛𝑐𝑒 𝑑 ′ 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒 𝑝0 .
∎ 𝑆𝑖 𝜀𝑜𝑏𝑠 ≤ 𝜀𝑠𝑒𝑢𝑖𝑙 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑎𝑐𝑐𝑒𝑝𝑡é𝑒 ∶ 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑒𝑠𝑡 𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑎𝑡𝑖𝑓 𝑑𝑒 𝑙𝑎
𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑟é𝑓é𝑟𝑒𝑛𝑐𝑒 𝑑𝑒 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑝0 .

𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏
𝑳𝒂 𝒎𝒂𝒍𝒂𝒅𝒊𝒆 𝒅𝒖 𝑪𝑶𝑽𝑰𝑫 𝒕𝒐𝒖𝒄𝒉𝒆 𝒆𝒏 𝑪𝑰 𝟏⁄𝟏. 𝟎𝟎𝟎 𝒅𝒆𝒔 𝒊𝒏𝒅𝒊𝒗𝒊𝒅𝒖𝒔. 𝑶𝒏 𝒂 𝒄𝒐𝒏𝒕𝒂𝒕é 𝒅𝒂𝒏𝒔 𝒍𝒂 𝒓é𝒈𝒊𝒐𝒏 𝒅𝒆 𝑺𝒂𝒏
𝑷𝒆𝒅𝒓𝒐 𝟓𝟕 𝒑𝒆𝒓𝒔𝒐𝒏𝒏𝒆𝒔 𝒔𝒖𝒓 𝟓𝟎. 𝟎𝟎𝟎 𝒊𝒏𝒅𝒊𝒗𝒊𝒅𝒖𝒔 𝒕𝒆𝒔𝒕é𝒔.
𝑺𝒂𝒏 𝑷𝒆𝒅𝒓𝒐 𝒆𝒔𝒕 − 𝒆𝒍𝒍𝒆 𝒓𝒆𝒑𝒓é𝒔𝒆𝒏𝒕𝒂𝒕𝒊𝒗𝒆 𝒅𝒆𝒔 𝒑𝒐𝒑𝒖𝒍𝒂𝒕𝒊𝒐𝒏𝒔 𝒅𝒆 𝒍𝒂 𝑪𝑰 𝒆𝒏𝒕𝒊è𝒓𝒆 ?

24
𝟒) 𝑻𝒆𝒔𝒕 𝒅′ 𝒉𝒐𝒎𝒐𝒈é𝒏é𝒊𝒕𝒆
𝐿𝑒𝑠 𝑡𝑒𝑠𝑡𝑠 𝑑′ ℎ𝑜𝑚𝑜𝑔é𝑛é𝑖𝑡é 𝑠𝑜𝑛𝑡 𝑑𝑒𝑠𝑡𝑖𝑛é𝑠 à 𝑐𝑜𝑚𝑝𝑎𝑟𝑒𝑟 𝑑𝑒𝑢𝑥 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 à 𝑙 ′ 𝑎𝑖𝑑𝑒 𝑑 ′ 𝑢𝑛 𝑛𝑜𝑚𝑏𝑟𝑒 é𝑞𝑢𝑖𝑣𝑎𝑙𝑒𝑛𝑡
𝑑′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 ( 𝑡𝑒𝑠𝑡 𝑑′ é𝑔𝑎𝑙𝑖𝑡é 𝑜𝑢 𝑑 ′ ℎ𝑜𝑚𝑜𝑔é𝑛é𝑖𝑡é )𝑠𝑜𝑛𝑡 𝑙𝑒𝑠 𝑝𝑙𝑢𝑠 𝑐𝑜𝑢𝑟𝑎𝑚𝑚𝑒𝑛𝑡 𝑢𝑡𝑖𝑙𝑖𝑠é𝑠.
𝐷𝑎𝑛𝑠 𝑐𝑒 𝑐𝑎𝑠 , 𝑙𝑎 𝑙𝑜𝑖 𝑡ℎé𝑜𝑟𝑖𝑞𝑢𝑒 𝑑𝑢 𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒 é𝑡𝑢𝑑𝑖é ( 𝑝𝑎𝑟 𝑒𝑥𝑒𝑚𝑝𝑙𝑒 𝑝 , 𝜇 , 𝜎 2 )𝑒𝑠𝑡 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒 𝑎𝑢 𝑛𝑖𝑣𝑒𝑎𝑢 𝑑𝑒𝑠
𝒂) 𝑪𝒐𝒎𝒑𝒂𝒓𝒂𝒊𝒔𝒐𝒏 𝒅𝒆 𝒅𝒆𝒖𝒙 𝒗𝒂𝒓𝒊𝒂𝒏𝒄𝒆𝒔
𝑷𝒓𝒊𝒏𝒄𝒊𝒑𝒆 𝒅𝒖 𝒕𝒆𝒔𝒕
𝑆𝑜𝑖𝑡 𝑋 , 𝑢𝑛𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒 𝑜𝑏𝑠𝑒𝑟𝑣é𝑒 𝑠𝑢𝑟 𝑑𝑒𝑢𝑥 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 , 𝑠𝑢𝑖𝑣𝑎𝑛𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑒𝑡 2 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠
𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑠 𝑒𝑥𝑡𝑟𝑎𝑖𝑡 𝑑𝑒 𝑐𝑒𝑠 2 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠.
𝑂𝑛 𝑓𝑎𝑖𝑡 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑞𝑢𝑒 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑝𝑟𝑜𝑣𝑖𝑒𝑛𝑛𝑒𝑛𝑡 𝑑𝑒 2 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑑𝑜𝑛𝑡 𝑙𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 𝑠𝑜𝑛𝑡 é𝑔𝑎𝑙𝑒𝑠.
𝐿𝑒 𝑡𝑒𝑠𝑡 𝑑𝑒 𝑐𝑜𝑚𝑝𝑎𝑟𝑎𝑖𝑠𝑜𝑛 𝑑𝑒 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒 𝑒𝑠𝑡 𝑛é𝑐𝑒𝑠𝑠𝑎𝑖𝑟𝑒 𝑙𝑜𝑟𝑠 𝑑𝑒 𝑙𝑎 𝑐𝑜𝑚𝑝𝑎𝑟𝑎𝑖𝑠𝑜𝑛 𝑑𝑒 𝑑𝑒𝑢𝑥 𝑚𝑜𝑦𝑒𝑛𝑛𝑒𝑠 𝑙𝑜𝑟𝑠𝑞𝑢𝑒
𝑙𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 𝑑𝑒𝑠 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝜎12 𝑒𝑡 𝜎22 𝑛𝑒 𝑠𝑜𝑛𝑡 𝑝𝑎𝑠 𝑐𝑜𝑛𝑛𝑢𝑒𝑠. 𝐶 ′ 𝑒𝑠𝑡 é𝑔𝑎𝑙𝑒𝑚𝑒𝑛𝑡 𝑙𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑎𝑠𝑠𝑜𝑐𝑖é𝑒 à
𝑙 ′ 𝑎𝑛𝑎𝑙𝑦𝑠𝑒 𝑑𝑒 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒.
𝑽𝒂𝒓𝒊𝒂𝒏𝒄𝒆𝒔 𝒅𝒆 𝒍𝒂 𝒑𝒐𝒑𝒖𝒍𝒂𝒕𝒊𝒐𝒏 𝒊𝒏𝒄𝒐𝒏𝒏𝒖𝒆𝒔
𝑺𝒕𝒂𝒕𝒊𝒔𝒕𝒊𝒒𝒖𝒆 𝒅𝒖 𝒕𝒆𝒔𝒕
𝐿𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑎𝑠𝑠𝑜𝑐𝑖é𝑒 𝑎𝑢 𝑡𝑒𝑠𝑡 𝑑𝑒 𝑐𝑜𝑚𝑝𝑎𝑟𝑎𝑖𝑠𝑜𝑛 𝑑𝑒 𝑑𝑒𝑢𝑥 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑 𝑎𝑢 𝑟𝑎𝑝𝑝𝑜𝑟𝑡 𝑑𝑒𝑠 𝑑𝑒𝑢𝑥
𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 𝑒𝑠𝑡𝑖𝑚é𝑒𝑠.
𝑛1 2
̂2 𝑛 −
𝜎 1 1 1 𝑠1
𝑆𝑜𝑢𝑠 𝐻0 ∶ 𝜎12 = 𝜎22 , 𝐹𝑜𝑏𝑠 = = 𝑛 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑑𝑒 𝐹𝑖𝑠ℎ𝑒𝑟 − 𝑆𝑛𝑒𝑑𝑒𝑐𝑜𝑟 à (𝑛1 − 1 , 𝑛2 − 1 ) 𝑑𝑑𝑙
̂2
𝜎 2
𝑠 2
2 𝑛2 − 1 2
𝑎𝑣𝑒𝑐 ∶ 𝜎12 > 𝜎22 𝑐𝑎𝑟 𝑙𝑒 𝑟𝑎𝑝𝑝𝑜𝑟𝑡 𝑑𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 𝑑𝑜𝑖𝑡 ê𝑡𝑟𝑒 𝑠𝑢𝑝é𝑟𝑖𝑒𝑢𝑟 à 1.
𝑅𝑒𝑚𝑎𝑟𝑞𝑢𝑒
𝐼𝑙 𝑒𝑥𝑖𝑠𝑡𝑒 𝑑 ′ 𝑎𝑢𝑡𝑟𝑒𝑠 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒𝑠 𝑞𝑢𝑒 𝑐𝑒𝑙𝑙𝑒 𝑑𝑒 𝐹𝑖𝑠ℎ𝑒𝑟 − 𝑆𝑛𝑒𝑑𝑒𝑐𝑜𝑟 𝑝𝑜𝑢𝑟 𝑐𝑜𝑚𝑝𝑎𝑟𝑒𝑟 𝑑𝑒𝑢𝑥 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 ,
𝑛𝑜𝑡𝑎𝑚𝑚𝑒𝑛𝑡 𝑙𝑒 𝑡𝑒𝑠𝑡 𝑑𝑒 𝐻𝑎𝑟𝑡𝑙𝑒𝑦 𝑞𝑢𝑖 𝑖𝑚𝑝𝑜𝑠𝑒 𝑙 ′ é𝑔𝑎𝑙𝑖𝑡é 𝑑𝑒 𝑙𝑎 𝑡𝑎𝑖𝑙𝑙𝑒 𝑑𝑒𝑠 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑐𝑜𝑚𝑝𝑎𝑟é𝑠 𝑛1 = 𝑛2 .
𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏 𝒆𝒕 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏
𝐿𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑑𝑒 𝑙𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝐹 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 (𝐹𝑜𝑏𝑠 ) 𝑒𝑠𝑡 𝑐𝑜𝑚𝑝𝑎𝑟é𝑒 𝑎𝑣𝑒𝑐 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝐹𝑠𝑒𝑢𝑖𝑙 𝑙𝑢𝑒 𝑑𝑎𝑛𝑠 𝑙𝑎 𝑡𝑎𝑏𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖
𝐹𝑖𝑠ℎ𝑒𝑟 − 𝑆𝑛𝑒𝑑𝑒𝑐𝑜𝑟 𝑝𝑜𝑢𝑟 𝑢𝑛 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 𝑓𝑖𝑥é 𝑒𝑡 (𝑛1 − 1 , 𝑛2 − 1 ) 𝑑𝑑𝑙
∎ 𝑆𝑖 𝐹𝑜𝑏𝑠 ≥ 𝐹𝑠𝑒𝑢𝑖𝑙 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑟𝑒𝑗𝑒𝑡é𝑒 𝑎𝑢 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 ∶ 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑠𝑜𝑛𝑡
𝑒𝑥𝑡𝑟𝑎𝑖𝑡𝑠 𝑑𝑒 𝑑𝑒𝑢𝑥 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑎𝑦𝑎𝑛𝑡 𝑑𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒𝑚𝑒𝑛𝑡 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑡𝑒𝑠 𝜎12 𝑒𝑡 𝜎22 .
∎ 𝑆𝑖 𝐹𝑜𝑏𝑠 ≤ 𝐹𝑠𝑒𝑢𝑖𝑙 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑎𝑐𝑐𝑒𝑝𝑡é𝑒 ∶ 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑠𝑜𝑛𝑡 𝑒𝑥𝑡𝑟𝑎𝑖𝑡𝑠 𝑑𝑒 𝑑𝑒𝑢𝑥
𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑎𝑦𝑎𝑛𝑡 𝑚ê𝑚𝑒 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒 𝜎 2 .

25
𝑹𝒆𝒎𝒂𝒓𝒒𝒖𝒆
𝑃𝑜𝑢𝑟 𝑙 ′ 𝑎𝑝𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑐𝑒 𝑡𝑒𝑠𝑡 , 𝑖𝑙 𝑒𝑠𝑡 𝑖𝑚𝑝é𝑟𝑎𝑡𝑖𝑓 𝑞𝑢𝑒 𝑋 𝑠𝑢𝑖𝑡 𝒩 (𝜇 , 𝜎) 𝑒𝑡 𝑞𝑢𝑒 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑠𝑜𝑖𝑒𝑛𝑡
𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑠.
𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏
𝑼𝒏 𝑩𝒊𝒐𝒍𝒐𝒈𝒊𝒔𝒕𝒆 𝒆𝒇𝒇𝒆𝒄𝒕𝒖𝒆 𝒅𝒆𝒔 𝒅𝒐𝒔𝒂𝒈𝒆𝒔 𝒑𝒂𝒓 𝒖𝒏𝒆 𝒎é𝒕𝒉𝒐𝒅𝒆 𝒅𝒆 𝒎𝒆𝒔𝒖𝒓𝒆 𝒅𝒆 𝒓𝒂𝒅𝒊𝒐𝒂𝒄𝒕𝒊𝒗𝒊𝒕é 𝒆𝒕 𝒏𝒆 𝒅𝒊𝒔𝒑𝒐𝒔𝒆
𝒅𝒐𝒏𝒄 𝒒𝒖𝒆 𝒅′ 𝒖𝒏 𝒏𝒐𝒎𝒃𝒓𝒆 𝒕𝒓è𝒔 𝒍𝒊𝒎𝒊𝒕é 𝒅𝒆 𝒗𝒂𝒍𝒆𝒖𝒓𝒔.
𝑳𝒆𝒔 𝒄𝒐𝒏𝒄𝒆𝒏𝒕𝒓𝒂𝒕𝒊𝒐𝒏𝒔 𝑪𝟏 𝒆𝒕 𝑪𝟐 𝒎𝒆𝒔𝒖𝒓é𝒆𝒔 𝒔𝒖𝒓 𝒅𝒆𝒖𝒙 𝒑𝒓é𝒍è𝒗𝒆𝒎𝒆𝒏𝒕𝒔 𝒐𝒏𝒕 𝒅𝒐𝒏𝒏é 𝒍𝒆𝒔 𝒗𝒂𝒍𝒆𝒖𝒓𝒔 𝒔𝒖𝒊𝒗𝒂𝒏𝒕𝒆𝒔:

𝑪𝟏 𝟑, 𝟗 𝟑, 𝟖 𝟒, 𝟏 𝟑, 𝟔
𝑪𝟐 𝟑, 𝟗 𝟐, 𝟖 𝟑, 𝟕 𝟒, 𝟏

𝑳𝒂 𝒗𝒂𝒓𝒊𝒂𝒃𝒊𝒍𝒊𝒕é 𝒅𝒆𝒔 𝒗𝒂𝒍𝒆𝒖𝒓𝒔 𝒐𝒃𝒕𝒆𝒏𝒖𝒆𝒔 𝒑𝒐𝒖𝒓 𝒍𝒆𝒔 𝒅𝒆𝒖𝒙 𝒑𝒓é𝒍è𝒗𝒆𝒎𝒆𝒏𝒕𝒔 𝒆𝒔𝒕 − 𝒆𝒍𝒍𝒆 𝒔𝒊𝒎𝒊𝒍𝒂𝒊𝒓𝒆 ?

26
𝒃) 𝑪𝒐𝒎𝒑𝒂𝒓𝒂𝒊𝒔𝒐𝒏 𝒅𝒆 𝒅𝒆𝒖𝒙 𝒎𝒐𝒚𝒆𝒏𝒏𝒆𝒔
𝑷𝒓𝒊𝒏𝒄𝒊𝒑𝒆 𝒅𝒖 𝒕𝒆𝒔𝒕
𝑆𝑜𝑖𝑡 𝑋 𝑢𝑛 𝑐𝑎𝑟𝑎𝑐𝑡è𝑟𝑒 𝑞𝑢𝑎𝑛𝑡𝑖𝑡𝑎𝑡𝑖𝑓 𝑐𝑜𝑛𝑡𝑖𝑛𝑢 𝑜𝑏𝑠𝑒𝑟𝑣é 𝑠𝑢𝑟 𝑑𝑒𝑢𝑥 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑠𝑢𝑖𝑣𝑎𝑛𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑒𝑡 𝑑𝑒𝑢𝑥
é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑠 𝑒𝑥𝑡𝑟𝑎𝑖𝑡𝑠 𝑑𝑒 𝑐𝑒𝑠 𝑑𝑒𝑢𝑥 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 .
𝑂𝑛 𝑓𝑎𝑖𝑡 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑞𝑢𝑒 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑝𝑟𝑜𝑣𝑖𝑒𝑛𝑛𝑒𝑛𝑡 𝑑𝑒 2 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑑𝑜𝑛𝑡 𝑙𝑒𝑠 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒𝑠 𝑠𝑜𝑛𝑡
é𝑔𝑎𝑙𝑒𝑠.
𝐼𝑙 𝑒𝑥𝑖𝑠𝑡𝑒 𝑝𝑙𝑢𝑠𝑖𝑒𝑢𝑟𝑠 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒𝑠 𝑎𝑠𝑠𝑜𝑐𝑖é𝑒𝑠 à 𝑙𝑎 𝑐𝑜𝑚𝑝𝑎𝑟𝑎𝑖𝑠𝑜𝑛 𝑑𝑒 𝑑𝑒𝑢𝑥 𝑚𝑜𝑦𝑒𝑛𝑛𝑒𝑠 𝑒𝑛 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛 𝑑𝑒 𝑙𝑎 𝑛𝑎𝑡𝑢𝑟𝑒
𝑑𝑒𝑠 𝑑𝑜𝑛𝑛é𝑒𝑠 ∶

𝑙𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 𝑑𝑒𝑠 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝜎12 𝑒𝑡 𝜎22

𝑐𝑜𝑛𝑛𝑢𝑒𝑠 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒𝑠

𝑛1 = 𝑛2 𝑛1 𝑒𝑡 𝑛2 ≥ 30 𝑛1 𝑒𝑡 𝑛2 < 30
𝑛1 ≠ 𝑛2
𝑇𝑒𝑠𝑡 𝑇 𝑇𝑒𝑠𝑡 𝜀 𝑇𝑒𝑠𝑡 𝑛𝑜𝑛 𝑝𝑎𝑟𝑎𝑚é𝑡𝑟𝑖𝑞𝑢𝑒
𝑇𝑒𝑠𝑡 𝜀

𝑳𝒆𝒔 𝒗𝒂𝒓𝒊𝒂𝒏𝒄𝒆𝒔 𝒅𝒆𝒔 𝒑𝒐𝒑𝒖𝒍𝒂𝒕𝒊𝒐𝒏𝒔 𝒔𝒐𝒏𝒕 𝒄𝒐𝒏𝒏𝒖𝒆𝒔


𝑺𝒕𝒂𝒕𝒊𝒔𝒕𝒊𝒒𝒖𝒆 𝒅𝒖 𝒕𝒆𝒔𝒕
𝜎12
̅̅̅1 𝑙𝑎 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛 𝑑 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑛𝑎𝑔𝑒 𝑑𝑒 𝑙𝑎 𝑚𝑜𝑦𝑒𝑛𝑛𝑒 𝑑𝑎𝑛𝑠 𝑙𝑎 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 1 𝑠𝑢𝑖𝑡 𝒩 ( 𝜇1 ,
𝑆𝑜𝑖𝑡 𝑋 ) 𝑒𝑡 𝑑𝑒
𝑛1

𝜎22
̅̅̅2 𝑠𝑢𝑖𝑡 𝒩 ( 𝜇2 ,
𝑚ê𝑚𝑒 𝑝𝑜𝑢𝑟 𝑋 ̅̅̅1 𝑒𝑡 𝑋
). 𝑋 ̅̅̅2 é𝑡𝑎𝑛𝑡 𝑑𝑒𝑢𝑥 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒𝑠 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑒𝑠 , 𝑛𝑜𝑢𝑠
𝑛2
̅̅̅1 − 𝑋
𝑝𝑜𝑢𝑣𝑜𝑛𝑠 é𝑡𝑎𝑏𝑙𝑖𝑟 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒 à é𝑡𝑢𝑑𝑖𝑒𝑟 𝑋 ̅̅̅2 ∶

27
̅̅̅1 − 𝑋
𝐸(𝑋 ̅̅̅2 ) = 𝐸(𝑋
̅̅̅1 ) − 𝐸(𝑋
̅̅̅2 ) = 𝜇1 − 𝜇2

𝜎12 𝜎22
̅̅̅1 − 𝑋
𝑉𝑎𝑟(𝑋 ̅̅̅2 ) = 𝑉𝑎𝑟(𝑋
̅̅̅1 ) − 𝑉𝑎𝑟(𝑋
̅̅̅2 ) = + .
𝑛1 𝑛2

𝜎12 𝜎22
̅̅̅1 − 𝑋
𝑆𝑎𝑐ℎ𝑎𝑛𝑡 𝑞𝑢𝑒 𝑋 ̅̅̅2 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝒩 ( 𝜇1 − 𝜇2 , √ + ) , 𝑛𝑜𝑢𝑠 𝑝𝑜𝑢𝑣𝑜𝑛𝑠 é𝑡𝑎𝑏𝑙𝑖𝑟 𝑔𝑟â𝑐𝑒 𝑎𝑢
𝑛1 𝑛2

𝑡ℎé𝑜𝑟è𝑚𝑒 𝑐𝑒𝑛𝑡𝑟𝑎𝑙 𝑙𝑖𝑚𝑖𝑡𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒 𝑍 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 ∶


̅̅̅1 − 𝑋
(𝑋 ̅̅̅2 ) − 𝐸(𝑋
̅̅̅1 − 𝑋
̅̅̅2 ) ̅̅̅1 − 𝑋
(𝑋 ̅̅̅2 ) − (𝜇1 − 𝜇2 )
𝑍= = .
̅̅̅1 − 𝑋
√𝑉𝑎𝑟(𝑋 ̅̅̅2 )
𝜎12 𝜎22

𝑛1 + 𝑛2

𝑆𝑜𝑢𝑠 𝐻0 ∶ 𝜇1 = 𝜇2 , 𝑎𝑣𝑒𝑐 𝜎12 𝑒𝑡 𝜎22 𝑛𝑒 𝑠𝑜𝑛𝑡 𝑝𝑎𝑠 𝑐𝑜𝑛𝑛𝑢𝑒𝑠


̅̅̅1 − 𝑋
(𝑋 ̅̅̅2 )
𝑍= 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒 𝒩 ( 0 , 1).
𝜎12 𝜎22

𝑛1 + 𝑛2

𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏 𝒆𝒕 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏
𝐿′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑡𝑒𝑠𝑡é𝑒 𝑒𝑠𝑡 𝑙𝑎 𝑠𝑢𝑖𝑣𝑎𝑛𝑡𝑒 ∶
𝐻0 ∶ 𝜇1 = 𝜇2 𝑐𝑜𝑛𝑡𝑟𝑒 𝐻1 ∶ 𝜇1 ≠ 𝜇2 , 𝑢𝑛𝑒 𝑣𝑎𝑙𝑒𝑢𝑟 𝑧 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒 𝑍 𝑒𝑠𝑡 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 𝑝𝑎𝑟 ∶
|𝑥
̅̅̅1 − 𝑥
̅̅̅|
2
𝑧= , 𝑛𝑜𝑡éé 𝜀 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 (𝜀𝑜𝑏𝑠 ) 𝑒𝑠𝑡 𝑐𝑜𝑚𝑝𝑎𝑟é𝑒 𝑎𝑣𝑒𝑐 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝜀𝑠𝑒𝑢𝑖𝑙 𝑙𝑢𝑒 𝑑𝑎𝑛𝑠 𝑙𝑎 𝑡𝑎𝑏𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖
𝜎2 𝜎22
√ 1
𝑛1 + 𝑛2

𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒 𝑝𝑜𝑢𝑟 𝑢𝑛 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 𝑓𝑖𝑥é.


∎ 𝑆𝑖 𝜀𝑜𝑏𝑠 ≥ 𝜀𝑠𝑒𝑢𝑖𝑙 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑟𝑒𝑗𝑒𝑡é𝑒 𝑎𝑢 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑 ′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 ∶ 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑠𝑜𝑛𝑡
𝑒𝑥𝑡𝑟𝑎𝑖𝑡𝑠 𝑑𝑒 𝑑𝑒𝑢𝑥 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑎𝑦𝑎𝑛𝑡 𝑑𝑒𝑠 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒𝑠 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑣𝑒𝑠 𝜇1 𝑒𝑡 𝜇2 .
∎ 𝑆𝑖 𝜀𝑜𝑏𝑠 ≤ 𝜀𝑠𝑒𝑢𝑖𝑙 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑎𝑐𝑐𝑒𝑝𝑡é𝑒 ∶ 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑠𝑜𝑛𝑡 𝑒𝑥𝑡𝑟𝑎𝑖𝑡𝑠 𝑑𝑒 𝑑𝑒𝑢𝑥
𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑎𝑦𝑎𝑛𝑡 𝑚ê𝑚𝑒 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒 𝜇.
𝑅𝑒𝑚𝑎𝑟𝑞𝑢𝑒
𝑃𝑜𝑢𝑟 𝑙 ′ 𝑎𝑝𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑐𝑒 𝑡𝑒𝑠𝑡 , 𝑖𝑙 𝑒𝑠𝑡 𝑖𝑚𝑝é𝑟𝑎𝑡𝑖𝑓 𝑞𝑢𝑒 𝑋 𝑠𝑢𝑖𝑡 𝒩 (𝜇 , 𝜎) 𝑝𝑜𝑢𝑟 𝑙𝑒𝑠 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑑𝑒 𝑡𝑎𝑖𝑙𝑙𝑒 < 30
𝑒𝑡 𝑞𝑢𝑒 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑠𝑜𝑖𝑒𝑛𝑡 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑠.

28
𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏
𝑶𝒏 𝒆𝒇𝒇𝒆𝒄𝒕𝒖𝒆 𝒖𝒏𝒆 é𝒕𝒖𝒅𝒆 , 𝒆𝒏 𝒎𝒊𝒍𝒊𝒆𝒖 𝒖𝒓𝒃𝒂𝒊𝒏 𝒆𝒕 𝒆𝒏 𝒎𝒊𝒍𝒊𝒆𝒖 𝒓𝒖𝒓𝒂𝒍 , 𝒔𝒖𝒓 𝒍𝒂 𝒒𝒖𝒂𝒍𝒊𝒕é 𝒅𝒆 𝒍𝒐𝒈𝒆𝒎𝒆𝒏𝒕 𝒅𝒆𝒔
𝒉𝒂𝒃𝒊𝒕𝒂𝒏𝒕𝒔 ∶

𝑴𝒊𝒍𝒊𝒆𝒖 𝒖𝒓𝒃𝒂𝒊𝒏 𝑴𝒊𝒍𝒊𝒆𝒖 𝒓𝒖𝒓𝒂𝒍


𝑬𝒇𝒇𝒆𝒄𝒕𝒊𝒇 𝒅𝒆 𝒍′ é𝒄𝒉𝒂𝒏𝒕𝒊𝒍𝒍𝒐𝒏 𝟑𝟎𝟎 𝟐𝟒𝟎
𝑴𝒐𝒚𝒆𝒏𝒏𝒆 𝒅𝒆 𝒍′ é𝒄𝒉𝒂𝒏𝒕𝒊𝒍𝒍𝒐𝒏 𝟖𝟎 𝟕𝟕
𝑽𝒂𝒓𝒊𝒂𝒏𝒄𝒆 𝒅𝒆 𝒍𝒂 𝒑𝒐𝒑𝒖𝒍𝒂𝒕𝒊𝒐𝒏 𝟏𝟓𝟎 𝟏𝟐𝟎

𝑷𝒆𝒖𝒕 − 𝒐𝒏 𝒂𝒇𝒇𝒊𝒓𝒎𝒆𝒓 𝒒𝒖′ 𝒊𝒍 𝒆𝒙𝒊𝒔𝒕𝒆 𝒖𝒏𝒆 𝒅𝒊𝒇𝒇é𝒓𝒆𝒏𝒄𝒆 𝒔𝒊𝒈𝒏𝒊𝒇𝒊𝒄𝒂𝒕𝒊𝒗𝒆 𝒆𝒏𝒕𝒓𝒆 𝒍𝒂 𝒒𝒖𝒂𝒍𝒊𝒕é 𝒅′ 𝒉𝒂𝒃𝒊𝒕𝒂𝒕𝒊𝒐𝒏
𝒅𝒆𝒔 𝒅𝒆𝒖𝒙 𝒑𝒐𝒑𝒖𝒍𝒂𝒕𝒊𝒐𝒏𝒔 ?

29
𝑳𝒆𝒔 𝒗𝒂𝒓𝒊𝒂𝒏𝒄𝒆𝒔 𝒅𝒆𝒔 𝒑𝒐𝒑𝒖𝒍𝒂𝒕𝒊𝒐𝒏𝒔 𝒔𝒐𝒏𝒕 𝒊𝒏𝒄𝒐𝒏𝒏𝒖𝒆𝒔 𝒆𝒕 é𝒈𝒂𝒍𝒆𝒔
𝑺𝒕𝒂𝒕𝒊𝒔𝒕𝒊𝒒𝒖𝒆 𝒅𝒖 𝒕𝒆𝒔𝒕
𝐿𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 𝑑𝑒𝑠 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑛′ é𝑡𝑎𝑛𝑡 𝑝𝑎𝑠 𝑐𝑜𝑛𝑛𝑢𝑒𝑠 , 𝑜𝑛 𝑓𝑎𝑖𝑡 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑞𝑢𝑒 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠
𝑝𝑟é𝑠𝑒𝑛𝑡𝑒𝑛𝑡 𝑙𝑎 𝑚ê𝑚𝑒 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒
𝑆𝑜𝑢𝑠 𝐻0 ∶ 𝜎12 = 𝜎22 = 𝜎 2
∎ 𝐿′ é𝑔𝑎𝑙𝑖𝑡é 𝑑𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 𝑑𝑒𝑠 𝑑𝑒𝑢𝑥 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑜𝑢 ℎ𝑜𝑚𝑜𝑠𝑐é𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑡é 𝑝𝑒𝑟𝑚𝑒𝑡 𝑎𝑙𝑜𝑟𝑠 𝑑 ′ é𝑡𝑎𝑏𝑙𝑖𝑟 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒
𝜎12 𝜎22
̅̅̅1 − 𝑋
𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑑𝑒 𝑋 ̅̅̅2 𝑎𝑣𝑒𝑐 𝑋
̅̅̅1 𝑠𝑢𝑖𝑡 𝒩 ( 𝜇1 , ̅̅̅
) 𝑒𝑡 𝑋2 𝑠𝑢𝑖𝑡 𝒩 ( 𝜇2 , ),
𝑛1 𝑛2

𝜎12 𝜎22
̅̅̅1 − 𝑋
∎ 𝑆𝑎𝑐ℎ𝑎𝑛𝑡 𝑞𝑢𝑒 𝑋 ̅̅̅2 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝒩 ( 𝜇1 − 𝜇2 , √ + ) , 𝑛𝑜𝑢𝑠 𝑝𝑜𝑢𝑣𝑜𝑛𝑠 é𝑡𝑎𝑏𝑙𝑖𝑟
𝑛1 𝑛2

𝑔𝑟â𝑐𝑒 𝑎𝑢 𝑡ℎé𝑜𝑟è𝑚𝑒 𝑐𝑒𝑛𝑡𝑟𝑎𝑙 𝑙𝑖𝑚𝑖𝑡𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒 𝑇 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 ∶


̅̅̅1 − 𝑋
(𝑋 ̅̅̅2 ) − 𝐸(𝑋
̅̅̅1 − 𝑋
̅̅̅2 ) ̅̅̅1 − 𝑋
(𝑋 ̅̅̅2 ) − (𝜇1 − 𝜇2 )
𝑇= = .
̅̅̅1 − 𝑋
√𝑉𝑎𝑟(𝑋 ̅̅̅2 ) 1 1
√ 𝜎2 (𝑛 + 𝑛 )
1 2

̅̅̅1 − 𝑋
(𝑋 ̅̅̅2 )
𝑆𝑜𝑢𝑠 𝐻0 ∶ 𝜇1 = 𝜇2 , 𝑎𝑣𝑒𝑐 𝜎12 = 𝜎22 = 𝜎 2 , 𝑇 = 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑑𝑒 𝑆𝑡𝑢𝑑𝑒𝑛𝑡 à (𝑛1 + 𝑛2 − 2) 𝑑𝑑𝑙.
1 1
√ 𝜎2 ( 𝑛1 + 𝑛2 )
𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏 𝒆𝒕 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏
𝐿′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑡𝑒𝑠𝑡é𝑒 𝑒𝑠𝑡 𝑙𝑎 𝑠𝑢𝑖𝑣𝑎𝑛𝑡𝑒 ∶
𝐻0 ∶ 𝜇1 = 𝜇2 𝑐𝑜𝑛𝑡𝑟𝑒 𝐻1 ∶ 𝜇1 ≠ 𝜇2 .
𝐿𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 𝑑𝑒𝑠 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑛′ é𝑡𝑎𝑛𝑡 𝑝𝑎𝑠 𝑐𝑜𝑛𝑛𝑢𝑒𝑠 , 𝑙 ′ é𝑔𝑎𝑙𝑖𝑡é 𝑑𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 𝑑𝑜𝑖𝑡 ê𝑡𝑟𝑒 𝑣é𝑟𝑖𝑓𝑖é𝑒
𝐻0 ∶ 𝜎12 = 𝜎22 = 𝜎 2 𝑐𝑜𝑛𝑡𝑟𝑒 𝐻1 ∶ 𝜎12 ≠ 𝜎22 𝑇𝑒𝑠𝑡 𝑑𝑒 𝐹𝑖𝑠ℎ𝑒𝑟 − 𝑆𝑛𝑒𝑑𝑒𝑐𝑜𝑟.
𝑈𝑛𝑒 𝑣𝑎𝑙𝑒𝑢𝑟 𝑡 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒 𝑇 𝑒𝑠𝑡 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 ∶
|𝑥
̅̅̅1 − 𝑥
̅̅̅|
2 ̂ 𝑛1 𝑠12 + 𝑛1 𝑠12
𝑡= 2
, 𝑎𝑣𝑒𝑐 𝜎 = 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒 𝜎 2 𝑐𝑜𝑚𝑚𝑢𝑛𝑒.
̂2 ( 1 + 1 ) 𝑛1 + 𝑛2 − 2
√𝜎
𝑛1 𝑛2
𝑡 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 (𝑡𝑜𝑏𝑠 ) 𝑒𝑠𝑡 𝑐𝑜𝑚𝑝𝑎𝑟é𝑒 𝑎𝑣𝑒𝑐 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑡𝑠𝑒𝑢𝑖𝑙 𝑙𝑢𝑒 𝑑𝑎𝑛𝑠 𝑙𝑎 𝑡𝑎𝑏𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑆𝑡𝑢𝑑𝑒𝑛𝑡 𝑝𝑜𝑢𝑟 𝑢𝑛 𝑟𝑖𝑠𝑞𝑢𝑒
𝑑 ′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 𝑓𝑖𝑥é 𝑒𝑡 (𝑛1 + 𝑛2 − 2) 𝑑𝑑𝑙.
∎ 𝑆𝑖 𝑡𝑜𝑏𝑠 > 𝑡𝑠𝑒𝑢𝑖𝑙 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑟𝑒𝑗𝑒𝑡é𝑒 𝑎𝑢 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑 ′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 ∶ 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑠𝑜𝑛𝑡
𝑒𝑥𝑡𝑟𝑎𝑖𝑡𝑠 𝑑𝑒 𝑑𝑒𝑢𝑥 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑎𝑦𝑎𝑛𝑡 𝑑𝑒𝑠 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒𝑠 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑣𝑒𝑠 𝜇1 𝑒𝑡 𝜇2 .
∎ 𝑆𝑖 𝑡𝑜𝑏𝑠 ≤ 𝑡𝑠𝑒𝑢𝑖𝑙 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑎𝑐𝑐𝑒𝑝𝑡é𝑒 ∶ 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑠𝑜𝑛𝑡 𝑒𝑥𝑡𝑟𝑎𝑖𝑡𝑠 𝑑𝑒 𝑑𝑒𝑢𝑥
𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑎𝑦𝑎𝑛𝑡 𝑚ê𝑚𝑒 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒 𝜇.
30
𝑹𝒆𝒎𝒂𝒓𝒒𝒖𝒆
𝑃𝑜𝑢𝑟 𝑙 ′ 𝑎𝑝𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑐𝑒 𝑡𝑒𝑠𝑡 , 𝑖𝑙 𝑒𝑠𝑡 𝑖𝑚𝑝é𝑟𝑎𝑡𝑖𝑓 𝑞𝑢𝑒 𝑋 𝑠𝑢𝑖𝑡 𝒩 (𝜇 , 𝜎) 𝑝𝑜𝑢𝑟 𝑙𝑒𝑠 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑑𝑒 𝑡𝑎𝑖𝑙𝑙𝑒 < 30
𝑞𝑢𝑒 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑠𝑜𝑖𝑒𝑛𝑡 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑠 𝑒𝑡 𝑞𝑢𝑒 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 𝑠𝑜𝑖𝑒𝑛𝑡 é𝑔𝑎𝑙𝑒𝑠.

31
𝑳𝒆𝒔 𝒗𝒂𝒓𝒊𝒂𝒏𝒄𝒆𝒔 𝒅𝒆𝒔 𝒑𝒐𝒑𝒖𝒍𝒂𝒕𝒊𝒐𝒏𝒔 𝒔𝒐𝒏𝒕 𝒊𝒏𝒄𝒐𝒏𝒏𝒖𝒆𝒔 𝒆𝒕 𝒊𝒏é𝒈𝒂𝒍𝒆𝒔
𝑺𝒕𝒂𝒕𝒊𝒔𝒕𝒊𝒒𝒖𝒆 𝒅𝒖 𝒕𝒆𝒔𝒕
𝑆𝑖 𝑙𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 𝑑𝑒𝑠 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑛𝑒 𝑠𝑜𝑛𝑡 𝑝𝑎𝑠 𝑐𝑜𝑛𝑛𝑢𝑒𝑠 𝑒𝑡 𝑠𝑖 𝑙𝑒𝑢𝑟𝑠 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑖𝑜𝑛𝑠 à 𝑝𝑎𝑟𝑡𝑖𝑟 𝑑𝑒𝑠 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑠𝑜𝑛𝑡
𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑒𝑚𝑒𝑛𝑡 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑡𝑒𝑠 , 𝑖𝑙 𝑓𝑎𝑢𝑡 𝑐𝑜𝑛𝑠𝑖𝑑é𝑟𝑒𝑟 𝑑𝑒𝑢𝑥 𝑐𝑎𝑠 𝑑𝑒 𝑓𝑖𝑔𝑢𝑟𝑒 𝑠𝑒𝑙𝑜𝑛 𝑙𝑎 𝑡𝑎𝑖𝑙𝑙𝑒 𝑑𝑒𝑠 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠
𝑐𝑜𝑚𝑝𝑎𝑟é𝑠 ∶
¬ 𝑙𝑒𝑠 𝑔𝑟𝑎𝑛𝑑𝑠 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑎𝑣𝑒𝑐 𝑛1 𝑒𝑡 𝑛2 > 30
¬ 𝑙𝑒𝑠 𝑝𝑒𝑡𝑖𝑡𝑠 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑎𝑣𝑒𝑐 𝑛1 𝑒𝑡 𝑛2 < 30
𝐶𝑎𝑠 𝑜ù 𝑛1 𝑒𝑡 𝑛2 > 30
𝐿𝑎 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑢𝑡𝑖𝑙𝑖𝑠é𝑒 𝑒𝑠𝑡 𝑙𝑎 𝑚ê𝑚𝑒 𝑞𝑢𝑒 𝑝𝑜𝑢𝑟 𝑙𝑎 𝑐𝑎𝑠 𝑜ù 𝑙𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 𝑠𝑜𝑛𝑡 𝑐𝑜𝑛𝑛𝑢𝑒𝑠.
̅̅̅1 − 𝑋
(𝑋 ̅̅̅2 )
𝑆𝑜𝑢𝑠 𝐻0 ∶ 𝜇1 = 𝜇2 , 𝑍 = 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒 𝒩 ( 0 , 1).
𝜎2 𝜎22
√ 1
𝑛1 + 𝑛2

𝐶𝑜𝑚𝑚𝑒 𝑙𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 𝑠𝑜𝑛𝑡 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒𝑠 𝑒𝑡 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑒𝑚𝑒𝑛𝑡 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑡𝑒𝑠 𝜎12 ≠ 𝜎22 , 𝑜𝑛 𝑟𝑒𝑚𝑝𝑙𝑎𝑐𝑒 𝑙𝑒𝑠
𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒𝑠 𝑑𝑒𝑠 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑝𝑎𝑟 𝑙𝑒𝑢𝑟𝑠 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑖𝑜𝑛𝑠 𝑝𝑜𝑛𝑐𝑡𝑢𝑒𝑙𝑙𝑒𝑠 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒𝑠 à 𝑝𝑎𝑟𝑡𝑖𝑟 𝑑𝑒𝑠 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 ∶

̂2 = 𝑛1 ̂2 = 𝑛2 𝑠 2
𝜎 𝑠12 𝑒𝑡 𝜎
1
𝑛1 − 1 2
𝑛2 − 1 2
𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏 𝒆𝒕 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏
𝐿′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑡𝑒𝑠𝑡é𝑒 𝑒𝑠𝑡 𝑙𝑎 𝑠𝑢𝑖𝑣𝑎𝑛𝑡𝑒 ∶
𝐻0 ∶ 𝜇1 = 𝜇2 𝑐𝑜𝑛𝑡𝑟𝑒 𝐻1 ∶ 𝜇1 ≠ 𝜇2 .
𝑈𝑛𝑒 𝑣𝑎𝑙𝑒𝑢𝑟 𝑧 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒 𝑍 𝑒𝑠𝑡 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 ∶
𝑈𝑛𝑒 𝑣𝑎𝑙𝑒𝑢𝑟 𝑡 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒 𝑇 𝑒𝑠𝑡 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 ∶
|𝑥
̅̅̅1 − ̅̅̅|
𝑥2 |𝑥
̅̅̅1 − 𝑥
̅̅̅|
2
𝑧= = = 𝜀𝑜𝑏𝑠 , 𝜀 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 (𝜀𝑜𝑏𝑠 ) 𝑒𝑠𝑡 𝑐𝑜𝑚𝑝𝑎𝑟é𝑒 𝑎𝑣𝑒𝑐 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑡𝑠𝑒𝑢𝑖𝑙 𝑙𝑢𝑒 𝑑𝑎𝑛𝑠
̂2 ̂2 𝑠12 𝑠22
√𝜎1 + 𝜎2 √
𝑛1 𝑛2 𝑛1 − 1 + 𝑛2 − 1

𝑙𝑎 𝑡𝑎𝑏𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒 𝑝𝑜𝑢𝑟 𝑢𝑛 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑 ′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 𝑓𝑖𝑥é .


∎ 𝑆𝑖 𝜀𝑜𝑏𝑠 > 𝜀𝑠𝑒𝑢𝑖𝑙 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑟𝑒𝑗𝑒𝑡é𝑒 𝑎𝑢 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑 ′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 ∶ 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑠𝑜𝑛𝑡
𝑒𝑥𝑡𝑟𝑎𝑖𝑡𝑠 𝑑𝑒 𝑑𝑒𝑢𝑥 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑎𝑦𝑎𝑛𝑡 𝑑𝑒𝑠 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒𝑠 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑣𝑒𝑠 𝜇1 𝑒𝑡 𝜇2 .
∎ 𝑆𝑖 𝜀𝑜𝑏𝑠 ≤ 𝜀𝑠𝑒𝑢𝑖𝑙 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑎𝑐𝑐𝑒𝑝𝑡é𝑒 ∶ 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑠𝑜𝑛𝑡 𝑒𝑥𝑡𝑟𝑎𝑖𝑡𝑠 𝑑𝑒 𝑑𝑒𝑢𝑥
𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑎𝑦𝑎𝑛𝑡 𝑚ê𝑚𝑒 𝑒𝑠𝑝é𝑟𝑎𝑛𝑐𝑒 𝜇.

32
𝑹𝒆𝒎𝒂𝒓𝒒𝒖𝒆
𝑃𝑜𝑢𝑟 𝑙 ′ 𝑎𝑝𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑐𝑒 𝑡𝑒𝑠𝑡 , 𝑖𝑙 𝑒𝑠𝑡 𝑖𝑚𝑝é𝑟𝑎𝑡𝑖𝑓 𝑞𝑢𝑒 𝑋 𝑠𝑢𝑖𝑡 𝒩 (𝜇 , 𝜎) 𝑝𝑜𝑢𝑟 𝑙𝑒𝑠 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑠𝑜𝑖𝑒𝑛𝑡
𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑠.
𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏
𝑶𝒏 𝒔𝒐𝒖𝒉𝒂𝒊𝒕𝒆 𝒄𝒐𝒎𝒑𝒂𝒓𝒆𝒓 𝒍𝒆 𝒎𝒐𝒏𝒕𝒂𝒏𝒕 𝒅𝒆𝒔 𝒔𝒂𝒍𝒂𝒊𝒓𝒆𝒔 𝒎𝒆𝒏𝒔𝒖𝒆𝒍𝒔 𝒎𝒐𝒚𝒆𝒏𝒔 𝒅𝒆𝒔 𝒄𝒉𝒆𝒇𝒔 𝒅𝒆 𝒓𝒂𝒚𝒐𝒏 𝒅𝒂𝒏𝒔 𝒍𝒆𝒔
𝒈𝒓𝒂𝒏𝒅𝒆𝒔 𝒔𝒖𝒓𝒇𝒂𝒄𝒆𝒔 𝒑𝒐𝒖𝒓 𝒍𝒆𝒔 𝒓é𝒈𝒊𝒐𝒏𝒔 𝑨 𝒆𝒕 𝑩. 𝑷𝒐𝒖𝒓 𝒄𝒆𝒍𝒂 , 𝒐𝒏 𝒆𝒇𝒇𝒆𝒄𝒕𝒖𝒆 𝒅𝒆𝒔 𝒔𝒐𝒏𝒅𝒂𝒈𝒆𝒔 𝒂𝒖𝒑𝒓è𝒔 𝒅𝒆
𝒒𝒖𝒆𝒍𝒒𝒖𝒆𝒔 𝒔𝒂𝒍𝒂𝒓𝒊é𝒔 𝒄𝒉𝒐𝒊𝒔𝒊𝒔 𝒂𝒖 𝒉𝒂𝒔𝒂𝒓𝒅. 𝑽𝒐𝒊𝒄𝒊 𝒍𝒆𝒔 𝒕𝒂𝒃𝒍𝒆𝒂𝒖𝒙 𝒅𝒆𝒔 𝒓é𝒔𝒖𝒍𝒕𝒂𝒕𝒔 ∶
𝑹é𝒈𝒊𝒐𝒏 𝑨
𝑺𝒂𝒍𝒂𝒊𝒓𝒆 𝒆𝒏 𝒎𝑭 𝟏. 𝟓𝟎𝟎 𝟏. 𝟔𝟎𝟎 𝟏. 𝟕𝟎𝟎 𝟏. 𝟖𝟎𝟎 𝟏. 𝟗𝟎𝟎 𝟐. 𝟎𝟎𝟎 𝟐. 𝟏𝟎𝟎
𝑵𝒐𝒎𝒃𝒓𝒆 𝒅𝒆 𝒔𝒂𝒍𝒂𝒓𝒊é𝒔 𝟒 𝟕 𝟏𝟐 𝟐𝟏 𝟏𝟑 𝟏𝟏 𝟔

𝑹é𝒈𝒊𝒐𝒏 𝑩
𝑺𝒂𝒍𝒂𝒊𝒓𝒆 𝒆𝒏 𝒎𝑭 𝟏. 𝟔𝟎𝟎 𝟏. 𝟕𝟎𝟎 𝟏. 𝟗𝟎𝟎 𝟐. 𝟎𝟎𝟎 𝟐. 𝟏𝟎𝟎 𝟐. 𝟐𝟎𝟎
𝑵𝒐𝒎𝒃𝒓𝒆 𝒅𝒆 𝒔𝒂𝒍𝒂𝒓𝒊é𝒔 𝟑 𝟔 𝟐𝟎 𝟏𝟔 𝟏𝟑 𝟖

𝑷𝒆𝒖𝒕 − 𝒐𝒏 𝒄𝒐𝒏𝒔𝒊𝒅é𝒓𝒆𝒓 , 𝒂𝒖 𝒓𝒊𝒔𝒒𝒖𝒆 𝟓 % , 𝒒𝒖𝒆 𝒍𝒆𝒔 𝒔𝒂𝒍𝒂𝒊𝒓𝒆𝒔 𝒎𝒐𝒚𝒆𝒏𝒔 𝒅𝒂𝒏𝒔 𝒍𝒆𝒔 𝒅𝒆𝒖𝒙 𝒓é𝒈𝒊𝒐𝒏𝒔 𝒔𝒐𝒏𝒕
𝒅𝒊𝒇𝒇é𝒓𝒆𝒏𝒕𝒔 ?

33
𝒄) 𝑪𝒐𝒎𝒑𝒂𝒓𝒂𝒊𝒔𝒐𝒏 𝒅𝒆 𝒅𝒆𝒖𝒙 𝒇𝒓é𝒒𝒖𝒆𝒏𝒄𝒆𝒔
𝑷𝒓𝒊𝒏𝒄𝒊𝒑𝒆 𝒅𝒖 𝒕𝒆𝒔𝒕
𝑆𝑜𝑖𝑡 𝑋 𝑢𝑛𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑞𝑢𝑎𝑛𝑡𝑖𝑡𝑎𝑡𝑖𝑣𝑒 𝑝𝑟𝑒𝑛𝑎𝑛𝑡 𝑑𝑒𝑢𝑥 𝑚𝑜𝑑𝑎𝑙𝑖𝑡é𝑠 ( 𝑠𝑢𝑐𝑐è𝑠 𝑋 = 1 , é𝑐ℎ𝑒𝑐 𝑋 = 0) 𝑜𝑏𝑠𝑟𝑣é𝑒 𝑠𝑢𝑟
2 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑒𝑡 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑠 𝑒𝑥𝑡𝑟𝑎𝑖𝑡𝑠 𝑑𝑒 𝑐𝑒𝑠 𝑑𝑒𝑢𝑥 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 .
𝑂𝑛 𝑓𝑎𝑖𝑡 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑞𝑢𝑒 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑝𝑟𝑜𝑣𝑖𝑒𝑛𝑛𝑒𝑛𝑡 𝑑𝑒 2 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑑𝑜𝑛𝑡 𝑙𝑒𝑠 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑑𝑒
𝑠𝑢𝑐𝑐è𝑠 𝑠𝑜𝑛𝑡 𝑖𝑑𝑒𝑛𝑡𝑖𝑞𝑢𝑒𝑠.
𝐿𝑒 𝑝𝑟𝑜𝑏𝑙è𝑚𝑒 𝑒𝑠𝑡 𝑑𝑒 𝑠𝑎𝑣𝑜𝑖𝑟 𝑠𝑖 𝑙𝑎 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒 𝑒𝑛𝑡𝑟𝑒 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒𝑠 𝑜𝑏𝑠𝑒𝑟𝑣é𝑒𝑠 𝑒𝑠𝑡 𝑟é𝑒𝑙𝑙𝑒 𝑜𝑢 𝑒𝑥𝑝𝑙𝑖𝑐𝑎𝑏𝑙𝑒
𝑝𝑎𝑟 𝑙𝑒𝑠 𝑓𝑙𝑢𝑐𝑡𝑢𝑎𝑡𝑖𝑜𝑛𝑠 𝑑′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑛𝑎𝑔𝑒. 𝑃𝑜𝑢𝑟 𝑟é𝑠𝑜𝑢𝑑𝑟𝑒 𝑐𝑒 𝑝𝑟𝑜𝑏𝑙è𝑚𝑒 , 𝑑𝑒𝑢𝑥 𝑡𝑒𝑠𝑡𝑠 𝑑𝑒 𝑐𝑜𝑚𝑝𝑎𝑟𝑎𝑖𝑠𝑜𝑛 𝑑𝑒
𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒𝑠 𝑠𝑜𝑛𝑡 𝑝𝑜𝑠𝑠𝑖𝑏𝑙𝑒𝑠 ∶ 𝑇𝑒𝑠𝑡 𝜀 𝑜𝑢 𝑡𝑒𝑠𝑡 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒 𝑒𝑡 𝑙𝑒 𝑡𝑒𝑠𝑡 𝑑𝑒 𝐾ℎ𝑖 − 𝑑𝑒𝑢𝑥 (𝜒 2 ).
∎ 𝑺𝒕𝒂𝒕𝒊𝒔𝒕𝒊𝒒𝒖𝒆 𝒅𝒖 𝒕𝒆𝒔𝒕 𝜺
𝑘1
¬ 𝐿𝑎 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛 𝑑 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑛𝑎𝑔𝑒 𝑑𝑒 𝑙𝑎 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑑𝑒 𝑠𝑢𝑐𝑐è𝑠 𝑑𝑎𝑛𝑠 𝑙𝑎 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 1 , 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖
𝑛1

𝑘1 𝑝1 𝑞1 𝑘2 𝑝2 𝑞2
𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 ∶ ~ 𝒩 ( 𝑝1 , √ ) 𝑒𝑡 𝑑𝑒 𝑚ê𝑚𝑒 𝑝𝑜𝑢𝑟 ~ 𝒩 ( 𝑝2 , √ ) 𝑠𝑖 𝑒𝑡
𝑛1 𝑛1 𝑛2 𝑛2

𝑠𝑒𝑢𝑙𝑒𝑚𝑒𝑛𝑡 𝑛1 𝑝1 , 𝑛1 𝑞1 , 𝑛2 𝑝2 , 𝑛2 𝑞2 ≥ 10
𝑘1 𝑘2
¬ 𝑒𝑡 é𝑡𝑎𝑛𝑡 𝑑𝑒𝑢𝑥 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒𝑠 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑒𝑠 , 𝑛𝑜𝑢𝑠 𝑝𝑜𝑢𝑣𝑜𝑛𝑠 é𝑡𝑎𝑏𝑙𝑖𝑟 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é
𝑛1 𝑛2
𝑘1 𝑘2
𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 − ∶
𝑛1 𝑛2
𝑘1 𝑘2 𝑘1 𝑘2
𝐸 ( − ) = 𝐸 ( ) − 𝐸 ( ) = 𝑝1 − 𝑝2
𝑛1 𝑛2 𝑛1 𝑛2
𝑘1 𝑘2 𝑘1 𝑘2 𝑝1 𝑞1 𝑝2 𝑞2
𝑉𝑎𝑟 ( − ) = 𝑉𝑎𝑟 ( ) − 𝑉𝑎𝑟 ( ) = + .
𝑛1 𝑛2 𝑛1 𝑛2 𝑛1 𝑛2

𝑘1 𝑘2 𝑝1 𝑞1 𝑝2 𝑞2
𝑆𝑎𝑐ℎ𝑎𝑛𝑡 𝑞𝑢𝑒 − 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝒩 ( 𝑝1 − 𝑝2 , √ + ) , 𝑛𝑜𝑢𝑠 𝑝𝑜𝑢𝑣𝑜𝑛𝑠 é𝑡𝑎𝑏𝑙𝑖𝑟
𝑛1 𝑛2 𝑛1 𝑛2

𝑔𝑟â𝑐𝑒 𝑎𝑢 𝑡ℎé𝑜𝑟è𝑚𝑒 𝑐𝑒𝑛𝑡𝑟𝑎𝑙 𝑙𝑖𝑚𝑖𝑡𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑐𝑒 𝑍 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒 𝑡𝑒𝑙𝑙𝑒 𝑞𝑢𝑒 ∶


𝑘 𝑘
(𝑛1 − 𝑛2 ) − ( 𝑝1 − 𝑝2 )
𝑍= 1 2
.
𝑝1 𝑞1 𝑝2 𝑞2
√ 𝑛 + 𝑛
1 2

34
𝑝1 𝑞1 + 𝑝2 𝑞2
𝑆𝑜𝑢𝑠 𝐻0 ∶ 𝑝1 = 𝑝2 , 𝑎𝑣𝑒𝑐 𝑝 =
𝑛1 + 𝑛2
𝑘 𝑘
(𝑛1 − 𝑛2 ) − ( 𝑝1 − 𝑝2 )
𝑍= 1 2
𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒 𝒩 ( 0 , 1).
1 1
√𝑝 𝑞 ( + )
𝑛1 𝑛2
𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏 𝒆𝒕 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏
𝐿𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑝 , 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑑𝑢 𝑠𝑢𝑐𝑐è𝑠 𝑐𝑜𝑚𝑚𝑢𝑛𝑒 𝑎𝑢𝑥 𝑑𝑒𝑢𝑥 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑛′ 𝑒𝑠𝑡 𝑒𝑛 𝑟é𝑎𝑙𝑖𝑡é 𝑝𝑎𝑠 𝑐𝑜𝑛𝑛𝑢𝑒.
𝑘1 + 𝑘2
𝑂𝑛 𝑙 ′ 𝑒𝑠𝑡𝑖𝑚𝑒 à 𝑝𝑎𝑟𝑡𝑖𝑟 𝑑𝑒𝑠 𝑟é𝑠𝑢𝑙𝑡𝑎𝑡𝑠 𝑜𝑏𝑠𝑒𝑟𝑣é𝑠 𝑠𝑢𝑟 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 ∶ 𝑝̂ = 𝑜ù 𝑘1 𝑒𝑡 𝑘2
𝑛1 + 𝑛2
𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑒𝑛𝑡 𝑙𝑒 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑠𝑢𝑐𝑐è𝑠 𝑜𝑏𝑠𝑒𝑟𝑣é𝑠 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑣𝑒𝑚𝑒𝑛𝑡 𝑝𝑜𝑢𝑟 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛1 𝑒𝑡 𝑝𝑜𝑢𝑟 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 2.
𝐿′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑡𝑒𝑠𝑡é𝑒 𝑒𝑠𝑡 𝑙𝑎 𝑠𝑢𝑖𝑣𝑎𝑛𝑡𝑒 ∶
𝐻0 ∶ 𝑝1 = 𝑝2 𝑐𝑜𝑛𝑡𝑟𝑒 𝐻1 ∶ 𝑝1 ≠ 𝑝2 , 𝑢𝑛𝑒 𝑣𝑎𝑙𝑒𝑢𝑟 𝑧 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒 𝑍 𝑒𝑠𝑡 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 𝑝𝑎𝑟 ∶
𝑘 𝑘
(𝑛1 − 𝑛2 ) 𝑘1 + 𝑘2
1 2
𝑧= , 𝑎𝑣𝑒𝑐 𝑝̂ = 𝑛𝑜𝑡é𝑒 𝜀 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 (𝜀𝑜𝑏𝑠 ) 𝑒𝑠𝑡 𝑐𝑜𝑚𝑝𝑎𝑟é𝑒 𝑎𝑣𝑒𝑐 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝜀𝑠𝑒𝑢𝑖𝑙 𝑙𝑢𝑒 𝑑𝑎𝑛𝑠
1 1 𝑛1 + 𝑛2
√𝑝̂ 𝑞̂ ( + )
𝑛1 𝑛2
𝑙𝑎 𝑡𝑎𝑏𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑛𝑜𝑟𝑚𝑎𝑙𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑟é𝑑𝑢𝑖𝑡𝑒 𝑝𝑜𝑢𝑟 𝑢𝑛 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑 ′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 𝑓𝑖𝑥é.
∎ 𝑆𝑖 𝜀𝑜𝑏𝑠 ≥ 𝜀𝑠𝑒𝑢𝑖𝑙 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑟𝑒𝑗𝑒𝑡é𝑒 𝑎𝑢 𝑟𝑖𝑠𝑞𝑢𝑒 𝑑 ′ 𝑒𝑟𝑟𝑒𝑢𝑟 𝛼 ∶ 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑠𝑜𝑛𝑡
𝑒𝑥𝑡𝑟𝑎𝑖𝑡𝑠 𝑑𝑒 𝑑𝑒𝑢𝑥 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑎𝑦𝑎𝑛𝑡 𝑑𝑒𝑠 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é𝑠 𝑑𝑒 𝑠𝑢𝑐𝑐è𝑠 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑣𝑒𝑠 𝑝1 𝑒𝑡 𝑝2 .
∎ 𝑆𝑖 𝜀𝑜𝑏𝑠 ≤ 𝜀𝑠𝑒𝑢𝑖𝑙 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑎𝑐𝑐𝑒𝑝𝑡é𝑒 ∶ 𝑙𝑒𝑠 𝑑𝑒𝑢𝑥 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛𝑠 𝑠𝑜𝑛𝑡 𝑒𝑥𝑡𝑟𝑎𝑖𝑡𝑠 𝑑𝑒 𝑑𝑒𝑢𝑥
𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛𝑠 𝑎𝑦𝑎𝑛𝑡 𝑙𝑎 𝑚ê𝑚𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑑𝑒 𝑠𝑢𝑐𝑐è𝑠 𝑝.

𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏
𝑶𝒏 𝒗𝒆𝒖𝒕 𝒕𝒆𝒔𝒕𝒆𝒓 𝒍′ 𝒊𝒎𝒑𝒂𝒄𝒕 𝒅𝒆𝒔 𝒕𝒓𝒂𝒗𝒂𝒖𝒙 𝒅𝒊𝒓𝒊𝒈é𝒔 𝒅𝒂𝒏𝒔 𝒍𝒂 𝒄𝒐𝒎𝒑𝒓é𝒉𝒆𝒏𝒔𝒊𝒐𝒏 𝒅𝒆𝒔 𝒄𝒐𝒖𝒓𝒔.
𝑳𝒆𝒔 𝒐𝒃𝒔𝒆𝒓𝒗𝒂𝒕𝒊𝒐𝒏𝒔 𝒔𝒐𝒏𝒕 𝒆𝒏𝒓𝒆𝒈𝒊𝒔𝒕𝒓é𝒆𝒔 𝒅𝒂𝒏𝒔 𝒍𝒆 𝒕𝒂𝒃𝒍𝒆𝒂𝒖 𝒔𝒖𝒊𝒗𝒂𝒏𝒕 ∶

𝑮𝒓𝒐𝒖𝒑𝒆 𝟏 𝑮𝒓𝒐𝒖𝒑𝒆 𝟐
𝑵𝒐𝒎𝒃𝒓𝒆 𝒅′ 𝒉𝒆𝒖𝒓𝒆𝒔 𝑻𝑫 𝟐𝟎 𝒉 𝟑𝟎 𝒉
𝑵𝒐𝒎𝒃𝒓𝒆 𝒅′ é𝒕𝒖𝒅𝒊𝒂𝒏𝒕𝒔 𝟏𝟖𝟎 𝟏𝟓𝟎
𝑵𝒐𝒎𝒃𝒓𝒆 𝒅𝒆 𝒓é𝒖𝒔𝒔𝒊𝒕𝒆 𝟏𝟐𝟔 𝟏𝟐𝟗

𝑸𝒖′ 𝒆𝒏 𝒑𝒆𝒏𝒔𝒆𝒛 − 𝒗𝒐𝒖𝒔 ?

35
∎ 𝑺𝒕𝒂𝒕𝒊𝒔𝒕𝒊𝒒𝒖𝒆 𝒅𝒖 𝒕𝒆𝒔𝒕 𝒅𝒖 𝑲𝒉𝒊𝟐
𝐿𝑒 𝑡𝑒𝑠𝑡 𝑑𝑒 𝜒 2 𝑝𝑜𝑟𝑡𝑒 𝑠𝑢𝑟 𝑙𝑒𝑠 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒𝑠 𝑒𝑛𝑡𝑟𝑒 𝑙𝑒𝑠 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒𝑠 𝑜𝑏𝑠𝑒𝑟𝑣é𝑒𝑠 𝑒𝑡 𝑙𝑒𝑠 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒𝑠 𝑡ℎé𝑜𝑟𝑖𝑞𝑢𝑒𝑠
(𝐻𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑛𝑢𝑙𝑙𝑒 𝐻0 ).

𝐿𝑒 𝑐𝑎𝑙𝑐𝑢𝑙 𝑑𝑒𝑠 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒𝑠 𝑝𝑒𝑟𝑚𝑒𝑡 𝑑𝑒 𝑐𝑜𝑚𝑝𝑎𝑟𝑒𝑟 𝑢𝑛𝑒 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑞𝑢𝑒 𝑒𝑥𝑝é𝑟𝑖𝑚𝑒𝑛𝑡𝑎𝑙𝑒 à 𝑢𝑛𝑒 𝑙𝑜𝑖

𝑑𝑜𝑛𝑛é𝑒.

𝑪𝒐𝒏𝒅𝒊𝒕𝒊𝒐𝒏𝒔

∎ 𝐿𝑒𝑠 𝑛 𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑢𝑠 𝑑𝑒 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 (𝑛 > 50) 𝑒𝑛 𝑐𝑙𝑎𝑠𝑠𝑒 𝑘 (𝑘 < 20) 𝑐ℎ𝑎𝑐𝑢𝑛𝑒 𝑑 ′ 𝑒𝑓𝑓𝑒𝑐𝑡𝑖𝑓 𝑛𝑖 > 5 (𝑠𝑖𝑛𝑜𝑛

𝑜𝑛 𝑓𝑢𝑠𝑖𝑜𝑛𝑛𝑒 𝑙𝑒𝑠 𝑐𝑙𝑎𝑠𝑠𝑒𝑠 𝑎𝑑𝑗𝑎𝑐𝑒𝑛𝑡𝑒𝑠 ).

∎ 𝜒 2 𝑒𝑠𝑡 𝑙𝑎 𝑠𝑜𝑚𝑚𝑒 𝑑𝑒𝑠 𝑐𝑎𝑟𝑟é𝑠 𝑑𝑒𝑠 𝑑𝑒𝑠 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒𝑠 ∶

→ 𝑠𝑖 𝜒 2 = 0, 𝑎𝑙𝑜𝑟𝑠 𝑙𝑒𝑠 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒𝑠 𝑠𝑜𝑛𝑡 𝑙𝑒𝑠 𝑚ê𝑚𝑒.

→ 𝑠𝑖 𝜒 2 𝑒𝑠𝑡 𝑖𝑚𝑝𝑜𝑟𝑡𝑎𝑛𝑡𝑒 , 𝑎𝑙𝑜𝑟𝑠 𝑙𝑒𝑠 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑜𝑛𝑠 𝑠𝑜𝑛𝑡 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑡𝑒𝑠.

∎ 𝐿𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝜒 2 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑑𝑒 𝑃𝑒𝑎𝑟𝑠𝑜𝑛 𝑎𝑣𝑒𝑐 𝑢𝑛 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑑𝑒𝑔𝑟é𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡é 𝜈 𝑐𝑜𝑟𝑟𝑖𝑔é.

𝑵𝒐𝒕𝒂𝒕𝒊𝒐𝒏𝒔

∎ 𝑚 𝑒𝑠𝑡 𝑙𝑒 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑′ 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑒𝑢𝑟𝑠 𝑢𝑡𝑖𝑙𝑖𝑠é𝑠.

∎ 𝑘 𝑒𝑠𝑡 𝑙𝑒 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑙𝑎𝑠𝑠𝑒.

∎ 𝜈 𝑒𝑠𝑡 𝑙𝑒 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑑𝑒𝑔𝑟é𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡é.

𝑂𝑛 𝑎 ∶ 𝜈 = 𝑘 − 1 − 𝑚.

𝑫é𝒇𝒊𝒏𝒊𝒕𝒊𝒐𝒏

𝜒 2 𝑒𝑠𝑡 𝑢𝑛𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑒 𝑞𝑢𝑖 𝑜𝑏é𝑖𝑡 à 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑎𝑝𝑝𝑒𝑙é𝑒 𝑘ℎ𝑖 𝑑𝑒𝑢𝑥 à 𝜈 𝑑𝑑𝑙 𝑒𝑡 𝑑é𝑓𝑖𝑛𝑖𝑒 𝑝𝑎𝑟

𝑘
2
(𝑓𝑖 − 𝑁𝑃𝑖 )2
𝜒 =∑ 𝑜ù 𝑓𝑖 𝑒𝑠𝑡 𝑙𝑎 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑜𝑏𝑠𝑒𝑟𝑣é𝑒 𝑒𝑡 𝑁𝑃𝑖 𝑒𝑠𝑡 𝑙𝑎 𝑓𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑡ℎé𝑜𝑟𝑖𝑞𝑢𝑒.
𝑁𝑃𝑖
𝑖=1

𝑹𝒆𝒎𝒂𝒓𝒒𝒖𝒆𝒔

∎ 𝐿𝑎 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛 𝑑𝑒𝑛𝑠𝑖𝑡é 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝜒 2 𝑛𝑜𝑡é𝑒 𝑓(𝜒 2 ) 𝑑é𝑝𝑒𝑛𝑑 𝑑𝑒 𝜈 𝑜ù 𝑑𝑒 𝑙𝑎 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛 𝑑𝑒 𝑟é𝑝𝑎𝑟𝑡𝑖𝑡𝑖𝑜𝑛.

∎ 𝐿𝑎 𝑡𝑎𝑏𝑙𝑒 𝑓𝑜𝑢𝑟𝑛𝑖𝑒 𝑝𝑜𝑢𝑟 𝑙𝑎 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒 𝑑𝑑𝑙 , 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑐𝑟𝑖𝑡𝑖𝑞𝑢𝑒 𝜒𝛼2 .

36
𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏

𝑂𝑛 𝑑𝑜𝑛𝑛𝑒 𝜈 = 25 𝑒𝑡 𝛼 = 5 %.

2
𝑂𝑛 𝑎 ∶ 𝜒0,05 = 37,65 𝑐 ′ 𝑒𝑠𝑡 − à − 𝑑𝑖𝑟𝑒 𝑞𝑢′ 𝑖𝑙 𝑦 𝑎 5 % 𝑑𝑒 𝑐ℎ𝑎𝑛𝑐𝑒𝑠 𝑞𝑢𝑒 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑑𝑒 𝜒 2 𝑐𝑎𝑙𝑐𝑢𝑙é𝑒 𝑑é𝑝𝑎𝑠𝑠𝑒

2
𝜒0,05 .

𝑷𝒓𝒊𝒏𝒄𝒊𝒑𝒆 𝒅𝒖 𝒕𝒆𝒔𝒕

∎ 𝑂𝑛 𝑐𝑎𝑙𝑐𝑢𝑙𝑒 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑑𝑢 𝜒 2 𝑒𝑡 𝑙𝑒 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑑𝑒𝑔𝑟é𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡é.

∎ 𝑂𝑛 𝑐ℎ𝑒𝑟𝑐ℎ𝑒 𝑑𝑎𝑛𝑠 𝑙𝑎 𝑡𝑎𝑏𝑙𝑒 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑃𝑒𝑎𝑟𝑠𝑜𝑛 , 𝑙𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑙𝑖𝑚𝑖𝑡𝑒 𝜒𝛼2 ∶

→ 𝑆𝑖 𝜒 2 > 𝜒𝛼2 , 𝑎𝑙𝑜𝑟𝑠 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑛𝑢𝑙𝑙𝑒 𝑒𝑠𝑡 𝑟𝑒𝑗𝑒𝑡é𝑒 (𝑙𝑎 𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒 𝑒𝑠𝑡 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑒).

→ 𝑆𝑖 𝜒 2 < 𝜒𝛼2 , 𝑎𝑙𝑜𝑟𝑠 𝑙𝑒 𝑟é𝑠𝑢𝑙𝑡𝑎𝑡 𝑛′ 𝑒𝑠𝑡 𝑝𝑎𝑠 𝑒𝑛 𝑐𝑜𝑛𝑡𝑟𝑎𝑑𝑖𝑐𝑡𝑖𝑜𝑛 𝑎𝑣𝑒𝑐 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑎𝑢 𝑟𝑖𝑠𝑞𝑢𝑒 𝛼.

𝑬𝒙𝒆𝒎𝒑𝒍𝒆

𝑂𝑛 𝑡𝑖𝑟𝑒 200 𝑏𝑜𝑢𝑙𝑒𝑠 𝑑𝑎𝑛𝑠 𝑢𝑛𝑒 𝑢𝑟𝑛𝑒 à 4 𝑐𝑜𝑢𝑙𝑒𝑢𝑟𝑠. 𝐿𝑒𝑠 𝑟é𝑠𝑢𝑙𝑡𝑎𝑡𝑠 𝑠𝑜𝑛𝑡 𝑐𝑜𝑛𝑠𝑖𝑔𝑛é𝑠 𝑑𝑎𝑛𝑠 𝑙𝑎 𝑡𝑎𝑏𝑙𝑒𝑎𝑢

𝑠𝑢𝑖𝑣𝑎𝑛𝑡 ∶

𝐶𝑜𝑢𝑙𝑒𝑢𝑟 (𝑐𝑙𝑎𝑠𝑠𝑒) 1 2 3 4
𝑃𝑜𝑢𝑟𝑐𝑒𝑛𝑡𝑎𝑔𝑒 𝑃𝑖 𝑑𝑎𝑛𝑠 𝑙 ′ 𝑢𝑟𝑛𝑒 30 % 20 % 40 % 10 %
𝐹𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑜𝑏𝑠𝑒𝑟𝑣é𝑒 70 40 68 22

𝑅é𝑠𝑜𝑙𝑢𝑡𝑖𝑜𝑛
𝐶𝑜𝑢𝑙𝑒𝑢𝑟 (𝑐𝑙𝑎𝑠𝑠𝑒) 1 2 3 4
𝑃𝑜𝑢𝑟𝑐𝑒𝑛𝑡𝑎𝑔𝑒 𝑃𝑖 𝑑𝑎𝑛𝑠 𝑙 ′ 𝑢𝑟𝑛𝑒 30 % 20 % 40 % 10 %
𝐹𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑡ℎé𝑜𝑟𝑖𝑞𝑢𝑒 60 40 80 20
𝐹𝑟é𝑞𝑢𝑒𝑛𝑐𝑒 𝑜𝑏𝑠𝑒𝑟𝑣é𝑒 70 40 68 22
𝐸𝑐𝑎𝑟𝑡 10 0 −12 2

𝑘
2
(𝑓𝑖 − 𝑁𝑃𝑖 )2 102 02 122 22
𝑂𝑛 𝑐𝑎𝑙𝑐𝑢𝑙𝑒 𝜒 = ∑ = + + + = 3,67.
𝑁𝑃𝑖 60 40 80 20
𝑖=1

2
𝑃𝑜𝑢𝑟 𝑉 = 3 𝑒𝑡 𝛼 = 0,05, 𝑜𝑛 𝑎 ∶ 𝜒 2 < 𝜒0,05 , 𝑑𝑜𝑛𝑐 𝑙 ′ é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑝𝑟𝑜𝑣𝑖𝑒𝑛𝑡 𝑏𝑖𝑒𝑛 𝑑𝑒 𝑙 ′ 𝑢𝑟𝑛𝑒.

37
𝑹é𝒔𝒖𝒎é
𝑻𝒆𝒔𝒕 𝒅𝒆 𝒄𝒐𝒏𝒇𝒐𝒓𝒎𝒊𝒕é

∎ 𝑃𝑜𝑢𝑟 𝑛 ≥ 30 , 𝑢𝑛 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑒 (𝑛 , 𝑚 , √𝑒) 𝑒𝑠𝑡 𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑎𝑡𝑖𝑓 𝑜𝑢 𝑐𝑜𝑛𝑓𝑜𝑟𝑚𝑒 𝑎𝑣𝑒𝑐

𝜎 𝜎 𝑋̅ − 𝑚𝑒
𝜎𝑑 = ≈ 𝑒𝑡 𝑋̅ ↝ 𝒩 (𝑚𝑒 , 𝜎𝑑 ) ⟹ ∈ [−𝑡𝛼 ; 𝑡𝛼 ] .
√𝑛 √𝑛 − 1 𝜎𝑑

∎ 𝑃𝑜𝑢𝑟 𝑛 ≥ 50 𝑒𝑡 𝑛 𝑝 𝑞 ≥ 10 , 𝑢𝑛 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑒 (𝑛 , 𝑡𝑒 ) 𝑛𝑜𝑛 𝑒𝑥ℎ𝑎𝑢𝑠𝑡𝑖𝑓 𝑑 ′ 𝑢𝑛𝑒 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛

𝑃 (𝑁 , 𝑓) 𝑒𝑠𝑡 𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑎𝑡𝑖𝑓 𝑜𝑢 𝑐𝑜𝑛𝑓𝑜𝑟𝑚𝑒 𝑠𝑖 𝑒𝑡 𝑠𝑒𝑢𝑙𝑒𝑚𝑒𝑛𝑡 𝑠𝑖

𝐹 − 𝑓𝑒 𝑝𝑞
∈ [−𝑡𝛼 ; 𝑡𝛼 ] 𝑎𝑣𝑒𝑐 𝜎𝑑 = √ 𝑜ù 𝑝 𝑞 = 𝑓𝑒 (1 − 𝑓𝑒 ) 𝑒𝑡 𝐹 ↝ 𝒩 (𝑓𝑒 , 𝜎𝑑 ) .
𝜎𝑑 𝑛

𝑨𝒑𝒑𝒍𝒊𝒄𝒂𝒕𝒊𝒐𝒏

𝑈𝑛𝑒 𝑚𝑎𝑐ℎ𝑖𝑛𝑒 𝑒𝑚𝑏𝑎𝑙𝑙𝑒 𝑎𝑢𝑡𝑜𝑚𝑎𝑡𝑖𝑞𝑢𝑒𝑚𝑒𝑛𝑡 𝑒𝑡 𝑒𝑛 𝑠é𝑟𝑖𝑒 𝑑𝑒𝑠 𝑝𝑎𝑞𝑢𝑒𝑡𝑠 𝑑𝑒 𝑏𝑒𝑢𝑟𝑟𝑒 𝑐𝑜𝑚𝑚𝑒 𝑙 ′ 𝑖𝑛𝑑𝑖𝑞𝑢𝑒 𝑢𝑛

é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑑𝑎𝑛𝑠 𝑙𝑒 𝑡𝑎𝑏𝑙𝑒𝑎𝑢 𝑠𝑢𝑖𝑣𝑎𝑛𝑡 ∶

𝑀𝑎𝑠𝑠𝑒 𝑒𝑛 𝑔 247 248 249 250 251 252 253 254


𝑁𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑝𝑎𝑞𝑢𝑒𝑡𝑠 2 2 8 13 11 5 3 2

𝐶𝑒𝑡𝑡𝑒 𝑚𝑎𝑐ℎ𝑖𝑛𝑒 𝑒𝑠𝑡 𝑟é𝑔𝑙é𝑒 𝑝𝑜𝑢𝑟 𝑞𝑢𝑒 𝑙𝑎 𝑚𝑎𝑠𝑠𝑒 𝑑 ′ 𝑢𝑛 𝑝𝑎𝑞𝑢𝑒𝑡 𝑑𝑒 𝑏𝑒𝑢𝑟𝑟𝑒 𝑠𝑢𝑖𝑣𝑒 𝑢𝑛𝑒 𝑙𝑜𝑖 𝒩 (250 ; 1,7) .

𝑉é𝑟𝑖𝑓𝑖𝑜𝑛𝑠 𝑠𝑖 𝑙𝑎 𝑚𝑎𝑠𝑠𝑒 𝑚𝑜𝑦𝑒𝑛𝑛𝑒 𝑚 𝑑𝑒𝑠 𝑝𝑎𝑞𝑢𝑒𝑡𝑠 𝑑𝑒 𝑏𝑒𝑢𝑟𝑟𝑒 𝑝𝑟𝑜𝑑𝑢𝑖𝑡𝑠 𝑝𝑎𝑟 𝑙𝑎 𝑚𝑎𝑐ℎ𝑖𝑛𝑒 𝑒𝑠𝑡 𝑏𝑖𝑒𝑛 250 𝑔

𝑑𝑎𝑛𝑠 𝑢𝑛 é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛 𝑑𝑒 𝑡𝑎𝑖𝑙𝑙𝑒 50 𝑎𝑢 𝑠𝑒𝑢𝑖𝑙 𝑑𝑒 5 % .

∎ 𝐻𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑛𝑢𝑙𝑙𝑒 𝐻0 ∶ 𝑚 = 250 .

∎ 𝐻𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑒 𝐻1 ∶ 𝑚 ≠ 250 .

𝜎 𝜎
∎ 𝐼𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑐𝑒 𝐼𝐶 = [𝑚𝑒 − 𝑡𝛼 × ; 𝑚𝑒 + 𝑡𝛼 × ].
√𝑛 √𝑛

𝑹è𝒈𝒍𝒆 𝒅𝒆 𝒅é𝒄𝒊𝒔𝒊𝒐𝒏

8
1 12.512
𝑋̅ = ∑ 𝑛𝑖 𝑥𝑖 = = 250,24 ∈ 𝐼𝐶 , 𝑑𝑜𝑛𝑐 𝑙 ′ ℎ𝑦𝑝𝑜𝑡ℎè𝑠𝑒 𝐻0 𝑒𝑠𝑡 𝑎𝑐𝑐𝑒𝑝𝑡é𝑒 𝑒𝑡 𝑜𝑛 𝑝𝑒𝑢𝑡 𝑎𝑓𝑓𝑖𝑟𝑚𝑒𝑟 𝑎𝑢
𝑁 50
𝑖=1

𝑟𝑖𝑠𝑞𝑢𝑒 𝑑𝑒 5 % 𝑞𝑢𝑒 𝑙𝑎 𝑚𝑜𝑦𝑒𝑛𝑛𝑒 𝑑𝑒𝑠 𝑝𝑎𝑞𝑢𝑒𝑡𝑠 𝑑𝑒 𝑏𝑒𝑢𝑟𝑟𝑒 𝑒𝑠𝑡 𝑏𝑖𝑒𝑛 50 % .

38

Vous aimerez peut-être aussi