Vous êtes sur la page 1sur 327

‫مرجع‬

‫مقدمه ای بر نظریه آمار‬

‫تألیف‬
‫الکساندر ‪ .‬م ‪ .‬مود‬
‫فرانگلین ‪ .‬آ ‪ .‬گریبیل‬
‫دون ‪ .‬س ‪ .‬بوز‬
‫فهرست مطالب ‪:‬‬
‫‪ -1‬برآورد بازه ای پارامتر‬
‫‪ -2‬آزمون فرض ها‬
‫‪ -3‬مدل های خطی‬
‫هدف فصل ‪:‬‬
‫ساخت استنباطی که طبق آن مقدار‬
‫واقعی پارامتر در یک بازه معین قرار‬
‫گیرد ‪.‬‬
‫عناوین مهم فصل ‪:‬‬
‫‪ 1‬ـ بازه های اطمینان‬
‫‪ 2‬ـ نمونه گیری از توزیع نرمال‬
‫‪ 3‬ـ روش های یافتن بازه های اطمینان‬
‫‪ 4‬ـ بازه های اطمینان بزرگ نمونه ای‬
‫مقدمه ‪ :‬اگـر ـیك یـا ـچنـد پارامتر در جامعه‬
‫مجهول باشد و بخواهیم به نوعي به آنها دسترسي‬
‫پیدا كنیم ‪ ،‬به سراغ برآورد خواهیم رفت كه در‬
‫حالـت ـكلـي ـبـه ـدو ـصـورت ـمورد ـتوجه ـقرار ـ ـ ـ ـ‬
‫میگیرد‪:‬‬
Point Estimation ‫ـ‬1

Interval ‫ـ‬2
Estimation – or –
Confidence Interval
‫از آنجایي كـه نمي توانیم غالباً به برآورد‬
‫نقطـه ـاي ـدسـترسي ـپیدا ـكنیـم ـبـه ـسراغ ـبرآورد‬
‫فاصله اي مي رویم ‪.‬‬
‫در حالت كلي بر حسب گرفتن نمونه از‬
‫توزیع مورد نظر و معرفي آماره هاي‬
‫) ‪T1 = T1 ( X 1 , X 2 , , X n ,θ‬‬

‫) ‪T2 = T2 ( X 1 , X 2 , , X n ,θ‬‬

‫) ‪τ (θ‬‬
‫در‬ ‫به سراغ تابعي از پارامتر به شكل‬
‫سطح گاما می رویم ‪.‬‬
‫در حالیكه اطلعات زیر همواره مورد توجه‬
‫ما خواهد بود ‪.‬‬
‫‪P = [T1 < τ (θ ) < T2 ] = γ‬‬
‫‪T2‬‬ ‫‪T1‬‬
‫به پارامتر بستگي ندارد ‪.‬‬ ‫و‬ ‫‪ 1‬ـ توزیع‬
‫منحصراً به ‪ γ‬بستگي‬ ‫‪ T1‬و ‪T2‬‬ ‫‪ 2‬ـ موقعیت‬
‫دارد ‪.‬‬
‫‪ 3‬ـ گاما را سطح اطمینان مي نامیم ‪.‬‬
‫متغیر خواهند بود‬ ‫‪T2‬‬ ‫و‬ ‫‪T1‬‬ ‫‪ 4‬ـ در حالت كلي‬
‫و مي توانند در حالت خاص یك یا هر دو كران‬
‫ثابت معرفي شوند ‪.‬‬
‫نكته ‪ : 1‬در حالیكه به سراغ برآورد‬
‫فاصله اي مي رویم بایستي ویژگي هاي زیر را‬
‫مورد توجه قرار دهیم ‪.‬‬
‫الف ) برآورد فاصله اي نااریب باشد ‪.‬‬
‫ب ) برآورد فاصله اي در كمترین ریسك‬
‫خود قرار بگیرد ‪.‬‬
‫ج ) طول فاصله برآورد به حالت مینیمم‬
‫معرفي شود ‪.‬‬
‫نكته ‪ : 2‬مواردي اتفاق مي افتد كه فاصله‬
‫اطمینان به شكل یك طرفه مطالعه شود ‪ ،‬بدین‬
‫صورت ‪:‬‬
‫‪P{T1 < τ (θ )} = γ 1‬‬

‫‪P{τ (θ ) < T2 } = γ 2‬‬


‫از آنجایي كه شیوه هاي خاصي براي‬
‫برآورد مورد توجه قرار مي گیرد لذا در آغاز‬
‫به سراغ تكنیك برآورد محوري (‪ )pivot‬مي‬
‫رویم و همانطور كه مي دانیم كمیتهاي محوري‬
‫داراي توزیع هایي هستند كه به پارامتر بستگي‬
‫ندارند و به نوعي نیز جایگزین آماره هاي‬
‫) مي شوند ‪.‬‬ ‫‪T2‬‬ ‫و‬ ‫‪T1‬‬ ‫مورد نظر (‬
‫بر اساس این تكنیك مي توانیم موقعیت‬
‫‪T1‬‬
‫را به شرح زیر داشته باشیم ‪ .‬در‬ ‫و‬
‫‪T2‬‬
‫آغاز به سراغ جامعه نرمال كه در آن‬
‫‪µ‬‬
‫مجهول مي باشند‬ ‫و‬ ‫پارامترهاي‬
‫‪2‬‬
‫‪σ‬‬
‫خواهیم رفت و در چهار مرحله آنرا مطالعه مي‬
‫كنیم ‪.‬‬
‫‪µ‬‬

‫الف ) محاسبه فاصله اطمینان براي میانگین‬


‫ب ) محاسبه فاصله اطمینان براي واریانس‬
‫ج ) محاسبه فاصله اطمینان براي زوج‬
‫‪σ2‬‬ ‫‪µ‬‬
‫( و )‬
‫د ) و در نهایت جهت تفاضل میانگین ها به‬
‫سراغ فاصله اطمینان خواهیم رفت ‪.‬‬
‫الف) محاسبه فاصله اطمینان براي میانگین جامعه ‪:‬‬
‫نمونه اي به‬ ‫) ‪f ( x, θ‬‬ ‫براي این منظور از توزیع‬
‫‪q2‬‬
‫و‬ ‫‪q1‬‬
‫حجم ‪ n‬انتخاب مي كنیم و به سراغ محاسبه‬
‫در قالب تكنیك زیر خواهیم رفت ‪:‬‬
‫‪P (q1 < θ < q2 ) = γ‬‬
‫و یا نیز در حالت كلي مي توان به صورت زیر‬
‫آنرا مورد توجه قرار داد ‪.‬‬
‫‪P (q1 < τ (θ ) < q 2 ) = γ‬‬

‫با توجه به این فاصله مي توان نوشت ‪:‬‬


‫‪q2‬‬
‫‪∫ fT (t )dt = γ‬‬
‫‪q1‬‬

‫) ‪L = (q 2 − q1‬‬
‫طول فاصله‬
‫مي توان از رابطه بال مشتق گرفت ‪:‬‬
‫‪‬‬ ‫‪dq2‬‬
‫‪ T 2 dq − fT (q1 ) = 0‬‬
‫‪f‬‬ ‫(‬ ‫‪q‬‬ ‫)‬
‫‪‬‬ ‫‪1‬‬
‫‪‬‬
‫‪ dL = ( dq2 − 1) = 0‬‬
‫‪ dq1‬‬ ‫‪dq1‬‬

‫با توجه به قسمت بال ‪:‬‬


‫‪dq2‬‬ ‫) ‪fT (q1‬‬
‫=‬
‫) ‪dq1 fT (q 2‬‬
‫) ‪fT (q1‬‬
‫بنابراین خواهیم داشت ‪:‬‬
‫(‬ ‫‪− 1) = 0‬‬
‫) ‪fT ( q 2‬‬

‫نتیجه اي كه از این محاسبات صورت مي گیرد‬


‫مي تواند به یكي از وضعیت هاي زیر باشد ‪:‬‬
‫‪q1 = −q2‬‬ ‫‪q 2 = −q1‬‬
‫‪or‬‬ ‫‪)1‬‬
‫‪q1 = q 2‬‬
‫‪) 2‬‬
‫‪q2‬‬ ‫و‬ ‫‪q1‬‬
‫این حالت اخیر كاملً غیر ممكن است زیرا‬
‫نمي توانند یك موضع را انتخاب كنند ‪ .‬لذا‬
‫موقعیت ‪ 1‬مورد توجه قرار خواهد گرفت كه در‬
‫حالت خاص نتیجه گذشته را تداعي مي كند ‪.‬‬
‫‪X −µ‬‬
‫< ‪P (−tα 2‬‬ ‫‪n < tα 2 ) = γ‬‬
‫‪S‬‬
‫ب ) واریانس جامعه مجهول باشد ‪:‬‬
‫در این حالت با گرفتن نمونه به حجم ‪ n‬و‬
‫استفاده از كمیت محوري‬
‫‪(n − 1) S 2‬‬
‫=‪Q‬‬
‫‪σ2‬‬

‫مي توانیم نتیجه زیر را داشته باشیم ‪:‬‬


q2
∫ f Q (q)dq = γ
q1

L = (q 2 − q1 )

dL f Q (q1 )
=( − 1) = 0
dq1 f Q (q2 )

: ‫بنابراین‬
dL f Q (q1 )
=( − 1) = 0
dq1 f Q (q2 )
‫دیده مي شود محاسبه ‪ q1‬و ‪ q2‬در وضعیت‬
‫موجود پیچیده خواهد بود ‪ .‬زیرا به علت عدم‬
‫تقارن در شكل پیاده شدن دیدگاه بهترین فاصله‬
‫اطمینان در محاسبه ما را در استفاده كردن از‬
‫نرم افزارهاي كامپیوتر ترغیب مي كند ‪.‬‬
‫معادلت سیاله اند ‪ ،‬یعني بي نهایت جواب‬
‫دارند ‪ ،‬یعني تعداد مجهولت از تعداد معادلت‬
‫بیشتر است ‪.‬‬
‫‪2‬و‬ ‫(‬ ‫زوج‬ ‫جهت‬ ‫برآورد‬ ‫محاسبه‬ ‫)‬ ‫ج‬
‫‪σ‬‬ ‫‪µ‬‬
‫)‪:‬‬
‫محاسبه این فاصله مي تواند در قالب استقلل‬
‫و یا بدون در نظر گرفتن پدیده هاي استقلل‬
‫صورت بگیرد ‪.‬‬
: ‫به این شكل‬
X −µ
P (q1 < n < q2 ) = γ
S

(n − 1) S 2
P ( q1′ < < q 2′ ) = γ
σ2

X −µ  (n − 1) S 2
 S n < q2  < q 2′
 σ 2
 ∩ 
X −µ n > q  (n − 1) S 2
 S 1 > q1′

 σ2
( X − µ)2 n ( X − µ)2 n
= S2 ‫و‬ = S2
q2′ q1′

(n − 1) S 2 (n − 1) S 2
=σ 2 ‫و‬ =σ 2
q2′ q1′

 Sq2
 µ = X −
n
 ‫یا‬
µ = X − Sq1
 n
‫در حالت استقلل فاصله انتخابي بدین‬
‫صورت شكل خواهد گرفت ‪:‬‬
‫‪‬‬ ‫‪X −µ‬‬ ‫‪(n − 1) S 2‬‬ ‫‪‬‬
‫< ‪P − q‬‬ ‫< ‪n < q, q1′‬‬ ‫‪< q2′  = γ 1γ 2‬‬
‫‪‬‬ ‫‪S‬‬ ‫‪σ‬‬ ‫‪2‬‬ ‫‪‬‬

‫‪n‬‬
‫یا ‪( X − µ ) 2 < q 2‬‬ ‫و‬ ‫‪n‬‬
‫‪( X − µ)2 < S 2‬‬
‫‪S‬‬ ‫‪2‬‬
‫‪q2‬‬

‫‪(n − 1) S 2‬‬ ‫‪(n − 1) S 2‬‬


‫‪=σ 2‬‬ ‫و یا‬ ‫‪=σ 2‬‬
‫‪q2′‬‬ ‫‪q1′‬‬
‫نكته ‪ :‬ثابت مي شود (لهمن) مناسب ترین‬
‫‪2‬‬
‫بیضي خواهد‬ ‫)‬ ‫‪σ‬‬ ‫فاصله براي زوج ( ‪ µ‬و‬
‫بود ‪.‬‬
‫مطالب گفته شده در بال بدون استفاده از‬
‫آماره مربوطه در قالب پارامترهاي مورد نظر‬
‫مي باشند ولي مي توانیم با ارائه آماره هاي قابل‬
‫قبول نتایج مشابهي نیز داشته باشیم ‪:‬‬
X −µ
P (q1 < n < q2 ) = γ
S

Sq1 Sq2
P( X − <µ<X + )=γ
n n
.

S dL S dq2
L= ( q2 − q1 ) = ( − 1) = 0
n dq1 n dq1

(n − 1) S 2
P (q1 < < q2 ) = γ
σ2
( n − 1) S 2 2 ( n − 1) S 2
P( <σ < )=γ
q2 q1

2 1 1 dL 1 dq2 dq1
L = (n − 1) S ( − ) = (n − 1) S 2 (− + )
q1 q2 dq1 q 2 q 2
1 2
.

dq2 dq 2 f Q (q1 )
f Q (q2 ) − f Q (q1 ) = 0 =
dq1 dq1 f Q (q 2 )

1 1 f Q (q1 ) f Q ( q1 ) q22
− + ⋅ =0 ⇒ =
q12 q 22 f Q (q2 ) f Q (q2 ) q12
‫د ) محاسبه برآورد فاصله اي براي‬
‫تفاضل میانگین ها ‪:‬‬
‫را مورد‬ ‫و‬ ‫اگر دو جامعه‬
‫‪P2‬‬ ‫‪P1‬‬
‫توجه قرار دهیم مي توانیم با انتخاب نمونه‬
‫از این دو‬ ‫و‬ ‫هایي به حجم هاي‬
‫‪m‬‬ ‫‪n‬‬
‫و‬ ‫و‪ 2‬نیز‬ ‫‪2‬‬
‫و‬ ‫جامعه به سراغ‬
‫‪S2‬‬ ‫‪S1‬‬ ‫‪X2‬‬ ‫‪X1‬‬
‫برویم ‪.‬‬
‫(نمونه ها از یكدیگر مستقلند) و نیز معرفي‬
‫‪t‬‬ ‫و برخورداري از آماره‬ ‫‪SP 2‬‬ ‫(‪)Pooled‬‬

‫) ‪( X 1 − X 2 ) − ( µ1 − µ 2‬‬
‫به شكل ‪:‬‬
‫=‪t‬‬
‫‪SP 1 n + 1 m‬‬
‫مي توانیم فاصله مورد نظر را به شكل زیر‬
‫داشته باشیم ‪:‬‬

‫[‬ ‫]‬
‫‪P ( X 1 − X 2 ) − SP 1 n + 1 mq < µ1 − µ 2 < ( X 1 − X 2 ) + SP 1 n + 1 mq = γ‬‬

‫‪tα 2‬‬ ‫‪q‬‬


‫را‬ ‫مي تواند‬ ‫كه در حالت استاندارد‬
‫انتخاب كند ‪.‬‬
‫نكته مهم ‪ :‬اگر حجم نمونه ها در هر دو‬
‫جامعه مورد نظر یكسان باشند مي توانیم بر‬
‫حسب متغیرهاي زوجي یك فاصله اطمینان را‬
‫براي تفاضل مشاهدات در نمونه ها داشته‬
‫باشیم‪.‬‬
‫نكته مهم ‪ :‬در قالب محاسبه فاصله اطمینان‬
‫لزم است كه در ابتدا به سراغ كمیت محوري‬
‫برویم یكي از مسیرهاي ساده استفاده از تكنیك‬

‫)‪ − ∑ log F ( x) ~ Γ(n,1‬در حالیكه كمیت هاي‬


‫محوري مي توانند به صورت هایي نظیر ‪:‬‬
‫‪n‬‬
‫) ‪− ∑ log F ( xi‬‬ ‫) ‪∏ F ( xi‬‬
‫‪i =1‬‬
‫‪.‬‬ ‫و‬
‫و نظایر آن مورد توجه نیز باشد ‪.‬‬
‫یك تك مشاهده از‬ ‫‪X‬‬ ‫مثال ‪ :‬فرض كنید‬
‫چگالي زیر باشد كه در آن ‪:‬‬
‫)‪f ( x,θ ) = θxθ −1I (0,1) ( x‬‬ ‫‪θ >0‬‬
‫الف ) یك كمیت محوري یافته و از آن براي‬
‫برآوردگر بازه اطمیناني ‪ θ‬استفاده كنید ‪.‬‬
‫‪y‬‬
‫یك بازه اطمینان‬ ‫)‪( , y‬‬
‫‪2‬‬ ‫ب ) نشان دهید‬
‫براي ‪ θ‬است ضریب اطمینان آن را پیدا كنید‪.‬‬
‫هم چنین بازه اطمینان بهتري براي ‪ θ‬بیابید ‪.‬‬
‫تعریف مي كنیم)‬ ‫‪y = 1 − log X‬‬ ‫(‬
q2 − LogF (X )
‫قرار‬ ‫ و‬q1 ‫بین‬ ‫احتمال اینكه‬
:‫بگیرد‬
P (q1 < − Log e F ( X ) < q2 ) = γ

P (q1 < − Log e X θ < q2 ) = γ

P (q1 < −θLog e X < q2 ) = γ

q1 q
P( > −θ > 2 ) = γ
LogX LogX

q1 q
P(− <θ < − 2 ) = γ
LogX LogX
‫در این مرحله پاسخ مسئله داده شده است ‪،‬‬
‫مسیر گفته شده در‬ ‫‪q2‬‬ ‫اما براي رسیدن به ‪ q1‬و‬

‫‪ q 2 Γ(1,1) = γ‬‬


‫درس را دنبال مي كنیم ‪:‬‬
‫‪∫q1‬‬
‫‪‬‬
‫) ‪ L = 1 (q1− q 2‬‬
‫‪‬‬ ‫‪Logx‬‬

‫‪1‬‬
‫= ) ‪Γ(α , β‬‬ ‫‪xα −1e − x β‬‬
‫‪Γ(α ) β α‬‬
: ‫بنابراین‬
1 −x
Γ(1,1) = e = e− x
Γ(1)

q2
∫ e − x dx = γ
q1

⇒ −e − q 2 + e − q1 = γ
‫‪dL‬‬ ‫‪1‬‬ ‫‪dq 2‬‬ ‫‪dq 2 − q 2‬‬
‫=‬ ‫‪(1 −‬‬ ‫‪)+‬‬ ‫‪e‬‬ ‫‪− e − q1 = 0‬‬
‫‪dq1 LnX‬‬ ‫‪dq1‬‬ ‫‪dq1‬‬

‫‪dq 2 e − q1‬‬
‫=‬
‫‪dq1 e − q 2‬‬

‫‪dL‬‬ ‫‪1‬‬ ‫‪e − q1‬‬


‫=‬ ‫‪(1 −‬‬ ‫)‬
‫‪dq1 LnX‬‬ ‫‪−‬‬ ‫‪q‬‬
‫‪e 2‬‬

‫‪q2‬‬
‫در مسیر حركت دوره اي مي توانیم به ‪ q1‬و‬
‫مناسبي دسترسي پیدا كنیم ‪.‬‬
‫‪y‬‬ ‫‪y‬‬
‫ب ) از آنجایي كه ‪ 2‬كمتر از مي باشد‬
‫لذا مي تواند به عنوان یك بازه اطمینان بر‬
‫مبناي تعریف باشد ‪ .‬ضریب اطمینان = ‪γ‬‬
‫یادآوري ‪ :‬با عنایت به مطالب گذشته‬
‫توانستیم فواصل اطمینان را در زمینه هاي زیر‬
‫بیان كنیم و اطلعاتي را نیز براي روش‬
‫محوري (كمیت محوري) داشته باشیم ‪ .‬حال به‬
‫موارد بعدي مي پردازیم ‪.‬‬
‫‪Pivot‬‬ ‫( ‪µ‬‬
‫كمیت محوري)‬

‫‪ .‬براي ) ‪.(µ1 − µ 2‬‬ ‫) ‪( µ ,σ 2‬‬ ‫براي واریانس ‪ . σ 2‬براي‬

‫‪( )2‬روش آماري)‬


‫‪Ststistical Method‬‬

‫‪( ) 3‬برآورد بزرگنمایي)‬


‫‪ 2‬ـ روش آماري براي معرفي فاصله هاي‬
‫اطمینان ‪:‬‬
‫براي به كارگیري روش آماري در قالب‬
‫برآورد فاصله اي اطلعات زیر همواره مورد‬
‫توجه قرار خواهند گرفت ‪.‬‬
‫فرض مي كنیم نمونه ‪:‬‬
‫) ‪X 1 , X 2 ,  , X n ~ f ( x, θ‬‬

‫باشد ‪.‬‬ ‫) ‪(H‬‬


‫و ‪ θ‬متعلق به فضاي پارامترها‬
‫معرفي‬ ‫) ‪T = t ( X 1 , X 2 , , X n‬‬ ‫چنانچه آماره‬
‫مربوط به این آماره‬ ‫) ‪fT (t‬‬ ‫گردد توزیع‬
‫تكنیك روش آماري را براي ما تبیین مي كند ‪.‬‬
‫این مطلب با ارائه دو تابع صعودي به شكل‬

‫‪P1‬‬ ‫) ‪h2 (θ‬‬ ‫) ‪h1 (θ‬‬


‫و اعتقاد به دو احتمال‬ ‫و‬
‫‪P2‬‬
‫‪.‬‬

‫مي تواند یك فاصله مناسبي را براي‬ ‫و‬


‫‪θ‬‬
‫حاصل نماید ‪.‬‬ ‫پارامتر‬
‫) ‪fT (t‬‬ ‫در حالیكه فرض بر اینست كه‬

‫) ‪h1 (θ‬‬ ‫پیوسته مي باشد ‪.‬‬


‫= ‪P1‬‬ ‫‪∫ fT (t )dt‬‬
‫∞‪−‬‬
‫∞‪+‬‬
‫= ‪P2‬‬ ‫‪∫ fT (t )dt‬‬
‫) ‪h2 (θ‬‬
‫با توجه به معرفي انتگرال هاي اخیر بایستي‬
‫) ‪h2 (θ‬‬ ‫) ‪h1 (θ‬‬
‫برویم كه به‬ ‫و‬ ‫به سراغ معرفي‬
‫‪P (V1 < θ < V2 ) = γ‬‬
‫بدست مي آید ‪.‬‬ ‫كمك این دو‬
‫‪X 1 , , X n‬‬ ‫مثال ‪ :‬فرض مي كنیم نمونه‬
‫‪0 ≤ x ≤ θ0‬‬ ‫‪f ( x,θ 0 ) = 1 θ 0‬‬
‫كه در آن‬ ‫از توزیع‬
‫انتخاب شده است به روش آماري ‪ ،‬فاصله‬
‫را در سطح ‪ γ‬معرفي نمایید ‪.‬‬ ‫‪θ‬‬ ‫اطمینان براي‬
‫حل ‪ :‬از آنجایي كه دامنه تغییرات به‬
‫پارامتر بستگي دارد مناسب ترین آماره براي‬
‫برآورد پارامتر ‪ ،‬آماره هاي مرتب خواهند بود‬
‫مي باشند ‪ .‬حال طبق الگوي‬ ‫‪yn‬‬ ‫كه در اینجا‬
‫مي‪y n‬رویم ‪:‬‬ ‫گفته شده به سراغ توزیع‬
‫) ‪T = y n = Max( X 1 , , X n‬‬
n −1
 t  1 t n −1
fT (t ) = n   ⋅ = n⋅
θ 0  θ0 θ n
0

nt n −1
t
P1 = ∫ dt
θ n
0 0
θ0
nt n −1
P2 = ∫ dt
t0 θ0n

: ‫بنابراین‬
t n t0
P1 = = t 0 nθ 0 − n
θ0n 0
P2 = (θ 0 n − t 0 n )θ 0 − n = 1 − t 0 nθ 0 − n

θ 0 n P1 = t 0n → θ 0 n = P1−1t 0n

−1 n
.

θ 0 = P1 t 0

t 0nθ 0 − n = 1 − P2 → θ 0 − n = (1 − P2 )t 0− n

θ 0 = (1 − P2 ) −1 n t 0
‫‪P1−1 n t 0 > (1 − P2 ) −1 n t 0‬‬ ‫اگر فرض كنیم‬
‫خواهیم توانست یك بازه اطمینان در سطح ‪γ‬‬

‫براي ‪ θ‬به صورت زیر داشته باشیم ‪.‬‬


‫‪−1 n‬‬
‫‪P (1 − P2 ) −1 n < θ < P1‬‬ ‫‪yn ‬‬
‫‪‬‬ ‫‪‬‬
‫‪yn‬‬ ‫‪t0‬‬
‫مي تواند‬ ‫اما بر مبناي این اعتقاد كه‬
‫باشد ‪ ،‬فاصله مورد نظر چنین خواهد شد ‪:‬‬
‫‪−1 n‬‬
‫‪θ ∈ (1 − P2 ) −1 n y n , P1‬‬ ‫‪yn ‬‬
‫‪‬‬ ‫‪‬‬
‫‪ 3‬ـ تكنیك سوم روش بزرگنمایي‬
‫در این تكنیك كه مسیر حد مركزي ) ‪ (GLT‬مورد‬
‫توجه قرار مي گیرد مي توان فاصله مورد نظر‬
‫را معرفي كرد ‪ .‬با این سیاست كه دنباله‬
‫‪Tn − θ‬‬ ‫‪Tn‬‬
‫داراي‬ ‫) ‪σ n (θ‬‬
‫در ساختار‬ ‫برآوردگرهاي‬
‫نرمال صفر و یك باشد ‪:‬‬
‫‪Tn − θ‬‬
‫)‪~ N (0,1‬‬
‫) ‪σ n (θ‬‬
‫‪θ‬كه‬ ‫‪Tn‬برآوردگر‬ ‫بر اساس این مطلب‬
‫از طریق نسبت درستنمایي ماكزیمم معرفي‬
‫) ‪σ n2 (θ‬‬
‫كه از طریق نامساوي‬ ‫مي شود و نیز‬
‫كرامرـ رائو محاسبه مي گردد خواهیم توانست‬
‫به كمك الگوي ‪:‬‬
‫‪Tn − θ‬‬
‫< ‪P ( − Zα 2‬‬ ‫‪< Zα 2 ) = 1 − α = γ‬‬ ‫‪.‬‬

‫) ‪σ n (θ‬‬
‫یك فاصله مناسبي را براي ‪ θ‬داشته باشیم‬
‫توضیح اینكه ‪:‬‬
‫‪1‬‬ ‫‪1‬‬
‫= ) ‪σ n2 (θ‬‬ ‫‪=−‬‬
‫‪.‬‬ ‫‪.‬‬

‫‪2‬‬ ‫‪ ∂2‬‬ ‫‪‬‬


‫∂‪‬‬ ‫‪‬‬
‫‪n ∈  Lnf ( x,θ ) ‬‬ ‫‪n∈‬‬ ‫‪Lnf ( x,θ )‬‬
‫‪ ∂θ‬‬ ‫‪‬‬ ‫‪ ∂θ‬‬ ‫‪2‬‬ ‫‪‬‬
‫مثال ‪ :‬اگر فرض كنیم ‪:‬‬
‫‪f ( x,θ ) = θe −θx‬‬ ‫‪θ >0‬‬ ‫‪x≥0‬‬

‫مورد توجه قرار گیرد از طریق تكنیك بزرگ‬


‫نمونه اي فاصله اطمینان را براي ‪ θ‬بدست‬
‫آورید ‪.‬‬
‫و‬ ‫حل ‪ :‬ابتدا به كمك یك نمونه به حجم‬
‫‪n‬‬
‫استفاده از سیاست به كار گرفته شده در درس‬

‫‪σ n2‬‬ ‫‪Tn‬‬


‫را بدست مي آوریم ‪ .‬بنابراین خواهیم‬ ‫و‬
‫‪Lf ( x,θ ) = θ n e −θ ∑ xi‬‬ ‫داشت ‪:‬‬
‫‪LogLf ( x,θ ) = nLnθ − θ ∑ xi‬‬
∂LOgLf ( x,θ ) n
= − ∑ xi = 0
∂θ θ

n ˆ 1
= nX ⇒ θ = = t n
θ X

: ‫البته با فرمول دوم داریم‬


Logf ( x,θ ) = LOgθ − θx
∂Logf ( x,θ ) 1
= −x
∂θ θ

∂ 2 Logf 1
=−
∂θ 2 θ2
.

 1  1
E −  = −
2 θ2
 θ 

−1 θ2
σ n2 (θ ) = =
−n θ 2 n
1 x −θ
P ( − Zα 2 < − n < Zα 2 ) = γ
θ
1
P ( − Zα 2 < ( − 1) n < Zα 2 ) = γ
θX
1 − Zα 2 1 1 + Zα 2
P( <( )< )=γ
n θX n .

 Zα 2 1 Zα 2 
P (1 − ) X < < (1 + )X  = γ
 n θ n 

 n n 
P <θ <  =γ
 ( n + Zα 2 ) X ( n − Zα 2 ) X 
‫مثال ‪ :‬فرض مي كنیم توزیع ) ‪ f ( x,θ‬با ‪θ‬‬

‫از یك توزیع برنولي با احتمال‬ ‫‪H‬‬ ‫متعلق به‬


‫موفقیت ‪ θ‬پیروي كند یك فاصله اطمینان براي ‪θ‬‬

‫در قالب تكنیك نمونه هاي بزرگ پیدا كنید ‪.‬‬

‫حل ‪:‬‬
‫‪f ( x,θ ) = θ x (1 − θ )1− x‬‬ ‫‪x = 0,1‬‬
‫تكنیك نمونه هاي بزرگ‬
‫روش بزرگنمایي براي بدست آوردن فاصله‬
‫اطمینان ‪: θ‬‬
‫‪:‬‬ ‫ˆ‪θ‬‬ ‫از طریق‬ ‫‪tn‬‬ ‫‪ 1‬ـ بدست آوردن‬
‫) ‪∂LnLf ( x,θ‬‬
‫‪= 0 ⇒ θˆ =  = t n‬‬
‫‪∂θ‬‬
‫از طریق امید ریاضي ‪:‬‬ ‫آوردن ‪σ n2‬‬ ‫‪ 2‬ـ بدست‬
‫‪−1‬‬
‫= ‪σ n2‬‬
‫‪ ∂2‬‬ ‫‪‬‬
‫‪+ nE ‬‬ ‫‪Lnf ( x,θ )‬‬
‫‪ ∂θ‬‬ ‫‪2‬‬ ‫‪‬‬

‫‪ 3‬ـ استفاده از فرمول زیر و بدست آوردن‬


‫فاصله اطمینان براي ‪: θ‬‬
‫‪tn − θ‬‬
‫< ‪P ( − Zα 2‬‬ ‫‪< Zα 2 ) = 1 − α = γ‬‬
‫‪σ n2‬‬
‫بسیار ساده خواهد بود زماني كه واریانس‬
‫را بر حسب برآوردگر معرفي مي كنیم ‪ .‬اما‬
‫شیوه عملكرد و سیاست كلي چنین نخواهد بود و‬
‫غالباً واریانس بر حسب پارامتر مورد نظر و‬
‫مورد توجه قرار مي گیرد و این نظریه اكثراً‬
‫جاري است ‪.‬‬
X −θ
P ( − Zα 2 < n < Zα 2 ) = γ
θ (1 − θ )

( X − θ )2
⇒ n < Z2
θ (1 − θ ) α 2
.

X −θ
− Zα 2 < n
θ (1 − θ )

X −θ
Zα 2 > n
θ (1 − θ )
n( X 2 − 2θX + θ 2 ) < Z 2 (θ − θ 2 )
α 2 : 2 ‫طرفین به توان‬
nθ 2 + nX 2 − 2nθX − Z 2 θ + Z 2 θ 2 < 0
α 2 α 2

(n + Z 2 )θ 2 − (2nX + Z 2 )θ + nX 2 < 0
α 2 α 2

(2nX + Z 2 ) ± 4n 2 X 2 + 4nXZ 2 + Z 4 − 4n 2 X 2 − 4nX 2 Z 2


α 2 α 2 α 2 α 2
θ=
2(n + Z 2 )
α 2

2nX + Zα 2 ± 4nXZ 2 + Z 4 − 4nX 2 Z 2


α 2 α 2 α 2
θ=
2(n + Z 2 )
α 2
‫‪Z4‬‬
‫را به طور تقریب برابر با صفر‬ ‫‪α 2‬‬ ‫كه اگر‬
‫اختیار كنیم ‪ .‬در اینصورت نتیجه نهایي به‬
‫طور اختصار و در قالب یك فاصله اطمینان از‬
‫طریق تكنیك كمیت محوري معرفي مي شود ‪.‬‬
‫را برابر صفر قرار مي‬ ‫‪Z2‬‬ ‫در صورت نیاز‬
‫‪α 2‬‬

‫دهیم ‪.‬‬
‫نكته مهم ‪ :‬یكي دیگر از تكنیك هاي متداول‬
‫و معمول در جهت محاسبه فاصله هاي اطمینان‬
‫تكنیك بیضي مي باشد ‪ .‬در این حركت بر‬
‫مبناي سیاست توزیع هاي پسین و پیشین مي‬
‫توانیم بازه مناسبي را براي پارامتر معرفي‬
‫كنیم‪.‬‬
‫هدف فصل ‪:‬‬
‫استنباط آماری دارای دو قسمت عمده است ‪:‬‬
‫برآورد پارامترها و آزمون فرض ها ‪.‬‬
‫هدف ما گسترش روش های کلی برای آزمون‬
‫فرض ها و اعمال این روش ها به برخی از‬
‫مسائل متداول می باشد ‪.‬‬
‫عناوین مهم فصل ‪:‬‬
‫‪ 1‬ـ آزمون های دنباله ای فرض ها‬
‫‪ 2‬ـ فرض های ساده در فرض مقابل ساده‬
‫‪ 3‬ـ فرض های مرکب‬
‫‪ 4‬ـ آزمون های فرض ها‬
‫‪ 5‬ـ آزمون های کی دو‬
‫آزمون نسبت احتمال دنباله اي ((‪SPRT‬‬
‫‪Sequential Probability Ratio Test‬‬
‫یكي از بحث هاي مهم در آمار ریاضي (‪ )2‬و در‬
‫بحث آزمون هاي فرض ‪ ،‬وجود اندازه حجم به گونه‬
‫اي است كه در بعضي از مطالعات تحقیقاتي محقق‬
‫علقه مند مي شود كه اندازه حجم را به گونه اي‬
‫انتخاب كند كه اولً كمترین مخارج را براي آن صرف‬
‫نماید ‪ .‬ثانیاً آزمون معني دار شود ‪)R.H( .‬‬
‫لذا یكي از تكنیك هاي مناسب در جهت‬
‫تحقق این ایده آزمون نسبت احتمال دنباله اي‬
‫بدین صورت است كه ابتدا یك نمونه به حجم‬
‫‪ n‬را انتخاب مي كنند و در قالب نسبت‬ ‫ر‬ ‫‪.‬‬ ‫‪.‬‬

‫درستنمایي نتیجه را با ‪ 2‬عدد ) ‪(k1, k 0‬كه از‬


‫قبل مشخص شده اند مقایسه مي كنند ‪.‬‬
‫اگر در منطقه رد قرار بگیرد یا منطقه‬
‫پذیرش ‪ ،‬آزمون به پایان میرسد و اِل نمونه‬
‫بعدي را وارد نمونه قبل نموده و با حجم ‪2‬‬
‫عملیات را تكرار مي كنند تا اینكه نتیجه به ثمر‬
‫بنشیند ‪ .‬دیدگاه معرفي شده به صورت زیر‬
‫شكل خواهد گرفت ‪.‬‬
‫شروع عملیات در قالب فرض هاي ساده به صورت‬
‫زیر است ‪.‬‬
‫فرض مي كنیم ‪:‬‬
‫) ‪ H 0 : X ~ f 0 ( x,θ‬‬
‫‪‬‬
‫) ‪ H1 : X ~ f1 ( x,θ‬‬
‫نسبت درستنمایي ‪:‬‬
‫‪m‬‬
‫) ‪∏ f 0 ( xi ,θ‬‬
‫‪λm = λm ( X 1 , X 2 , , X m ) = i =1‬‬
‫‪m‬‬
‫) ‪∏ f1 ( xi ,θ‬‬
‫‪i =1‬‬
f 0 ( x1 ,θ )
λ1 = λ1 ( X 1 ) =
f1 ( x1 ,θ )

RH 0 → λ1 ≤ k 0

AH 0 → λ2 ≥ k1

⇒ k 0 < λ1 < k1 Go on
2
∏ f 0 ( xi ,θ )
λ2 = λ2 ( X 1 , X 2 ) = i =1
2
∏ f1 ( xi ,θ )
i =1

λ2 ≤ k 0 → RH 0

λ2 ≥ k1 → AH 0

k 0 < λ2 < k1 → Go on
‫سوال در راستاي مطالب فوق مي تواند بدین‬
‫صورت مطرح شود كه ‪:‬‬
‫آیا به مرحله اي خواهیم رسید كه توقف كنیم یا‬
‫برابر با یك‬ ‫∞→ ‪N‬‬ ‫خیر و یا اینكه احتمال‬
‫است یعني ‪:‬‬
‫(یعني حجم نمونه نامتناهي است)‬
‫‪P( N → ∞) = 1‬‬
‫پاسخي كه در این مرحله مي توانیم براي آن‬
‫بازگو كنیم این است كه كلیه آزمون ها چه در‬
‫قالب نمونه اي دنباله اي و غیر از آن اگر ‪:‬‬
‫‪P ( RH 0 H 0 ) ≤ α‬‬ ‫‪P ( RH1 H1 ) ≤ β‬‬

‫معرفي گردند قطعاً حجم نمونه متناهي خواهد‬


‫‪.‬‬ ‫∞ < ) ‪E (N‬‬ ‫بود ‪ .‬یعني‬
‫(اثبات این موضوع را مي توانید در كتاب‬
‫لهمن جستجو كنید)‬
‫نقاط بحراني و تصمیم گیري است ‪.‬‬ ‫‪k1‬‬ ‫و‬ ‫‪k0‬‬

‫با عنایت به مطالب اخیر مي توانیم موقعیت‬


‫را به صورت‬ ‫‪A‬‬ ‫منطقه رد ‪ C‬و منطقه پذیرش‬
‫زیر خلصه نماییم و آنرا در مسایل مورد نظر‬
‫مورد توجه قرار دهیم ‪.‬‬
C : Cretical A : Accept

C= {
C n = ( X 1 , , X m ) k 0 < λ j < k1 , j = 1,2, , m − 1, λ j ≤ k 0 }
n =1


A= {
An = ( X 1 , , X m ) k 0 < λ j < k1 , j = 1,2, , m − 1, λ j ≥ k1 }
n =1
‫با عنایت به دو منطقه پذیرش یا رد مي توانیم‬
‫در حالت زیر نیز موقعیت را تشخیص دهیم ‪:‬‬
‫∞‬
‫=‪α‬‬ ‫) ‪∑ ∫ L(n0‬‬
‫‪n =1C n‬‬

‫∞‬
‫=‪β‬‬ ‫) ‪∑ ∫ L(n0‬‬
‫‪n =1 An‬‬
‫نكته مهم ‪ :‬همانطور كه مي دانیم در انجام‬
‫آزمون هاي فرض ‪( α‬خطاي نوع اول) همواره‬
‫از طریق تابع‬ ‫‪β‬‬ ‫مورد توجه قرار مي گرفت و‬
‫توان محاسبه مي شد ‪ .‬اما در اینجا خطاي نوع‬
‫اول و دوم قبل از انجام آزمون ملك خواهد‬
‫بود‪.‬‬
‫تابع توان یعني ‪:‬‬
‫) ‪∏ (θ ) = P( RH 0‬‬

‫به صورت زیر‬ ‫‪k1‬‬ ‫و‬ ‫‪k0‬‬ ‫بر اساس این نظریه‬
‫‪α‬‬ ‫بدست خواهد بود ‪.‬‬
‫≅ ‪k0‬‬
‫‪1− β‬‬

‫‪1−α‬‬
‫≅ ‪k1‬‬
‫‪β‬‬
‫در مورد خطاهاي منتسب در دو وضعیت‬
‫را در نظر بگیریم در این‬ ‫‪α ′, β ′‬‬ ‫موجود ‪ ،‬اگر‬
‫صورت نتیجه زیر بدست خواهد آمد ‪.‬‬
‫‪α′+ β′ ≤α + β‬‬
‫قضیه والد ‪Walds Thearem :‬‬
‫) ‪Logf 0 ( xi ,θ‬‬ ‫اگر فرض كنیم ‪:‬‬
‫= ‪Zi‬‬
‫) ‪Logf1 ( xi ,θ‬‬

‫‪N‬‬ ‫و ‪ n‬میزان یا اندازه‬ ‫∞ < ) ‪E (Zi‬‬ ‫چنانچه‬


‫در این صورت ‪:‬‬ ‫∞ < ) ‪E (N‬‬ ‫فرض شود و بدانیم‬
‫) ‪E ( Z1 + Z 2 +  + Z N ) = E ( Z i ) E ( N‬‬
: ‫اثبات‬
E ( Z1 + Z 2 +  + Z N ) = E [ E ( Z1 + Z 2 +  + Z N N )]


= ∑ E (Z1 + Z 2 +  + Z N N = n) P ( N = n)
n =1

∞ n ∞
= ∑ ∑ E (Z i N ≥ i) P( N ≥ i) = ∑ E (Z i N ≥ i) P( N ≥ i)
n =1i =1 i =1
‫از آنجایي كه پیش آمد ‪ N ≥ i‬فقط به پیش‬
‫‪:‬‬ ‫‪i =1‬‬ ‫‪،‬‬ ‫‪N −1‬‬ ‫آمدهایي نظیر‬
‫لذا مي توانیم نتیجه نهایي را به صورت زیر به‬
‫پایان ببریم ‪.‬‬
‫∞‬ ‫∞‬
‫) ‪∑ E ( Z i ) P( N ≥ i) = E ( Z i ) ∑ P( N ≥ i) = E ( Z i ) E ( N‬‬
‫‪i =1‬‬ ‫‪i =1‬‬
‫با عنایت به قضیه والد مي توانیم (ثابت‬
‫مي شود) نتایج تقریبي زیر را داشته باشیم ‪.‬‬
‫‪H0‬‬ ‫‪:‬‬ ‫با فرض درست بودن‬
‫‪E ( Z1 + Z 2 +  + Z n ) ≅ Logk 0‬‬

‫‪E ( Z1 + Z 2 +  + Z n H 0 ) ≅ Logk 0‬‬

‫‪E ( Z1 + Z 2 +  + Z n H1 ) ≅ Logk1‬‬
Logk 0
E ( Z i H 0 ) E ( N H 0 ) ≅ Logk 0 ⇒ E ( N H 0 ) ≅
E (Z i H 0 )
.

Logk1
E ( Z i H1 ) E ( N H1 ) ≅ Logk1 ⇒ E ( N H1 ) ≅
E ( Z i H1 )
‫نتیجه اخیر در حالت كلي به صورت زیر‬
‫محاسبه مي شود ‪.‬‬
‫‪(1 − α ) Logk1 + αLogk 0‬‬
‫= ) ‪E(N H 0‬‬
‫) ‪E (Z i H 0‬‬

‫‪( β ) Logk1 + (1 − β ) Logk 0‬‬


‫= ) ‪E ( N H1‬‬
‫) ‪E ( Z i H1‬‬

‫) ‪(iid‬‬ ‫ها مستقل و هم توزیعند ‪.‬‬ ‫‪Zi‬‬


‫استنباط آماري معمولً در دو زمینه مورد‬
‫توجه قرار مي گیرد ‪:‬‬
‫‪Estimation -1‬‬

‫‪2- Test Of Hypothesis‬‬


‫كه ما هم اكنون درباره آزمون فرض سخن‬
‫خواهیم داشت ‪.‬‬
‫آزمون فرض چیست ؟‬
‫آزمون فرض مقوله اي است كه در جهت تأیید‬
‫یا رد یك ادعا ‪ ،‬براي یك یا چند متغیر معرفي‬
‫مي شود ‪.‬‬
‫آزمون فرض مبتني بر موارد زیر است ‪:‬‬
‫‪ 1‬ـ فرض آماري‬
‫یا‬ ‫تعریف ‪ :‬فرض آماري كه معمولً با نماد‬
‫‪H‬‬
‫~‬
‫‪H‬‬
‫مورد توجه قرار مي گیرد یك حدس یا‬
‫گمان براي یك موضوع است ‪.‬‬
‫‪ 2‬ـ آزمون فرض‬
‫تعریف ‪ :‬آزمون فرض یك قاعده روشن مي باشد‬
‫بكار مي رود كه معمولً‬ ‫‪H‬‬ ‫كه براي پذیرش یا رد‬
‫با نماد ‪ r‬آنرا مي شناسند و به دو صورت مورد‬
‫توجه قرار مي گیرد ‪.‬‬
‫ا ـ غیر تصادفي (تعییني)‬
‫‪ 2‬ـ تصادفي‬
‫آزمون غیر تصادفي آزمون هاي معمولي‬
‫هستند كه محققین براي انجام یك عمل تحقیقاتي‬
‫لً ‪:‬‬
‫خود مورد استفاده قرار مي دهند ‪ .‬مث ‌‬
‫‪H 0 : θ ≤ θ 0‬‬
‫‪‬‬
‫‪ H1 : θ > θ 0‬‬
‫یا نظایر آن ‪.‬‬
‫اما آزمون تصادفي به گونه اي است كه در‬
‫قالب یك آزمایش تصادفي صورت مي پذیرد ‪.‬‬
‫مثل آزمایش پرتاب سكه جهت آمدن شیر ‪.‬‬
‫پدید مي آید ‪.‬‬ ‫آنگاه‪H 0‬‬
‫رد‬
‫اگر آزمون غیر تصادفي باشد معمولً فضاي‬
‫مورد مطالعه به دو قسمت تقسیم مي شود ‪.‬‬
‫‪H0‬‬ ‫منطقه اي از آن به عنوان منطقه رد‬
‫(منطقه بحراني) و منطقه دیگر به عنوان‬
‫مي باشد ‪.‬‬ ‫منطقه ‪H 0‬‬
‫پذیرش‬
‫‪ 3‬ـ اعتقاد به دو میزان خطا‬
‫به صورت زیر است ‪:‬‬
‫فرض هاي واقعي ‪:‬‬
‫‪H0‬‬ ‫‪H1‬‬

‫‪H0‬‬ ‫‪1−α‬‬ ‫‪β‬‬

‫‪H1‬‬ ‫‪α‬‬ ‫‪1− β‬‬


‫‪Cr‬‬ ‫به استناد خطاي ‪ α , β‬مي توانیم موقعیت‬
‫و ‪ Cr‬را به صورت زیر داشته باشیم ‪.‬‬

‫} ‪α = P ( RH 0 H 0 ) = P{ ( X 1 , , X n ) ∈ C r H 0‬‬

‫}‪β = P ( AH 0 H1 ) = P{( X 1 , , X n ) ∈ C r H1‬‬


‫بر مبناي یك قرارداد‬ ‫‪ H 0‬و ‪H1‬‬ ‫نكته ‪:‬‬
‫مورد توجه قرار گرفته است ‪ .‬در ضمن‬
‫تغییرات ‪ α , β‬به نوعي مرتبط با یكدیگر مي‬
‫باشند ‪ ،‬اما تأثیر مستقیمي روي هم ندارند ‪ .‬در‬
‫یعني كمترین مقدار براي ‪ H 0‬رد ‪.‬‬ ‫‪Pvalue‬‬ ‫ضمن‬
‫از توزیع برنولي‬ ‫‪X‬‬ ‫مثال ‪ : 1‬فرض مي كنیم‬
‫با پارامتر ‪ θ‬پیروي مي كند و فرض مي كنیم‬
‫منطقه بحراني در قالب ‪θ‬كمتر از ‪1 2‬باشد ‪.‬‬
‫با انجام یك آزمایش آزمون تصادفي و غیر‬
‫تصادفي را براي آن معرفي كنید ‪:‬‬
‫) ‪X ~ Ber (θ‬‬ ‫‪1‬‬
‫< ‪H 0 :θ‬‬
‫‪2‬‬
‫حل ‪ :‬همانطور كه مي دانیم برآوردگر‬
‫‪X‬باشد‬ ‫‪∑ X i‬و یا‬ ‫نااریب براي ‪ θ‬مي تواند‬
‫كه اگر نمونه را به حجم ‪ 10‬انتخاب كنیم ‪،‬‬
‫آزمون تصادفي و غیر تصادفي به صورت زیر‬
‫شكل مي گیرد ‪.‬‬
‫‪A: ∑ Xi < 5‬‬

‫‪B : ∑ Xi = 5‬‬

‫‪C : ∑ Xi > 5‬‬

‫تخصیص دادن یك ارزش به پیش آمدها را‬


‫احتمال گویند ‪.‬‬
‫همانطور كه ملحظه مي شود وجود پیش‬
‫آمدهاي فوق در قالب یك ارزش صورت‬
‫میگیرد و این ارزش در قالب یك تابع بحراني‬
‫با تعریف زیر مفهوم پیدا مي كند ‪.‬‬
‫دامنه ‪ : D‬اعداد حقیقي‬
‫⇒ ) ‪ψ ( x1 ,, x n‬‬ ‫تابع بحراني‬
‫‪R:‬‬ ‫برد‬ ‫]‪ℵ → [ 0,1‬‬

‫آزمون تصادفي ‪Randomize Test :‬‬


‫به اعتبار این تابع خواهیم داشت ‪:‬‬
‫‪0‬‬ ‫‪if‬‬ ‫‪( x1 , , xn ) ∈ A‬‬
‫‪‬‬
‫‪ψ ( x1 ,, x n ) = 1 2‬‬ ‫‪if‬‬ ‫‪( x1 , , xn ) ∈ B‬‬
‫‪1‬‬
‫‪‬‬ ‫‪if‬‬ ‫‪( x1 , , xn ) ∈ C‬‬

‫در حالت غیر تصادفي خواهیم داشت ‪:‬‬


‫‪0‬‬
‫‪ψ ( x1 ,, x n ) = ‬‬
‫‪if‬‬ ‫‪∑ xi ≤ 5‬‬
‫‪1‬‬ ‫‪if‬‬ ‫‪∑ xi > 5‬‬
‫‪X‬‬ ‫مثال ‪ : 2‬فرض مي كنیم متغیر تصادفي‬
‫(مجهول)‪ 2‬و‪σ‬‬ ‫‪θ‬‬
‫پارامتر‬ ‫از توزیع نرمال با‬
‫(معلوم) پیروي مي كند با انجام آزمون براي‬

‫‪H 0 : θ = 0‬‬ ‫) ‪ H 0 : X ~ f ( x, θ 0‬‬ ‫فرض ‪:‬‬


‫‪‬‬ ‫⇔‬ ‫‪‬‬
‫‪ H1 : θ = 1‬‬ ‫) ‪ H1 : X ~ f ( x,θ1‬‬

‫موقعیت ‪ α , β‬را معرفي كنید در حالیكه ‪:‬‬


‫(معلوم)‬ ‫‪Cr ⇔ X > k‬‬
: ‫حل‬
α = P ( RH 0 H 0 ) = P( X > k θ = 0)

k k k
P( Z > n ) = 1 − P( Z ≤ n) = 1− N( n)
σ σ σ

k →∞ ⇒ α =0

k → −∞ ⇒ α =1
β = P ( RH1 H1 ) = P( AH 0 H1 ) = P ( X ≤ k θ = 1)

k −1 k −1
⇒ β = P(Z ≤ n) = N( n)
σ σ
C r = φ
⇒ β =1 
k →∞ ⇒
.

C r = ℵ
α = 0

C r = φ

k → −∞ ⇒ β =0 ⇒ C r = ℵ
α = 1

‫سؤال ‪ : 1‬با توجه به مثال فوق آیا میتوانیم‬
‫بین ‪ α , β‬یك رابطه مناسبي را برقرار كنیم ؟‬
‫‪k‬‬ ‫‪k‬‬ ‫‪−‬‬‫‪1‬‬ ‫‪σ −1‬‬
‫(‪N‬‬ ‫⇒ ‪n) = 1−α‬‬ ‫= ‪n = N (1 − α ) ⇒ k‬‬ ‫) ‪N (1 − α‬‬
‫‪σ‬‬ ‫‪σ‬‬ ‫‪n‬‬

‫‪k −1‬‬ ‫‪σ −1‬‬


‫‪n = N −1 ( β ) ⇒ k = 1 +‬‬ ‫) ‪N (β‬‬
‫‪σ‬‬ ‫‪n‬‬
‫از روابط بال نتیجه مي شود ‪:‬‬
‫‪σ −1‬‬ ‫‪σ −1‬‬
‫⇒‬ ‫‪N (1 − α ) = 1 −‬‬ ‫) ‪N (β‬‬
‫‪n‬‬ ‫‪n‬‬

‫‪n‬‬
‫= ) ‪N −1 (1 − α ) − N −1 ( β‬‬
‫‪σ‬‬
‫‪H1‬‬ ‫و‬ ‫‪H0‬‬ ‫اگر آزمون هایي نظیر حالت قبلي‬
‫مقادیر معلومي را اختیار نكنند (فرض ها‬
‫‪H 0 : θ < 0‬‬
‫و یا نظایر آن ‪،‬‬ ‫‪‬‬
‫‪ H1 : θ > 0‬‬
‫مركب اند)‬
‫مورد توجه قرار بگیرد ‪ ،‬نمي توانیم به سادگي‬
‫موقعیت خطاي اول و دوم را محاسبه كنیم ‪.‬‬
‫بلكه لزم است از طریق تابع توان این نتیجه را‬
‫بدست آوریم ‪.‬‬
‫تابع توان ‪Power Function :‬‬
‫) ‪Π r (θ‬‬
‫تعریف ‪ :‬تابع توان را كه معمولً با نماد‬
‫نشان مي دهند به صورت زیر تعریف مي نماییم‬
‫) ‪Π r (θ ) = P( RH 0‬‬
‫به تعبیري اگر فضاي پارامتر را به منطقه‬
‫رد و پذیرش تقسیم كنیم مي توانیم تابع توان را‬
‫به صورت زیر تعبیر نماییم ‪.‬‬

‫} ‪P{ ( X 1 , X 2 ,  , X n ) ( X 1 , X 2 ,  , X n ) ∈ C r‬‬
‫تابع توان ایده آل ‪:‬‬
‫‪Ideal Power Function‬‬
‫تابع توان ایده آل یك تابع در قالب تابع‬
‫نشانگر (‪ )Indication‬مي باشد كه به صورت‬
‫زیر تعریف مي شود ‪.‬‬
‫‪0‬‬ ‫‪if‬‬ ‫‪( X 1 , X 2 , , X n ) ∈ H 0‬‬
‫‪Π r (θ ) = ‬‬
‫‪1‬‬ ‫‪if‬‬ ‫‪( X 1 , X 2 ,  , X n ) ∈ H1‬‬
‫در عمل تابع ایده آل معمولً مورد توجه‬
‫نخواهد بود ‌‪ ،‬هر چند كه از نظر محقق این‬
‫نتیجه بسیار مناسب است ‪.‬‬
‫‪MSE‬یك معیار‬ ‫نكته مهم ‪ :‬همانطور كه‬
‫مناسب براي برآوردگرها مي باشد ‪ ،‬مي توانیم‬
‫تابع توان را نیز در قالب دو برداشت زیر با‬
‫چنین مفهومي بكار گیریم ‪:‬‬
‫الف) تشخیص كیفیت نوع آزمون‬
‫ب) مقایسه بین آزمون ها و تعیین برترین‬
‫آنها‬
‫)‪( X 1 , , X n ) ~ N (θ ,9‬‬
‫مثال ‪ :‬فرض مي كنیم نمونه‬
‫آمده باشد ‪ .‬آزمون زیر را انجام دهید ‪:‬‬
‫‪H 0 : θ ≤ 1‬‬
‫به صورت زیر‬ ‫در حالیكه ‪r‬‬ ‫‪‬‬
‫‪ H1 : θ > 1‬‬

‫تعریف شده است ‪:‬‬


‫و سرانجام آزمون تابع‬ ‫‪r : RH 0 ⇔ X ≥ k‬‬

‫توان را معرفي كنید ‪.‬‬


‫حل ‪ :‬از آنجایي كه مفروضات معرفي شده‬
‫مركب مي باشد لزم است ابتدا به سراغ تابع‬
‫آزمون برویم و از طریق تابع توان نتیجه را‬
‫خواهیم گرفت ‌‪:‬‬
‫‪k −θ‬‬
‫≥ ‪Π r (θ ) = P ( RH 0 ) = P ( X ≥ k ) = P ( Z‬‬ ‫)‪n‬‬
‫‪3‬‬

‫‪k −θ‬‬ ‫‪k −θ‬‬


‫< ‪= 1 − P( Z‬‬ ‫(‪n) = 1−ϕ‬‬ ‫)‪n‬‬
‫‪3‬‬ ‫‪3‬‬
‫بدیهي خواهد بود كه مي توانیم تفسیرهاي‬
‫مناسبي را در جهت معرفي ایده آل شدن تابع‬
‫توان داشته باشیم ‪:‬‬

‫∞→‪n‬‬ ‫یا‬ ‫∞→ ‪k‬‬ ‫⇒‬ ‫‪Π r (θ ) = 0‬‬

‫∞‪k → −‬‬ ‫⇒‬ ‫‪Π r (θ ) = 1‬‬


‫‪n‬‬ ‫مثال ‪ :‬اگر ناحیه رد آزمون عبارت از‬
‫‪∑ Xi > k‬‬
‫‪i =1‬‬
‫باشد ‪ ،‬بنابراین ‪:‬‬
‫‪n‬‬
‫‪∑ Xi > k‬‬
‫‪i =1‬‬
‫= تابع‬ ‫‪1‬‬
‫‪‬‬ ‫‪‬‬
‫‪n‬‬
‫‪ψ ( X ) = γ‬‬ ‫‪∑ Xi = k‬‬
‫‪0‬‬ ‫‪i =1‬‬
‫‪‬‬ ‫‪n‬‬ ‫آزمون‬
‫‪ X <k‬‬
‫‪∑ i‬‬
‫‪i =1‬‬
‫)‪∑ X i ~ B(n,θ ) → ∑ X i ~ B(10,1 4‬‬
‫اگر‬
‫‪X = 0.05‬‬
‫مي خواهیم تواناترین آزمون را در اندازه بیابیم‬
‫‪:‬‬
n n
α = E (ψ ( X )) = P ( ∑ X i > k ) + γ ⋅ P ( ∑ X i = k ) = 0.05
i =1 i =1

n
if : k = 4 ⇒ P ( ∑ X i > 4) > 0.05 ⇒ k = 4 ‫قابل قبول نیست‬
i =1

n
if : k = 5 ⇒ P( ∑ X i > 5) < 0.05 ⇒ k = 5 ‫قابل قبول هست‬
i =1
n n
⇒ P( ∑ X i > 5) + γ ⋅ P ( ∑ X i = 5) = 0.05
i =1 i =1
‫‪n = 10‬‬ ‫از جدول توزیع دوجمله اي با پارامترهاي‬
‫‪1‬‬
‫داریم ‪:‬‬ ‫=‪θ‬‬
‫‪4‬‬ ‫و‬
‫‪0.05 − 0.0197‬‬
‫= ‪0.0197 + γ × 0.0584 = 0.05 ⇒ γ‬‬
‫‪0.0584‬‬

‫‪1‬‬ ‫‪∑ Xi > 5‬‬


‫‪ 0.05 − 0.0197‬‬
‫‪‬‬
‫‪or‬‬ ‫‪∑ Xi ≥ 6‬‬
‫‪ψ (X ) = ‬‬ ‫‪∑ Xi = 0‬‬
‫‪ 0.0584‬‬
‫‪0‬‬ ‫‪∑ Xi < 5‬‬ ‫‪or‬‬ ‫‪∑ Xi ≤ 4‬‬

‫است ‪.‬‬ ‫‪X = 0.05‬‬ ‫تواناترین آزمون در اندازه‬ ‫) ‪ψ (X‬‬


‫نكته و یادآوري مهم ‪:‬‬

‫‪2X‬‬ ‫باشد ‪ ،‬آنگاه‬ ‫اگر‬


‫) ‪~ χ (22 x‬‬ ‫) ‪x ~ Γ (α , β‬‬
‫‪β‬‬
: ‫اثبات‬
1
f ( x) = ⋅ xα −1 ⋅ e − x β x>0
Γ(α ) β α

2X βu dx β
u= ⇒X= ⇒ = = j
β 2 du 2

1 βu α −1 − u 2
g (u ) = () e × j
Γ(α ) β α 2

1
= uα −1 ⋅ e − u 2 u>0
Γ(α )2α
‫) ‪u ~ χ (22 X‬‬ ‫بنابراین ‪:‬‬

‫باشد ‪ ،‬داریم ‪:‬‬ ‫) ‪X ~ N (0, σ 2‬‬ ‫اگر‬


‫‪2‬‬
‫‪E( X ) = σ‬‬
‫‪π‬‬
‫مثال ‪ : 1‬توزیع احتمال به صورت ‪:‬‬
‫‪f ( x, p ) = P x (1 − P)1− x‬‬ ‫)‪x = (0,1‬‬
‫‪،‬‬ ‫})‪Θ = { P P ∈ (0,1‬‬

‫را در نظر مي گیریم ‪ .‬علقه مندیم با گرفتن‬


‫‪H0 : 0 ≤ P ≤ 1 2‬‬ ‫یك نمونه به حجم ‪ n = 4‬فرض‬
‫آزمون كنیم و از‬ ‫‪H1 : 1 2 < P ≤ 1‬‬ ‫را در مقابل‬
‫آنجا با انجام دو آزمون فضاي برتري آن دو را‬
‫با یكدیگر مقایسه كنید ‪:‬‬
‫حل ‪ :‬همانطور كه ملحظه مي كنید ‪ ،‬آزمون‬
‫شكل مي توانیم صورت‬ ‫‪2 4 = 16‬‬ ‫را در قالب‬
‫دهیم اما مي توانیم به سراغ مناسب ترین آن (با‬
‫) برویم ‪.‬‬ ‫‪X‬‬ ‫دقت در قالب‬
‫را به عنوان نقطه رد‬ ‫‪S = ∑ Xi = 4‬‬ ‫در اینجا‬
‫در گام اول در نظر مي گیریم ‪.‬‬
‫چون ‪:‬‬
‫} ‪S = { 0,1,2,3,4} → { X 1 , X 2 , X 3 , X 4‬‬

‫كه یك حركت خوش بینانه نسبت به قضیه‬


‫است‪.‬‬
‫‪RH 0 ↔ S = 4 : r1‬‬ ‫‪ 16‬تا ‪ r‬داریم ‪:‬‬
‫‪r‬‬
‫‪ 4 4‬‬
‫كنیم‪. Π‬‬
‫مي) ‪r1 (θ‬‬
‫معرفي(‪= P‬‬ ‫توان‪(S‬را‬
‫‪RH 0 ) = P‬‬ ‫تابع= )‪= 4‬‬
‫این‪  P (1‬‬
‫اعتبار) ‪− P‬‬
‫به‪4 − 4 = P‬‬
‫‪4‬‬
‫‪ 4‬‬
‫ را به صورت زیر در نظر‬r ‫موقعیت‬
. ‫مي گیریم‬
r2 = RH 0 ⇒ S = 4 ∨ S = 3

Π r2 (θ ) = P ( RH 0 ) = P ( S = 4 ∨ S = 3) = P ( S = 4) + P ( S = 3)

 4 3
= P +   P (1 − P ) = P 4 + 4 P 3 (1 − P) = P 4 + 4 P 3 − 4 P 4 = 4 P 3 − 3P 4
4
3
‫سؤال ‪ :‬براي تشخیص برتري این دو مي توانیم در‬
‫قالب انجام عملیات زیر‪ ،‬نتیجه را داشته باشیم ‪:‬‬

‫) ‪Π r1 (θ ) − Π r2 (θ ) = P 4 − (4 P 3 − 3P 4‬‬

‫‪= P 4 − 4 P 3 + 3P 4 = 4 P 4 − 4 P 3‬‬

‫‪= 4 P 3 ( P − 1) < 0‬‬

‫همانطور كه ملحظه مي شود نتیجه نهایي به‬


‫رقم مي خورد ‪.‬‬ ‫‪r2‬‬ ‫نفع‬
‫مثال ‪ :‬خانواده توزیع هاي برنولي را به‬
‫صورت زیر در نظر مي گیریم ‪.‬‬
‫‪f ( x,θ ) = P x (1 − P )1− x‬‬ ‫‪x = 0,1‬‬

‫در حالیكه فضاي پارامتر به صورت زیر‬


‫})‪Θ = { P P ∈ (0,1‬‬ ‫تعریف مي شود ‪.‬‬
‫‪H0 : P = 1 2‬‬ ‫با انتخاب یك نمونه به حجم ‪ 5‬فرض‬
‫آزمون كنید ‪.‬‬ ‫‪H1 : P ≠ 1 2‬‬ ‫را در مقابل فرض‬
‫حل ‪ :‬با توجه به مثال ‪ 1‬مي توانیم ‪ r‬هاي‬
‫مختلفي را در قالب ‪ S = ∑ X i‬معرفي كنیم و‬
‫به شكل }‪{ 0,1,2,3,45‬‬ ‫‪S‬‬ ‫فضاي كمیت هاي‬
‫خواهد بود ‪ .‬كه با انجام یك حركت خوش بینانه‬
‫را به صورت زیر‬ ‫‪H0‬‬ ‫مي توانیم منطقه رد‬
‫داشته باشیم ‪.‬‬
RH 0 ↔ P{ ( S = 0) ∪ ( S = 1) ∪ ( S = 4) ∪ ( S = 5)}

 5  5
= P  Pi , i ≠ 2,3 = ∑ P ( S = i )
i = 0  i = 0

3 .

= 1− ∑ P( S = i) = 1 − P( S = 2) − P( S = 3)
i=2

5 2  5 3
= 1 −   P (1 − P) −   P (1 − P ) 2
3
 2  3
Π r (θ ) = 1 − 10 P 2 (1 − P) 3 − 10 P 3 (1 − P) 2

= 1 − 10 P 2 (1 − 3P + 3P 2 − P 3 ) − 10 P 3 (1 − 2 P + P 2 )
.

= 1 − 10 P 2 + 30 P3 − 30 P 4 + 10 P5 − 10 P3 + 20 P 4 − 10 P5

= 1 − 10 P 4 + 20 P 3 − 10 P 2
‫را داشتیم باید در این مرحله‬ ‫‪θ = θ0‬‬ ‫اگر فرض‬
‫را درست كنیم ‪.‬‬ ‫‪θ − θ0‬‬ ‫حتماً‬
‫را درست‬ ‫‪P −1 2‬‬ ‫داریم باید‬ ‫‪P =1 2‬‬ ‫حال كه‬
‫كنیم ‪ .‬بنابراین ‪:‬‬
1 1
(P − ) = X ⇒ P = X +
2 2

1 1 1 3
→ 1 − 10( X + ) 4 + 20( X + ) 3 − 10( X + ) 2 = −10 X 4 + 5 X 2 +
2 2 2 8

1 1 3
→ −10( P − ) 4 + 5( P − ) 2 +
2 2 8

Π ′r (θ ) = 0 → P = 1 2 12
 ⇒ ∃ min
‫= طریقه تشخیص‬ Π ′r′ (θ ) > 0 38
‫يا‬ ‫نكته ‪ :‬به سادگي مي توانيم در قالب‬
‫‪Sup‬‬

‫‪α, β‬‬ ‫‪inf‬‬


‫را از طريق تابع توان‬ ‫خطاي‬
‫محاسبه كنيم ‪.‬‬
‫نكته ‪ : 1‬با توجه به تعریف تابع توان مي‬
‫توان خطاي نوع اول و دوم را به صورت زیر‬
‫معرفي نماییم ‪.‬‬
‫) ‪α = SupΠ r (θ‬‬

‫= ) ‪β = Sup Π r (θ‬‬ ‫‪Inf‬‬ ‫‪(1 − Π r (θ )) = 1 −‬‬ ‫‪Inf‬‬ ‫) ‪Π r (θ‬‬


‫‪θ ∈Θ1‬‬ ‫‪θ ∈Θ1‬‬ ‫‪θ ∈Θ1‬‬
‫نكته ‪ : 2‬بر اساس نمودار تابع توان میتوانیم‬
‫خطاي نوع اول و دوم را در قالب یك حركت‬
‫تصویري معرفي كنیم به گونه اي كه بعضي‬
‫مواقع این دو متمم یكدیگر خواهند بود و در‬
‫بیشتر اوقات این جمع كمتر از یك مي باشد ‪.‬‬
‫‪H 0 :θ ≤ θ0‬‬ ‫‪،‬‬ ‫‪H1 : θ > θ 0‬‬
‫مثال ‪ :‬كیسه اي محتوي ‪ 5‬مهره است كه‬
‫تعدادي از آنها سفید است آزمون فرض حداكثر‬
‫یك مهره سفید در مقابل حداقل ‪ 2‬مهره سفید‬
‫است ‪ .‬بر اساس نمونه اي ‪ 2‬تایي بدون‬
‫جایگذاري از این كیسه در نظر بگیرید ‪:‬‬
‫الف) كلیه آزمون هاي ممكن بر اساس نمونه ‪2‬‬
‫تایي را بنویسید ‪.‬‬
‫ب) احتمال خطاي نوع اول و دوم را براي هر‬
‫فرض ساده در ‪ H‬تعیین كنید ‪ .‬در صورتي كه‬
‫اگر و فقط‬ ‫‪H0‬‬ ‫عبارتست از رد كردن‬ ‫‪r‬‬ ‫آزمون‬
‫اگر دست كم یك مهره سفید استخراج شود ‪.‬‬
‫ج) آیا آزموني با اندازه خطاي نوع ‪ 2‬كوچكتر‬
‫از آزمون قسمت (ب) وجود دارد ؟‬
‫حل ‪:‬‬
‫سفید‪θ :‬‬ ‫تعداد مهره هاي‬
‫}‪ℵ = {1,2,3,4,5‬‬ ‫‪r = RH 0 :‬‬ ‫حداكثر ‪ 2‬مهره سفید‬
‫‪H 0 : θ ≤ 1‬‬
‫})‪r = RH 0 ↔ { (1,1), (1,0), (0,1‬‬ ‫‪‬‬
‫‪ H1 : θ ≥ 2‬‬

‫مي باشد ‪،‬‬ ‫‪2 4 = 16‬‬ ‫تعداد ‪ r‬هاي معرفي شده‬


‫كه یكي از آنها ساختاري است كه در بال‬
‫معرفي شده است ‪.‬‬
‫از این به بعد در قالب یك حركت كاربردي (به‬
‫صورت عددي وارد مي شویم) به صورتي كه‪:‬‬
‫و اگر‬ ‫‪Xi =1‬‬ ‫اگر مهره ‪ i‬ام سفید باشد‬
‫‪.‬‬ ‫‪Xi = 0‬‬ ‫مهره ‪ i‬ام سفید نباشد‬
Π r (θ ) = P ( RH 0 ) = P{ (1,1), (1,0), (0,1)}

= P{ X = (1,1), X = (1,0), X = (0,1)} )‫(ناسازگارند‬

= P ( X = (1,1)) + P( X = (1,0)) + P( X = (0,1))


: ‫بنابراین‬
= P ( X 2 = 1 X 1 = 1) P( X 1 = 1) + P( X 2 = 0 X 1 = 1) P( X 1 = 1)

+ P ( X 2 = 1 X 1 = 0) P( X 1 = 0)
θ − 1 θ 5 − θ θ θ 5 − θ θ 2 − θ + 5θ − θ 2 + 5θ − θ 2
Π r (θ ) = × + × + × =
4 5 4 5 4 5 20

9θ − θ 2 (9 − θ )θ
= =
20 20
.

8
α= Sup r Π (θ ) =
20
= 0.4
θ ∈Θ 0

β = 1 − 0. 7 = 0. 3
‫در قسمت آخر ‪ r‬را مي توانیم به صورت زیر‬
‫در نظر بگیریم ‪( :‬بطور ایده آل)‬

‫‪r * : ℵ = C r ↔ C r = φ ↔ β = 0 ↔ Π r * (θ ) = 1 − β = 1 − 0 = 1‬‬
‫ارزیابي در ساختن آزمون فرض ‪:‬‬
‫‪H 0 : θ = θ 0‬‬
‫‪‬‬
‫‪ H1 : θ = θ1‬‬ ‫مطلبي كه در ذیل مي آید براي فرض ساده‬
‫مورد توجه مي باشد كه در حالت كلي در بین‬
‫آزمونها آن آزموني از همه مناسب تر است كه‬
‫حجم خطاي ‪ α , β‬آن كمترین باشد در حالیكه‬
‫داراي خصوصیات زیر است ‪:‬‬
‫الف) نااریب است ‪Unbiased .‬‬
‫ب) سازگار است ‪Consistent .‬‬
‫تعریف ‪ r :‬را در بین ‪ r‬هاي دیگر نااریب‬
‫مي گوییم ‪ ،‬هرگاه نامساوي زیر برقرار باشد‪.‬‬

‫‪Inf‬‬ ‫≥ ) ‪Π r (θ‬‬ ‫) ‪Sup Π r (θ‬‬


‫‪θ ∈Θ1‬‬ ‫‪θ ∈Θ 0‬‬
‫‪H0‬‬ ‫تعریف ‪ :‬اگر دنباله } ‪ { t n‬را براي فرض‬
‫در نظر بگیریم ‪ ،‬چنانچه گزاره‬ ‫‪H1‬‬ ‫در مقابل‬
‫زیر برقرار باشد ‪.‬‬
‫∞→ ‪n‬‬
‫‪Π rn (θ )  ‬‬
‫‪→1‬‬ ‫‪∀θ ∈ H1‬‬

‫گوییم تابع توان در میدان دنباله فوق سازگار‬


‫است ‪.‬‬
‫‪Lim f ( x) = L‬‬ ‫‪Lim L = L‬‬ ‫مثلً اگر ‪:‬‬
‫∞→ ‪x‬‬ ‫∞→ ‪x‬‬
‫خانواده توزیع ‪:‬‬
‫علقه مند مي شویم فرض‬ ‫}‪{ f (x,θ ) θ ∈ Θ‬‬
‫‪H 0 : θ = θ 0‬‬
‫را با گرفتن یك نمونه مناسب‬ ‫‪‬‬
‫‪ H1 : θ = θ1‬‬ ‫ساده‬
‫آزمون كنیم ‪ .‬براي این منظور ابتدا توزیع احتمال‬
‫رسم مي كنیم و از جامعه‬ ‫‪H1‬‬ ‫و‬ ‫‪H0‬‬ ‫را تحت‬
‫مورد نظر نمونه به حجم ‪ Θ‬خارج مي كنیم و در‬
‫اختیار این توزیع قرار مي دهیم ‪ .‬نتیجه چه خواهد‬
‫شد ؟‬
‫) ‪H 0 : θ =θ 0↔ H 0 : X ~ f ( x,θ 0‬‬

‫) ‪H1 : θ =θ 1↔ H1 : X ~ f ( x,θ1‬‬

‫در این حالت اگر ‪ :‬حالت ‪: 1‬‬


‫) ‪x = x0 ⇒ f ( x0 ,θ 0 ) > f ( x0 ,θ1‬‬

‫) ‪f ( x0 , θ 0‬‬
‫‪>1‬‬ ‫بنابراین ‪:‬‬
‫) ‪f ( x0 ,θ1‬‬

‫‪.‬‬ ‫) ‪( AH 0‬‬ ‫را داریم‬ ‫‪H0‬‬ ‫بنابراین پذیرش‬


: 2 ‫حالت‬
x = x0

f ( x0 ,θ 0 ) < f ( x0 ,θ1 ) : ‫بنابراین‬

f ( x0 , θ 0 )
< 1 ⇒ RH 0
f ( x0 ,θ1 )
‫حالت ‪: 3‬‬

‫‪x = x0 ⇒ f ( x0 ,θ 0 ) = f ( x0 ,θ1 ) ⇒ RH 0 ∨ AH 0‬‬

‫در این حالت ‪ Randomize‬خواهد شد و‬


‫سكه تعیین كننده است ‪.‬‬
‫نكته مهم ‪ : 1‬از آنجایي كه تابع درستنمایي‬
‫ماكزیمم خود مي تواند به عنوان یك تابع چگالي‬
‫معرفي شود ‪.‬‬
‫‪n‬‬
‫) ‪f ( x,θ ) = ∏ f ( xi ,θ‬‬
‫‪i =1‬‬
‫مي توانیم در قالب كسرهاي زیر داشته باشیم ‪:‬‬
‫) ‪L ( x,θ 0‬‬
‫‪< k ↔ RH 0‬‬
‫) ‪L( x,θ1‬‬

‫) ‪L ( x, θ 0‬‬
‫‪> k ↔ AH 0‬‬
‫) ‪L( x,θ1‬‬

‫) ‪L ( x, θ 0‬‬
‫‪= 1 ↔ RH 0 ∨ AH 0‬‬
‫) ‪L( x,θ1‬‬
‫اي‬ ‫نكته مهم ‪ : 2‬همانطور كه قب ً‬
‫ل اشاره كردیم آن‬
‫‪r‬‬
‫كمترین خطاي‬ ‫مناسب خواهد بود كه تابع توان تحت آن‬
‫‪r‬‬
‫‪α, β‬‬
‫را معرفي كند و به نوعي تركیب خطي از آن دو را‬

‫‪aα r + bβ r‬‬
‫به صورت ‪:‬‬
‫‪a, b > 0‬‬
‫‪،‬‬
‫‪Min‬‬
‫در آید كه این یكي از ملك هاي برتري‬ ‫به حالت‬
‫آزمون و به نوعي اولین ملك معرفي مي شود ‪ .‬این‬
‫نتیجه یا این ملك ما را به سمت لم معروف (نیمن ـ‬
‫پیرسن) هدایت مي كند ‪.‬‬
‫بر مبناي مطلب فوق مي توانیم مدعي شویم كه‬
‫ملك فوق زماني تحقق خواهد یافت كه نسبت‬
‫درستنمایي ماكزیمم به صورت زیر شكل بگیرد‬
‫و برعكس ‪:‬‬
‫) ‪α r = P( RH 0 H 0‬‬

‫‪aα r = a‬‬ ‫) ‪∑ L ( x, θ 0‬‬


‫‪X ∈C r‬‬

‫‪bβ r = b‬‬ ‫) ‪∑ L( x,θ1‬‬


‫‪X ∈C r‬‬
aα r + bβ r = a ∑ L( x,θ 0 ) + b ∑ L( x,θ1 )
X ∈C r X ∈C r

aα r + bβ r = a ∑ L( x,θ 0 ) + b(1 − ∑ L( x,θ1 ))


X ∈C r X ∈C r
.

 
= b + a ∑ L( x,θ 0 ) − b ∑ L( x,θ1 )
 X ∈C X ∈C

 r r 

=b+ ∑ [ aL( x,θ 0 ) − bL( x,θ1 )]


X ∈C r
‫توضیح آنكه از آنجایي كه قرار است تركیب‬
‫به حالت ‪ Min‬قرار بگیرد‬ ‫‪aα r + bβ r‬‬ ‫خطي‬
‫لزم مي آید كه ‪:‬‬
‫]) ‪[ aL( x,θ 0 ) − bL( x,θ1‬‬

‫منفي باشد ‪ .‬بنابراین ‪:‬‬


‫‪aL( x,θ 0 ) − bL( x,θ1 ) < 0‬‬
‫و یا مي توان گفت ‪:‬‬
‫‪L ( x,θ 0 ) b‬‬
‫‪< = k ↔ RH 0‬‬
‫‪L( x,θ1 ) a‬‬

‫آن چیزي كه در بال اتفاق افتاد معروف به‬


‫‪ Simple Likeli Hood Test‬خواهد بود ‪.‬‬
‫مثال ‪ :‬فرض می کنیم خانواده توزیع نرمال‬
‫مفروض است می خواهیم از‬ ‫}‪{ N (θ ,4) θ ∈ R‬‬ ‫‪.‬‬

‫طریق آزمون نسبت درستنمایی ساده فرض‬


‫‪H 0 : θ = 0‬‬
‫را آزمون کنیم ‪.‬‬ ‫‪‬‬
‫‪ H1 : θ = 1‬‬
‫‪.‬‬
‫را در حالت کلی برای‬ L( X , θ ) ‫ می دانیم‬: ‫حل‬
: ‫توزیع نرمال برابر‬
2 −n 2  1 n xi − θ 2 
L( x, θ ) = (2πσ ) exp− ∑ ( ) 
 2 i =1 σ 

 1 n xi 2 
exp − ∑ ( ) 
 2 i =1 2 
λ=
 1 n xi − 1 2 
exp − ∑ ( ) 
 2 i =1 2 
 1  n xi 2 n xi − 1 2 
λ = exp −  ∑ ( ) − ∑ ( )  < k
 2 i =1 2 i =1 2 

1 1 2 1 
⇒  ∑ xi − ∑ ( xi − 1) 2  < Logk
2 4 4 

1  n 2 n 2 n  .

−  ∑ xi − ∑ xi + 2 ∑ xi − n  < k ′
8 i =1 i =1 i =1 

1
=− { 2nx − n} < k ′ ⇒ − n x + n < k ′
8 4 8
n n

− x<k − X > k* r : RH 0 ⇒ X > k *
4 8
‫*‬
‫طریق خطای نوع اول قابل‬ ‫از‬‫‪k‬‬ ‫معمولً‬
‫تشخیص خواهد بود ‪ ،‬در حالی که بدانیم آماره‬
‫مورد نظر در ساختار انجام آزمون با چه‬
‫عنوانی مورد توجه قرار می گیرد ‪.‬‬
‫*‬
‫‪k‬‬
‫> ‪α = P( RH 0 ) = P( X > k * ) = P( Z‬‬ ‫)‪n‬‬
‫‪2‬‬
‫*‪k‬‬ ‫*‪k‬‬
‫(‪= 1− N‬‬ ‫( ‪n) ⇒ N‬‬ ‫‪n) = 1−α‬‬
‫‪2‬‬ ‫‪2‬‬
k*
⇒ n = N −1 (1 − α )
2

2 −1
k* = N (1 − α ) ⇒ r : RH 0 ↔ X > k *
.

2 −1
X > N (1 − α )
n
‫مثال ‪ :‬خانواده ‪:‬‬
‫‪f ( x, θ ) = θe −θx‬‬ ‫‪x≥0‬‬ ‫‪θ >0‬‬

‫با فضای پارامتری ‪ θ ∈ Θ‬را در نظر می‬


‫‪n‬‬ ‫گیریم ‪ .‬با انتخاب یک نمونه به حجم‬
‫‪H 0 : θ = θ0‬‬
‫) ‪(θ1 > θ 0‬‬ ‫‪،‬‬ ‫‪‬‬ ‫آزمون مربوط به فرض‬
‫‪ H1 : θ = θ1‬‬
‫را انجام دهید ‪.‬‬
: ‫حل‬
Sup L( x, θ 0 )
θ ∈Θ 0
γ =
Sup L( x, θ1)
θ ∈Θ1

θ 0 n e −θ ∑ xi
γ = ≤k
θ1n e −θ ∑ xi
‫از آنجایی که فرضهای مورد نظر ساده می‬
‫باشند ‪ sup‬به مفهوم مقدار اصلی آن که در مسئله‬
‫تعیین می شود صورت خواهد گرفت ‪.‬‬
‫‪θ‬‬
‫‪γ = ( 0 ) n e − (θ 0 −θ1 ) ∑ xi ≤ k‬‬
‫‪θ1‬‬

‫‪θ‬‬
‫‪e − (θ 0 −θ1 ) ∑ xi ≤ ( 0 ) n k = k1‬‬ ‫‪∑ xi ≤ k1‬‬
‫‪θ1‬‬

‫‪− (θ 0 − θ1 )∑ xi ≤ Logk1 = k ′‬‬ ‫‪r : RH 0 ⇒ ∑ xi ≤ k1‬‬


‫از آنجایی که ‪ ∑ xi‬دارای توزیع ‪ Γ‬می باشد‬
‫‪α‬‬ ‫را در سطح خطای‬ ‫‪k1‬‬ ‫می توانیم موقعیت‬
‫ملحظه کنیم ‪.‬‬
‫‪k‬‬
‫‪Γ(α + β ) α −1 − x β‬‬
‫‪∫ Γ(α )Γ( β ) x e‬‬ ‫‪dx = α ′‬‬
‫خطا‬
‫‪0‬‬
‫آزمون نسبت درستنمایی تعمیم داده شده‬
‫‪Generated Like Lihood Ratio Test‬‬
‫همانطور که می دانیم در بحث لم نیمن‬
‫پیرسن مواردی اتفاق می افتد که فرض های‬
‫مورد نظر (یک یا هر دو) به شکل مرکب‬
‫معرفی می شوند ‪.‬‬
‫در این صورت نمی توانیم کسر مورد نظر را‬
‫به حالت ساده داشته باشیم لذا در حالت ‪ Sup‬این‬
‫عمل امکان پذیر خواهد بود ‪ .‬توضیح اینکه‬
‫مخرج کسر مورد نظر در این مرحله کل‬
‫فضای پارامتر را دربر می گیرد ‪.‬‬
‫نکته ‪ :‬همانطور که قبلً اشاره شده است‪Max‬‬

‫یا ارزش ‪ Max‬یک پارامتر در قالب توابع‬


‫درستنمایی ماکزیمم قابل تشخیص خواهد بود ‪.‬‬
‫برای این منظور به مثالهای زیر توجه کنید ‪.‬‬
‫) ‪f ( x, θ‬‬ ‫مثال ‪ :‬توزیع نرمال به شکل ‪:‬‬
‫‪x −θ 2‬‬
‫‪1‬‬ ‫( ‪−1 2‬‬ ‫)‬
‫= ) ‪f ( x, θ‬‬ ‫‪e‬‬ ‫‪σ‬‬
‫‪σ 2π‬‬ ‫‪x∈R‬‬

‫‪H 0 : θ = 1‬‬
‫‪‬‬
‫‪ H1 : θ ≠ 1‬‬
‫در نظر می گیریم آزمون مربوط به‬
‫را صورت دهید ‪.‬‬
‫حل ‪ :‬قبل ازحل این مسئله ‪ ،‬بی مناسبت نخواهد‬
‫بود که به مطالب زیر توجه دقیق داشته باشیم ‪.‬‬

‫) ‪Sup L( x,θ‬‬
‫‪θ ∈H 0‬‬
‫=‪Λ‬‬ ‫‪= ϕ ( x) ≤ k‬‬
‫) ‪Sup L( x, θ‬‬
‫‪θ ∈Θ‬‬
‫همانطور که ملحظه می شود نتیجه ‪ Λ‬بر‬
‫حسب یک تابع )‪ ϕ (x‬معرفی خواهد شد و از‬
‫‪− 2 Lnϕ ( x) ~ χ 2‬‬ ‫آنجایی که ‪:‬‬
‫‪r‬‬
‫)‪Γ(α = , β = 2‬‬ ‫‪ϕ ( x) ≤ k‬‬
‫‪2‬‬

‫‪− 2 Lnϕ ( x) ≥ −2 Lnk = k ′‬‬

‫∞‪+‬‬
‫‪1‬‬
‫∫‬ ‫‪x r 2 −1e − x 2 dx = α‬‬
‫‪r r2‬‬
‫‪k ′ Γ( ) 2‬‬
‫‪2‬‬
‫می توانیم به سادگی در قالب تکنیک زیر مقدار‬

‫‪k1‬‬
‫را معرفی کنیم ‪.‬‬
‫در این صورت موقعیت آزمون معرفی و‬
‫نتیجه به پایان خواهد رسید ‪ .‬حال به سراغ حل‬

‫رفت ‪1 n.‬‬ ‫خواهیم‪ xi − 1‬‬ ‫مسئله‬


‫‪2‬‬
‫‪2‬‬ ‫‪−n 2‬‬ ‫‪‬‬
‫) ‪(σ 2π‬‬ ‫‪exp(− ∑ ‬‬ ‫‪‬‬ ‫)‬
‫‪2 i = −1  σ ‬‬
‫=‪Λ‬‬
‫‪2‬‬
‫‪2‬‬ ‫‪−n 2‬‬ ‫‪1 n  xi − x ‬‬
‫) ‪(σ 2π‬‬ ‫‪exp(− ∑ ‬‬ ‫‪‬‬ ‫)‬
‫‪2 i = −1  σ ‬‬
1 n  xi − 1 2 xi − x 2 
Λ = exp(− ∑ ( ) −( ) ) ≤ k
2 i = −1  σ σ 

n
−1 2σ 2 2
e ∑ ( −2 xi + 2 x xi + 1
.

− x )≤k
i =1

1 n
exp(− ∑ − 2 nx + n + nx 2 ) ≤ k
2
2σ i =1
−1 2σ 2 ( −2nx + nx 2 + n )
e ≤k

− n 2σ 2 ( x −1) 2
e ≤k
.

n
− ( x − 1) 2 ≤ Logk = k ′
2σ 2

x −1
( n ) 2 ≥ −2k ′ = k1 ⇒ χ (21) ≥ k1
σ
‫همانطور که ملحظه می گردد می توانیم نتیجه‬

‫‪k1‬‬
‫را در قالب تکنیک زیر محاسبه کنیم ‪.‬‬
‫∞‪+‬‬
‫‪1‬‬
‫∫‬ ‫‪x −1 2e − x 2 dx = α‬‬ ‫‪r‬‬
‫‪α = ,β = 2‬‬
‫‪1 12‬‬ ‫‪2‬‬
‫‪k1 Γ( ) 2‬‬
‫‪2‬‬
‫مثال ‪ : 2‬خانواده ‪:‬‬

‫‪f ( x, θ ) = θe −θx‬‬ ‫‪θ >0‬‬ ‫‪x≥0‬‬

‫‪H 0 : θ ≤ θ0‬‬
‫را‬ ‫‪‬‬
‫‪ H1 : θ > θ 0‬‬
‫در نظر می گیریم فرض‬
‫آزمون کنید ‪.‬‬
‫حل ‪ :‬برای این منظور به سراغ یک نمونه ای‬
‫به حجم ‪ n‬از توزیع مورد نظر خواهیم رفت ‪.‬‬
‫ˆ‪θ‬‬ ‫‪،‬‬ ‫‪Max‬‬ ‫سپس از طریق نسبت درستنمایی‬
‫را می یابیم و از آنجا با انجام عملیات منطقی‬
‫آزمون مورد نظر مشخص خواهد شد ‪.‬‬

‫‪L( x, θ ) = θ n e −θ ∑ xi‬‬
dL
= nθ n −1e −θ ∑ xi − (∑ xi )θ n e −θ ∑ xi = 0

θ n −1 (n − θ ∑ xi )e −θ ∑ xi = 0
.

n 1
⇒ θˆ = =
∑ xi X
n −θ 0 ∑ xi
Sup L ( x , θ ) = θ 0e θ ≤ θ0 <
1
θ ∈Θ 0 x

1 n −1 X ∑ xi −n −n 1
Sup L( x, θ ) = ( ) e = (X ) e , > θ
θ ∈Θ
X .
X

θ n e −θ 0 ∑ xi θ0 >
1
 0 −n −n X
Λ =  (x) e 1
 θ0 <
1 X
‫نکته ‪ :‬در بال چون فضا تعریف شده است‬
‫در صورت کسر مقدار ‪ θ 0‬و در مخرج کل‬
‫فضای حالت را قرار می دهیم ‪.‬‬
‫با شرط ‪. θ 0 x < 1‬‬
n −θ ∑ xi + n
Λ = (θ 0 x ) ⋅ e

Λ = (θ 0 x ) n ⋅ e − n(θ 0 x −1)

θ0 x = y : ‫با فرض اینکه داریم‬


n − ny n
Λ=y e ⋅e ≤ k
‫‪n − ny‬‬
‫‪ y e‬می تواند در قالب یک‬ ‫اما عبارت‬
‫توزیع ‪ Γ‬معرفی شود و از آنجا در قالب یک‬
‫عمل هم ارزی موقعیت منطقه رد را در سطح‬
‫خطای ‪ α‬ملحظه می کنیم ‪ .‬توزیع گاما ‪:‬‬
‫‪Β(α , β ) xα −1e − x β‬‬
‫جمع آوری نکات فوق در قالب تفاوت‬
‫فرض ها‬
‫‪1‬ـ فرض های ساده ‪.‬‬

‫‪H 0 : θ = θ 0‬‬
‫‪‬‬ ‫عدد → ) ‪(θ1 > θ 0‬‬
‫‪ H1 : θ = θ1‬‬
‫ابزار کار برای هر فرضی در قدم اول گرفتن نمونه‬
‫ای به حجم ‪ n‬است ‪.‬‬
‫) ‪Sup L( x, θ 0‬‬
‫‪θ ∈H 0‬‬
‫= ‪γ‬‬ ‫‪≤k‬‬
‫)‪Sup L( x, θ1‬‬
‫‪θ ∈H1‬‬

‫سپس با توجه به مقدار بدست آمده توزیع مورد نظر‬


‫را بدست می آوریم ‪ .‬بعد از انتگرال گیری مقدار‬
‫خطای ‪ α‬را به راحتی بدست می آوریم ‪.‬‬
‫‪2‬ـ فرض های غیر ساده ‪.‬‬
‫حالت ‪ : 1‬گرفتن نمونه به حجم ‪. n‬‬
‫‪H 0 : θ = k‬‬
‫‪‬‬ ‫عدد= ‪k‬‬ ‫یک‬
‫‪ H1 : θ ≠ k‬‬
‫) ‪Sup L( x, θ‬‬
‫‪θ ∈H 0‬‬
‫=‪Λ‬‬ ‫‪= ϕ ( x) ≤ k‬‬
‫) ‪Sup L( x, θ‬‬
‫‪θ ∈H‬‬
‫ادامه کار مثل حالت فوق می باشد ‪.‬‬
‫انتگرال گیری و تشخیص نوع توزیع ‪ .‬این‬
‫حالت مثل حالت بال است ‪.‬‬
‫حالت ‪ : 2‬ابتدا گرفتن نمونه ای به حجم ‪: n‬‬

‫‪H 0 : θ ≤ θ0‬‬
‫‪‬‬
‫‪ H1 : θ > θ 0‬‬

‫در این حالت یک مشتق گیری هم داریم که در‬


‫حالت های قبلی نداشتیم ‪.‬‬
‫بعد از محاسبه مقدار ‪ L‬از آن نسبت به ‪ θ‬مشتق‬
‫گرفته ‪ ،‬بعد برابر صفر قرار می دهیم و از آن‬
‫مقدار ˆ‪ θ‬را بدست می آوریم ‪.‬‬
‫) ‪dL( x, θ‬‬
‫‪= 0 ⇒ θˆ = ‬‬
‫) ‪d (θ‬‬

‫‪Sup L( x, θ ) = ‬‬
‫‪θ ∈H 0‬‬
‫در نهایت دو حالت برای ‪ Λ‬بدست می آید ‪.‬‬

‫‪‬‬ ‫ˆ‪θ 0 < θ‬‬


‫‪Λ=‬‬
‫‪‬‬ ‫ˆ‪θ 0 > θ‬‬
‫نکته ‪ :‬با توجه به مطالب گذشته در ارتباط با‬

‫)‪Q(x‬‬ ‫) ‪(LRT‬‬
‫برابر باشد با نسبت‬ ‫بایستی‬

‫‪SupL( x, θ )θ ∈H 0‬‬ ‫کسر‪:‬‬


‫= )‪Q( x‬‬
‫‪SupL( x, θ )θ ∈H‬‬

‫نسبت به یک آماره بسنده مینیمال باشد که در‬


‫))‪Q(t ( x‬‬ ‫)‪θ (x‬‬
‫معرفی‬ ‫به صورت‬ ‫این صورت‬
‫خواهد شد ‪.‬‬
‫)‪ t (x‬آماره بسنده مینیمال است زیرا همانطور‬
‫که در آخرین مثال ملحظه کردیم ‪:‬‬

‫)‪Q( y ) = ye − n( y −1‬‬ ‫) ‪y = (θx‬‬

‫‪Q( y ) < k ↔ y < k ′ ↔ θ ⋅ x < k ′‬‬

‫‪x < k * ↔ RH 0‬‬


‫)‪(ump‬‬
‫آزمون تواناترین‬
‫‪niformly Most Power Foll Test‬‬
‫را در میان ‪ r‬های دیگر‬ ‫تعریف ‪r * :‬‬

‫تواناترین آزمون به طور یکنواخت گویند هرگاه‬


‫ویژگیهای آن برقرار باشد ‪.‬‬
‫‪Sup Π r * (θ ) = α‬‬
‫‪θ ∈H 0‬‬ ‫‪)1‬‬
‫) ‪Π r * (θ ) ≥ Π r (θ‬‬ ‫‪∀r‬‬ ‫‪∀θ ∈ H − H 0‬‬ ‫‪)2‬‬
‫مثال ‪ :‬خانواده توزیع نمایی ‪:‬‬

‫‪θ ∈ H ⊆ R* , f ( x, θ ) = θe −θx‬‬
‫در نظر می گیریم با انتخاب یک نمونه به حجم‬
‫‪H 0 : θ = θ0‬‬
‫‪‬‬ ‫‪n‬‬
‫‪ H1 : θ > θ 0‬‬
‫را آزمون نمایید و‬ ‫فرض‬
‫)‪(ump‬‬
‫تحقیق نمایید که آزمون انجام گرفته‬
‫می باشد ‪.‬‬
‫حل ‪ :‬با توجه به نسبت درستنمایی ماکزیمم می‬
‫توانیم موقعیت منطقه رد را که در قالب مثال‬
‫بال معرفی شده ‪ ،‬مجدداً در نظر بگیریم ‪.‬‬
‫)‪(ump‬‬ ‫اما بر اساس مطالب زیر خصوصیات‬
‫برقرار بوده و نتیجه به پایان می رسد ‪.‬‬

‫* ‪r *: RH 0 ↔ X < k‬‬

‫‪Sup Π r * (θ ) = α‬‬
‫‪θ ∈H 0‬‬

‫) ‪Π r * (θ ) ≥ Π r (θ‬‬ ‫‪θ > θ0‬‬


‫چون تابع توان یک تابع صعودی است و با‬
‫افزایش ‪ θ‬مقدار تابع زیاد می شود ‪ ،‬بنابراین‬
‫رابطه بال را خواهیم داشت ‪.‬‬
‫نسبت درستنمایی یکنوا‬
‫‪Monotone Like Lihood Ratio‬‬
‫تعریف ‪ :‬گوییم ‪:‬‬
‫)‪L( x, θ ′‬‬
‫‪θ ′ < θ ′′‬‬
‫)‪L( x, θ ′′‬‬

‫نسبت درستنمایی یکنوا را برای خود داراست ‪،‬‬


‫هرگاه یک آماره نظیر )‪ t (x‬وجود داشته باشد که‬
‫نسبت به آن همواره نزولی یا همواره صعودی‬
‫باشد ‪.‬‬
‫مثال ‪ :‬خانواده توزیع نرمال با مشخصات‬

‫)‪X ~ N (θ ,1‬‬
‫‪.‬‬

‫در نظر می گیریم ‪ ،‬تحقیق کنید‬


‫که این خانواده خصوصیات نسبت درستنمایی‬
‫یکنوا را داراست ‪.‬‬
2 −n 2 1 n
(2πσ ) ⋅ exp(− ∑ ( xi − θ ′) 2 )
L( x, θ ′) 2 i =1
=
L( x, θ ′′) 2 −n 2 1 n
(2πσ ) ⋅ exp(− ∑ ( xi − θ ′′) 2 )
2 i =1
1 n n
exp(− ( ∑ ( xi − θ ′) − ∑ ( xi − θ ′′) 2 ))
2
2 i =1 i =1
.

1
= exp(− (−2θ ′∑ xi + nθ ′2 + 2θ ′′∑ xi − nθ ′′2 ))
2

1
= exp(− (2n(θ ′′ − θ ′) x + n(θ ′2 − θ ′′2 ))) ≤ γ
2
‫) ‪− n(θ ′′−θ ′) x −1 2 n(θ ′2 −θ ′′2‬‬
‫‪e‬‬ ‫‪≤γ‬‬

‫‪e A+ Bx ≤ γ ⇒ A′e Bx ≤ γ ⇒ ϕ ( x ) = A′e Bx‬‬ ‫‪B<0‬‬

‫این تابع نزولی است می توان مشتق گرفت‬


‫و این عامل را ثابت کرد ‪.‬‬
‫همانطور که ملحظه می شود تابع‬
‫درستنمایی ماکزیمم نسبت به مقدار ‪ x‬یکنوا‬
‫است ‪.‬‬
‫مثال ‪ :‬تابع ‪:‬‬
‫‪‬‬ ‫‪1‬‬
‫‪‬‬ ‫‪f‬‬ ‫(‬ ‫‪x‬‬ ‫‪,‬‬ ‫‪θ‬‬ ‫)‬ ‫=‬ ‫‪0 ≤ x ≤θ‬‬
‫‪‬‬ ‫‪θ‬‬
‫‪ f ( x, θ ) = 0‬‬

‫تحقیق کنید که این تابع خاصیت نسبت‬


‫درستنمایی یکنوا را داراست ‪.‬‬
L( x, θ ′) θ ′′ n : ‫حل‬
=( )
L( x, θ ′′) θ ′

n
∏ ( xi < θ ) → yn < θ
i =1

 θ ′′ n
L( x, θ ′) ( ) 0 < yn < θ ′
=  θ′
L( x, θ ′′)  θ ′ < yn < θ ′′
0
‫)‪L( x, θ ′‬‬ ‫چون خارج از بازه است ‪ ،‬بنابراین‬
‫برابر صفر خواهد بود ‪ ،‬پس در کل برابر صفر‬
‫خواهد بود ‪.‬‬
‫این تابع ناصعودی است ‪ ،‬بنابراین نمی توان‬
‫‪yn‬‬
‫بحث می کنیم‬ ‫گفت یکنواست اما نسبت به‬
‫و در بازه مورد نظر یکنوایی را بررسی می‬
‫‪yn‬‬
‫منحصر به فرد است‬ ‫کنیم ‪ .‬بنابراین چون‬
‫پس تنها یک مقدار ‪ Max‬را به خود نسبت می‬
‫‪.‬‬ ‫‪Max( xi ) = yn‬‬ ‫دهد ‪ .‬بنابراین یکنواست‬
‫نکته مهم ‪ :‬کلیه چگالی ها که خاصیت یکنوا‬
‫بودن را دارا باشند دارای آزمون ‪ ump‬هستند ‪.‬‬
‫‪ump‬‬ ‫آزمون‬ ‫) ‪N (θ , σ 2‬‬ ‫مثال ‪ :‬آیا در خانواده‬
‫وجود دارد ؟‬
‫‪ σ 2‬معلوم ‪θ ∈ Θ ،‬‬
‫حل ‪ :‬همانطور که ملحظه شد این خانواده‬
‫دارای نسبت درستنمایی‬ ‫‪X‬‬ ‫نسبت به ‪ ∑ xi‬یا‬
‫همواره نزولی و یکنوا‬ ‫) ‪ϕ(X‬‬ ‫یکنواست و‬
‫خواهد بود که در این صورت منطقه رد متناظر‬
‫با عبارت زیر خواهد بود ‪:‬‬
‫{‬
‫*‪C = X X > k‬‬ ‫}‬
‫در اینصورت می توانیم تابع توان را در قالب‬
‫معرفی و بر حسب خطای نوع اول‬ ‫‪H0‬‬ ‫رد‬
‫نتیجه را معرفی کنیم ‪.‬‬
‫* ‪ϕ (t ( x)) < k → t ( x) ≥ k‬‬

‫) ‪Π r (θ ) = P( RH 0‬‬

‫‪‬‬
‫) * ‪α = Pθ =θ 0 ( RH 0 ) = P ( X > k‬‬

‫‪k * − θ0‬‬
‫> ‪= P(Z‬‬ ‫)‪n‬‬
‫‪σ‬‬
k * − θ0
α = 1 − P(Z < n)
σ

k * − θ0
N( n) = 1− α
σ
.

k * − θ0
n = N −1 (1 − α )
σ

* σ −1
k = θ0 + N (1 − α )
n
σ −1
RH 0 ⇔ X > θ 0 + N (1 − α )
n

k* − θ k* − θ
Π r (θ ) = P( Z > n) = 1− N ( n)
σ σ
.

θ + σ n N −1 (1 − α ) − θ 
=1− N  0 n
 σ 

 (θ 0 − θ ) 
=1− N  n + N −1 (1 − α )
 σ 
‫اما می توانیم از طریق ‪ LRT‬نتیجه را به گونه‬
‫ای دیگر بیان کنیم ‪.‬‬
‫‪n2‬‬
‫‪ ∑ (x − x) ‬‬ ‫‪2‬‬
‫‪Λ=‬‬ ‫‪i‬‬ ‫‪≤λ‬‬
‫‪2‬‬
‫‪‬‬
‫‪ ∑ ( xi − θ 0 ) ‬‬

‫‪( xi − θ 0 ) 2 = [ ( xi − x ) + ( x − θ 0 )] 2‬‬

‫‪= ( xi − x ) 2 + 2( xi − x )( x − θ 0 ) + ( x − θ 0 ) 2‬‬
‫‪n2‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪n2‬‬ ‫‪‬‬ ‫‪‬‬
‫∑‬ ‫‪( xi − x ) 2‬‬ ‫‪‬‬ ‫‪1‬‬ ‫‪‬‬
‫‪Λ=‬‬ ‫‪‬‬ ‫‪=‬‬
‫‪2‬‬ ‫‪2‬‬ ‫‪2 ‬‬
‫‪ ∑ ( xi − x ) + n( x − θ 0 ) ‬‬ ‫‪1 +‬‬ ‫‪n‬‬ ‫(‬ ‫‪x‬‬ ‫‪−‬‬ ‫‪θ‬‬ ‫‪0‬‬ ‫)‬ ‫‪‬‬
‫‪ ∑ ( x − x )2 ‬‬
‫‪‬‬ ‫‪i‬‬ ‫‪‬‬

‫‪2‬‬ ‫‪n( x − θ 0 ) 2‬‬


‫در نهایت بر‬ ‫و‬
‫عبارتی که ‪ ∑ ( xi − x ) 2‬تابعی از‬
‫‪t‬‬

‫حسب فیشر معرفی می شود و همانطور که ملحظه می‬


‫شود نسبت به این عامل ‪ Λ‬نزولی خواهد بود ‪ .‬بنابراین‬
‫در قالب مسیر ‪ LRT‬نیز آزمون ‪ ump‬مورد توجه قرار‬
‫می گیرد ‪.‬‬
‫‪θ ∈ H0‬‬ ‫‪،‬‬ ‫) ‪N (θ , σ 2‬‬ ‫مثال ‪ :‬آیا ‪ ump‬در خانواده‬
‫وجود دارد ؟‬ ‫‪(θ , σ 2 ) ∈ Θ‬‬ ‫یا‬
‫‪Θ = R × R+‬‬
‫حل ‪ :‬برای این مطلب می توانیم مسیرهای‬
‫مختلفی را دنبال کنیم ‪:‬‬
‫‪ ) 1‬به سراغ برآوردهای فاصله ای جهت‬
‫خواهیم رفت و از آنجا با معرفی‬ ‫) ‪(θ , σ 2‬‬ ‫زوج‬
‫را در‬ ‫‪MLR‬‬ ‫محدوده قابل قبول ‪ ،‬مجدداً وجود‬
‫آن جستجو خواهیم کرد ‪.‬‬
‫‪ ) 2‬از طریق ‪ LRT‬به صورت ‪:‬‬
‫‪Sup‬‬ ‫) ‪( X ,θ , σ 2‬‬
‫‪(θ ,σ 2 )∈H 0‬‬
‫=‪Λ‬‬
‫‪Sup‬‬ ‫) ‪( X ,θ , σ 2‬‬
‫‪(θ ,σ 2 )∈H‬‬

‫‪H0‬‬ ‫منطقه متناظر با آماره )‪ t (x‬در جهت رد‬


‫اقدام خواهیم کرد ‪.‬‬
‫آزمون برابری میانگین ها‬
‫در اینجا فرض می کنیم ‪:‬‬
‫) ‪X 1 ~ N ( µ1, σ 12‬‬ ‫) ‪X 2 ~ N ( µ 2 , σ 22‬‬
‫‪،‬‬
‫که برای هر کدام یک نمونه تصادفی داریم ‪.‬‬
‫) ‪X 1 : ( X 11, X 12 ,  , X 1n1‬‬

‫) ‪X 2 : ( X 21, X 22 ,  , X 2n2‬‬
‫می خواهیم فرض های زیر را آزمون کنیم ‪.‬‬

‫‪ H 0 : µ1 = µ 2 = µ‬‬
‫‪‬‬
‫‪ H1 : µ ≠ µ 2‬‬

‫در اینجا می خواهیم ببینیم آیا میانگین این دو‬


‫توزیع با هم برابرند یا نه ؟‬
‫است در نظر‬ ‫حالت خاص‬
‫) ‪(σ12 = σ 22 = σ 2‬‬
‫می گیریم ‪ ،‬پس در اینجا فضای پارامتری سه‬

‫‪2‬‬
‫بعدی است ‪:‬‬
‫) ‪( µ1, µ 2 , σ‬‬
‫‪ :‬تحت فرض‬
‫‪H0‬‬ ‫‪(µ , σ 2 ) ∈ R × R +‬‬

‫‪H1‬‬ ‫‪( µ1, µ 2 , σ 2 ) ∈ R 2 × R +‬‬


‫‪ :‬تحت فرض‬
‫با استفاده از اصل نسبت درستنمایی تعمیم یافته‬

Sup L( X1, X 2 , µ1, µ 2 , σ 2 ) : ‫داریم‬


Θ0
Λ= ≤ k ⇒ RH 0
2
Sup L( X1, X 2 , µ1, µ 2 , σ )
Θ
n1 + n2

L( X1, X 2 , µ1, µ 2 , σ 2 ) = L(2πσ 2 ) 2

 1 n1 1 n2 
2 2
2 ∑ 1j 2 ∑ 2j
× exp− ( x − µ1 ) − ( x − µ2 ) 
 2σ j =1 2σ j =1 
 ∂L n1 x
 ∂µ = 0 1j
 1 µˆ1 = x1 = ∑
 ∂L j =1 n1
 =0 ⇒
 ∂µ 2 n2 x
2j
 ∂L µˆ 2 = x2 = ∑
 2 =0 j =1 n2
 ∂σ

 n1 n2 
ˆ2
1 2 2
σ =  ∑ ( x1 j − x1 ) + ∑ ( x2 j − x2 ) 
.

n1 + n2  j =1 j =1 
n1 + n2
  2
  n1 + n2
 n1 + n2  −
Sup L =  n  e 2
  1 n 
2 
2
Θ 2
 2n  ∑ ( x1 j − x1 ) + ∑ ( x2 j − x2 )  
  j =1 j =1  
: ‫در اینجا داریم‬
‫ تحت‬: n x +n x
H0 µˆˆ = 1 1 2 2
n1 + n2
‫فرض‬

1  n1 n2 
H1 ˆˆ 2
σ = 2 2
 ∑ ( x1 j − µˆ ) + ∑ ( x2 j − µˆ ) 
n1 + n2  j =1 
‫ تحت فرض‬: j =1

1 2 ni
2
= ∑ ∑ ij
n1 + n2 i =1 j =1
( x − µ
ˆ )

µ̂ˆ µ̂
. ‫است‬ ‫همان‬ ‫که در اینجا‬
n1 n1
2 n1x1 + n2 x2 2
∑ 1j( x − µ
ˆ ) = ∑ 1j( x −
n + n
+ x1 − x 2 )
j =1 j =1 1 2

n1 n1
n1x1 + n2 x2 2
= ∑ ( x1 j − x1 ) 2 + ∑ 1 ( x −
n1 + n 2
)
j =1 j =1
n1
n1x1 + n2 x2
+ 2 ∑ ( x1 j − x1 )( x1 − .

)
j =1 n1 + n2

n1
2 n2 ( x1 − x2 ) 2
= ∑ ( x1 j − x1 ) + n1 ( )
j =1 n1 + n2
n1 n1
2 2 n1n22 ( x1 − x2 ) 2
⇒ ∑ ( x1 j − µˆ ) = ∑ ( x1 j − x1 ) +
2
j =1 j =1 ( n1 + n 2 )
: ‫ لذا‬. ‫ همین طور ساده می شود‬، ‫دیگری هم‬
1  n1 n2
n1n2 
ˆ 2 2 2 2
σˆ =  ∑ ( x1 j − x1 ) + ∑ ( x2 j − x2 ) + ( x1 − x2 ) 
n1 + n2  j =1 j =1 n1 + n2 

Sup = MaxL
n1 + n2
  2
 
 n1 + n2 
= 
  1  n n 
2 n1n2 2 
2
2
  ∑ 1j 1
2 n ( x − x ) + ∑ 2 j 2 n + n 1 2 
( x − x ) ( )( x − x )
  j =1 j =1 1 2  

n1 + n2

×e 2
 
Sup L  n n
1 2 ( x + x )2 
1 2
H  n1 + n2 
Λ= 0 = 1 +  ≤ λ ⇔ RH 0
Sup L  n 1
2
n 2
2
H  ∑ ( x1j − x1 ) + ∑ ( x 2j − x )
2 
 j =1 j =1 

‫که این را باید ساده تر و تبدیل به یک آماره‬

2 2 : ‫ساده تری کرد‬


σ σ
X 1 − X 2 ~ N ( µ1, µ 2 , + )
n1 n2

σ2 σ2
X 1 ~ N ( µ1, ) X 2 ~ N (µ2 , )
n1 n2
‫) ‪( X1 − X 2) − ( µ1 − µ 2‬‬
‫=‪Z‬‬ ‫)‪~ N (0,1‬‬
‫‪2 1‬‬ ‫‪1‬‬ ‫و می دانیم ‪:‬‬
‫) ‪σ ( +‬‬
‫‪n1 n2‬‬

‫‪n1‬‬
‫= ‪S12‬‬
‫‪1‬‬
‫‪∑ 1j 1‬‬
‫(‬ ‫‪x‬‬ ‫‪−‬‬ ‫‪x‬‬ ‫)‬ ‫‪2‬‬ ‫و نیز می دانیم ‪:‬‬
‫‪n − 1 j =1‬‬

‫‪S12 = σ̂ 2‬‬ ‫‪2‬‬


‫‪.‬‬ ‫‪σ‬‬
‫یک برآوردگر برای است که‬
‫‪(n1 − 1) S12‬‬
‫)‪~ χ (2n −1‬‬
‫‪σ2‬‬ ‫‪2‬‬ ‫در نتیجه ‪:‬‬

‫گذاشتیم و نیز ‪:‬‬ ‫)‪(n1 − 1‬‬ ‫مجهول است‬ ‫‪µ‬‬ ‫چون‬


‫‪2‬‬
‫‪1‬‬ ‫(‬ ‫‪x‬‬ ‫‪−‬‬ ‫‪1‬‬‫)‬ ‫‪S‬‬
‫= ‪σˆ 2 = S 22‬‬ ‫∑‬ ‫(‬ ‫‪x‬‬ ‫‪2j‬‬ ‫‪−‬‬ ‫‪x‬‬ ‫‪2‬‬ ‫)‬ ‫⇒‬ ‫‪2‬‬ ‫‪2 ~ χ2‬‬
‫)‪( n2 −1‬‬
‫‪n2 − 1 j‬‬ ‫‪σ2‬‬
χ2
: ‫از یکدیگر مستقل اند‬ ‫چون دو تا‬
1 ni 2 2
2 ∑ ij
( x − xi ) = χ ( n1 + n2 − 2)
σ j =1
Z
: ‫پس‬
Tν =
X2 ν
( X 1 − X 2 ) − ( µ1 − µ 2 )
σ 1 n1 + 1 n2
Tν =
1
σ
∑ ∑ ( x1 j − X i ) 2 n1 + n2 − 2
i j
‫درست باشد ‪ ،‬در نتیجه‬ ‫حال اگر فرض‬
‫‪H0‬‬
‫‪.‬‬

‫‪µ1 − µ 2 = 0‬‬
‫است ‪.‬‬
‫‪n1n2‬‬
‫) ‪( x1 − x2‬‬
‫‪n1 + n2‬‬
‫= )‪T( n1 + n2 − 2‬‬
‫‪2‬‬
‫‪∑∑ 2j i‬‬
‫(‬ ‫‪x‬‬ ‫‪−‬‬ ‫‪x‬‬ ‫)‬
‫‪i‬‬ ‫‪j‬‬
‫‪n1 + n2 − 2‬‬
. ‫ برسانیم‬2 ‫ را به توان‬T ‫اگر‬
n1n2
( x1 − x2 ) 2
n1 + n2
Tν2 = = F1,ν
2
∑ ∑ ( xij − xi )
i j
n1 + n2 − 2

n1n2
( x1 − x2 )
T2 n1 + n2
⇒ =
n1 + n2 − 2 2
∑ ∑ ij i
( x − x )
i j
. ‫را به صورت زیر بیان کرد‬ ‫پس می توان‬
Λ

n1 + n2

 t2  2
H0 Λ = 1 +  ≤ λ0
‫ تحت‬:  n1 + n2 − 2 

n1 + n2

 F  2
= 1 +  ≤ λ0 ⇔ RH 0
 n1 + n2 − 2 
‫که اگر از ‪ Λ‬مشتق بگیریم ‪ .‬مشتق ‪ Λ‬همواره‬
‫منفی است ‪ ،‬پس ‪ Λ‬همواره نزولی است ‪.‬‬

‫‪T 2 = F ≥ k * ⇔ P( F ≥ k * ) = α‬‬
‫اگر بر حسب ‪ F‬می گرفتیم ‪ ،‬مسئله در همین‬
‫) ‪(F = T 2‬‬ ‫بگیریم‬ ‫حسب ‪T 2‬‬ ‫جا حل بود ولی اگر بر‬
‫چون ‪ T‬را در ‪ F‬آزمون یکنواخت است ‪.‬‬

‫* ‪T > k * ⇔ T < −k * ∨ T > k‬‬


‫‪:‬‬ ‫‪χ2‬‬ ‫آزمون‬
‫این آزمون درباره وضعیت خود توزیع سخن‬
‫می گوید و بدین صورت مورد توجه قرار می‬
‫پیروی‬ ‫توزیع ‪χ 2‬‬ ‫از‬ ‫)‪f (x‬‬ ‫گیرد ‪ .‬آیا توزیع‬
‫می کند ‪.‬‬
‫برای انجام این آزمون لزم است مشاهدات‬
‫مورد نظر را به ‪ k‬قسمت افراز نماییم ‪ ،‬آنگاه با‬
‫انجام آزمایشی مشاهدات منتسب به هر قسمت‬
‫را محاسبه می کنیم ‪ ،‬پس از طریق تکنیک‬
‫خاص در جهت برآورد مشاهدات در هر رده‬
‫اقدام خواهیم کرد ‪.‬‬
‫‪:‬‬ ‫آماره ‪χ 2‬‬ ‫آنگاه به کمک‬
‫‪k (n − e ) 2‬‬
‫‪χ2 = ∑ i i‬‬
‫‪i =1‬‬ ‫‪ei‬‬

‫می توانیم نتیجه آزمون را بدست آوریم ‪:‬‬


‫‪df ⇒ k − 1‬‬

‫‪ : m‬تعداد پارامترهای برآورد شده‬


‫‪df ⇒ k − m − 1‬‬
‫مثال ‪ :‬تاسی در اختیار گذاشته شده است می‬
‫خواهیم بدانیم که آیا این تاس نااریب می باشد یا‬
‫خیر ؟‬
‫تاس اریب است ‪.‬‬ ‫‪H1‬‬ ‫‪ H 0‬تاس نااریب است و‬
‫برای این منظور فضای نمونه را به افرازهای‬
‫زیر تقسیم می کنیم ‪:‬‬
‫}‪A1 = {1,2‬‬

‫}‪A2 = { 3,4‬‬

‫}‪A3 = { 5,6‬‬
‫سپس این تاس را ‪ 24‬بار پرتاب می کنیم ‪،‬‬
‫ملحظه می کنیم که در این تعداد پرتاب ‪ 6‬بار‬
‫موقعیت ‪ 1‬یا ‪ 2‬آمده است ‪ 8 .‬بار موقعیت ‪3‬‬
‫یا ‪ 4‬آمده و ‪ 10‬بار موقعیت ‪ 5‬یا ‪ 6‬ظاهر‬
‫‪χ2‬‬
‫نتیجه را بیابید ‪.‬‬ ‫شده است در قالب آماره‬
‫انتخاب شده است ‪.‬‬ ‫‪α = 0.05‬‬
‫اینجا‬ ‫در‬
S = {1,2,3,4,5,6}

A2 = { 3,4} A3 = { 5,6}

1 1
Pi = ei = nPi = 24 × = 8
3 .
3

3 (n − e ) 2 ( 6 − 8) 2
(8 − 8) 2
(10 − 8) 2
χ2 = ∑ i i ⇒ + + =D
i =1 ei 8 8 8
‫نتیجه ‪ :‬چون ‪ 1 > 0.103‬می باشد لذا دلیلی‬
‫برای رد نکردن ‪ H 0‬وجود ندارد ‪.‬‬
‫‪χ 02.05 (2) = 0.103‬‬
‫نکته ‪ :‬در راستای مطالب اخیر می توانیم‬
‫نظر خود را به جداول توافقی معطوف داریم ‪.‬‬
‫حرکتی که در داخل این جداول صورت می‬
‫‪2‬‬
‫ثمر خواهد‬ ‫به‬‫‪χ‬‬ ‫گیرد عملً بر مبنای توزیع‬
‫نشست با این تفاوت که برآوردها از طریق‬
‫مجموع مشاهدات حاشیه ای صورت می گیرد‬
‫که در قالب یک جدول فرضی نتیجه را به‬
‫صورت زیر ملحظه می کنیم ‪.‬‬
‫‪..‬‬

‫گروه‬ ‫‪A‬‬ ‫‪B‬‬ ‫‪O‬‬ ‫‪AB‬‬ ‫کل‬


‫خون‬
‫زن‬ ‫‪40‬‬ ‫‪25‬‬ ‫‪25‬‬ ‫‪12‬‬ ‫‪102‬‬

‫مرد‬ ‫‪30‬‬ ‫‪25‬‬ ‫‪15‬‬ ‫‪8‬‬ ‫‪78‬‬

‫کل‬ ‫‪70‬‬ ‫‪50‬‬ ‫‪40‬‬ ‫‪20‬‬ ‫‪180‬‬


120 × 70
e11 = = 39.66
180

e12 = 28.33 e23 = 11.33

2 2 2
( 40 − 39.66) ( 25. 28.3) (8 − 11.3)
.

χ2 = + ++
39.66 28.3 11.3

df = (r − 1)(c − 1) = (2 − 1)(4 − 1) = 3
‫هدف فصل ‪:‬‬
‫هدف این فصل بحث در یك حالت خاص‬
‫مدل آماري خطي مي باشد ‪ .‬درباره این‬
‫موضوع ‪ ،‬مطالب زیادي در دسترس است‬
‫ولي ما تنها حالت خاص مدل خطي ساده را‬
‫بررسي مي كنیم ‪.‬‬
‫عناوین مهم فصل ‪:‬‬
‫‪ 1‬ـ مقدمه‬
‫‪ 2‬ـ مثال های مدل خطی‬
‫‪ 3‬ـ تعریف مدل خطی‬
‫‪ 4‬ـ برآورد نقطه ای ـ حالت ‪A‬‬
‫ـ برآورد نقطه ای ـ حالت ‪B‬‬ ‫‪5‬‬
‫مقدمه و رؤوس مطالب‬
‫برخي از مؤلفان به این مدل نظریه رگرسیون‬
‫خط مستقیم مي گویند ‪ .‬براي مطالعه این مدل‬
‫استفاده از برخي نظریه ها ‪ ‌،‬از قبیل نظریه‬
‫توزیع ‪ ،‬مفاهیم برآوردهاي نقطه اي و بازه اي‬
‫و برخي از مطالب آزمون فرض لزم مي‬
‫باشند ‪.‬‬
‫در این قسمت توضیح مي دهیم كه چگونه‬
‫مي توان این مفاهیم را براي حالت مدل خطي‬
‫ساده كه در آمار كاربردي اهمیت دارد ‪ ،‬به كار‬
‫برد‪.‬‬
‫مثال هاي مدل خطي‬
‫در این بخش دو مثال براي بیان این كه‬
‫چگونه مدل خطي در مسایل كاربردي استفاده‬
‫مي شود ‪ ،‬ارائه مي دهیم ‪.‬‬
‫مثال ‪: 1‬‬
‫‪s‬‬

‫‪s = β 0 + β1t‬‬ ‫‪t‬‬


‫داده مي‬ ‫طي مي كند با فرمول‬
‫‪β‬‬ ‫‪0‬‬ ‫‪β1‬‬
‫شود ـ‪ ،‬ـكـه ـدر ـآـن ـ ـ ـسـرعت ـمتوسـط ـو ـ ـ ـمحل‬
‫‪β0‬‬ ‫‪t=0‬‬
‫است ‪ .‬اگر و‬ ‫قرار گرفتن ذره در زمان‬
‫‪s‬‬ ‫‪β1‬‬
‫نامعلوم باشند ‪ ،‬آن گاه مي توان را براي‬
‫‪t‬‬
‫دو ـمقدار ـمتمایـز ـ ـمشاهده ـكرده ـو ـدو ـمعادله‬
‫‪β1‬‬ ‫‪β0‬‬
‫حل كرد ‪.‬‬ ‫و‬ ‫حاصل را بر حسب‬
‫براي ـمثال ـ‪ ،‬ـفرض ـكنیـد ـوقتي ـ ـ ـ ـ ـ‪ ،‬ـ ـ ـرا‬
‫‪s‬‬ ‫‪t =1‬‬
‫برابر ـ‪ 2‬مشاهده ـكرده ـایـم ـو ـوقتي ـ ـ ـ ـ ـ ـ ـ‪ ،‬ـ ـ‬
‫‪s‬‬ ‫‪t=4‬‬
‫و‬ ‫از این مطلب‬ ‫برابر ‪ 11‬مي شود ‪.‬‬
‫‪2 = β 0 + β1‬‬

‫‪11 = β 0 + 4 β1‬‬
‫به دست مي آیند و جواب برابرست‬
‫‪s = −1+ 3t‬‬ ‫‪β1 = 3‬‬ ‫‪β 0 = −1‬‬
‫مي باشد ‪.‬‬ ‫؛ بنابراین‬ ‫و‬ ‫با‬
‫فرض كنید به دلیلي نمي توان فاصله را با‬
‫دقـت ـمشاهده ـكرد ـو ـیك ـخطاي ـاندازه ـگیري‬
‫وجود ـدارد ـكـه ـماهیـت ـآـن ـتصـادفي ـاست ـ‪.‬‬
‫بنابراین ‪ s‬را نمي توان مشاهده كرد ‪ ،‬اما فرض‬
‫كنید مي توانیم ‪Y‬را مشاهده كنیم كه در آن‬
‫و ‪ E‬خطاي تصادفي است كه میانگین آن‬ ‫‪Y = s+E‬‬

‫صفر است ‪ ،‬به جاي ‪ s‬مقدار قرار مي دهیم ‪.‬‬


‫داریم ‪:‬‬
‫‪Y = β 0 + β1t + E‬‬

‫كه در آن ‪ Y‬یك متغیر تصادفي قابل مشاهده ‪،‬‬


‫یك‬ ‫‪E‬‬ ‫‪ t‬یك متغیر غیر تصادفي قابل مشاهده ‪،‬‬
‫‪β1‬‬ ‫و‬ ‫‪β0‬‬ ‫متغیر تصادفي غیر قابل مشاهده و‬
‫پارامترهاي مجهول مي باشند ‪.‬‬
‫در اینجا نمي توانیم با مشاهده دو مجموعه از‬
‫مقادیر و ‪ ،‬مانند آنچه كه در بال با و انجام‬
‫‪t‬‬ ‫‪s‬‬ ‫‪t‬‬ ‫‪Y‬‬
‫را به دست آوریم ‪ ،‬زی‬ ‫و‬ ‫دادیم ‪،‬‬
‫‪Y‬‬ ‫‪β1‬‬ ‫‪β0‬‬

‫‪t‬‬
‫ارتباط تابعي وجود ندارد ‪.‬‬
‫و از‬ ‫كردن ‪ β 0‬و ‪β1‬‬ ‫در این مدل ‪ ،‬هدف ‪ ،‬پیدا‬
‫آنجـا ـمحاسـبه ـ‪1t‬ـ‪β‬ـ ـ‪ +‬ـ‪0‬ـ‪β‬ـ ـ= ـ‪ s‬ـبراي ـمقادیـر ـمختلـف ـ ‪t‬ـ ـمي‬
‫باشـد ـ‪ .‬چون ـ‪ s‬ـخطاپذیـر ـاسـت ـو ـنمـي ـتوان ـآن ـرا‬
‫را معلوم كنیم ‪،‬‬ ‫‪β1‬‬ ‫مشاهده كرد ‪ ،‬نمي توانیم ‪ β 0‬و‬
‫و‪Y‬‬ ‫اما با مشاهده مجموعه هاي مختلفي از مقادیر‬
‫‪ ، t‬مي توان روش هاي آماري را براي به دست‬
‫آوردن ـبرآوردهاي ـ‪0‬ـ‪β‬ـ ـ‪ ،‬ـ‪1‬ـ‪β‬ـ ـو ـ‪s‬ـ ـبـه ـكار ـبرد ـ‪ .‬این‬
‫نوع ـمدل ـ‪ ،‬ـیـك ـمدل ـارتباط ـتابعـي ـبا ـخطاي ـ ـ ـ ـ‬
‫اندازه گیري مي باشد ‪.‬‬
‫مثال ‪ : 2‬به عنوان مثالي دیگر ‪ ،‬ارتباط بین‬
‫قد ‪ h‬و وزن ‪ w‬افراد در یك شهر معیني را در‬
‫‪ w‬ـ ـو ـ‪h‬ـرابطـه ـتابعي‬
‫نظـر ـبگیریـد ـ‪ .‬مسـلماً ـبیـن ـ‬
‫وجود ندارد ‪ ،‬اما به نظر مي رسد كه بین آنها‬
‫نوعي ارتباط وجود دارد ‪.‬‬
‫ما آنها را به عنوان متغیرهاي تصادفي بررسي‬
‫داراي توزیع‬ ‫كرده و فرض مي كنیم‬
‫) ‪(W , H‬‬
‫نرمال دو متغیره است ‪ .‬در این صورت مقدار‬
‫از‬ ‫براي یك مقدار مفروض‬ ‫امید ریاضي‬
‫‪w‬‬ ‫‪H‬‬

‫‪W‬‬
‫به صورت زیر است ‪:‬‬
‫‪Ε[ H W = w] = β 0 + β1w‬‬

‫‪β1‬‬ ‫‪β0‬‬
‫توابعي از پارامترهاي یك‬ ‫و‬ ‫كه در آن‬
‫چگالي نرمال دو متغیره مي باشند ‪.‬‬
‫و ‪ W‬رابطه تابعي وجود‬ ‫‪H‬‬ ‫گرچه بین‬
‫ندارد ‪ ،‬اما اگر آنها نرمال توأم شوند ‪ ،‬یك‬
‫رابطه تابعي خطي بین وزنها و مقدار متوسط‬
‫قدها وجود دارد ‪ .‬بنابراین مي توانیم عبارت‬

‫‪Ε[ H W = w] = β 0 + β1w‬‬
‫زیر را بنویسیم ‪:‬‬
‫یا مي توان نوشت ‪:‬‬
‫‪H w = β 0 + β1w + E‬‬

‫كه در آن ‪ E‬یك متغیر تصادفي با توزیع نرمال‬


‫است كه خطا را نشان مي دهد ‪ .‬این یك مدل‬
‫رگرسیون است و گرچه از مسأله اي تا حدي‬
‫متفاوت با مسأله ارتباط تابعي در مثال ‪ 1‬به‬
‫دست آمد هر دوي آنها حالت هاي خاصي از‬
‫یك مدل آماري خطي مي باشد ‪.‬‬
‫تعریف مدل خطي‬
‫فرض كنید )‪ µ (.‬یك تابع خطي از متغیر حقیقي‬
‫تعریف شده است‬ ‫با‪µ ( x) = β 0 + β1x‬‬ ‫باشد كه‬
‫‪D‬‬
‫اغلب‬ ‫مي باشد ‪.‬‬ ‫‪D‬‬
‫دامنه‬ ‫در‬ ‫كه در ‪x‬آن‬
‫خط حقیقي كامل ‪ ،‬یك نیم خط ‪ ‌،‬یا یك بازه‬
‫محدود روي خط حقیقي مي باشد ‪.‬‬
‫براي مدل بندي حالت هایي كه در مثال هاي‬
‫‪ 1‬و ‪ 2‬در بال اشاره شدند ‪ ،‬فرض مي كنیم یك‬
‫خانواده ـتوابـع ـتوزیـع ـتجمعـي ـ (یك ـتابـع ـتوزیع‬
‫تجمعي براي هر‪ x‬در ‪ ) D‬وجود دارد چنان كه‬
‫میانگین تابع توزیع تجمعي متناظر با یك ‪ x‬داده‬
‫مي باشد ‪.‬‬ ‫با ‪β 0 + β1 x0‬‬ ‫شده (مانند‪ ) x0‬در‪ D‬برابر‬
‫بنابراین میانگین توابع توزیع تجمعي روي‬
‫خطي كه با ‪ µ ( x) = β 0 + β1x‬تعریف شده است ‪،‬‬
‫مي باشند ‪.‬‬
‫هدف گرفتن نمونه از برخي از این توابع‬
‫چگالي احتمال و ساختن استنباط هاي آماري‬
‫و غیره بر اساس این نمونه‬ ‫‪ β 0‬و ‪β1‬‬ ‫درباره‬
‫مي باشد ‪.‬‬
‫این نمونـه گیري بـه ـصـورت زیـر ـانجام ـمي‬
‫شود‪:‬‬
‫‪ -1‬یك مجموعه‪ n‬تایي از ‪ x‬ها در ‪ D‬مشاهده‬
‫شده و با ‪xn , , x2 , x1‬نشان داده مي شوند ‪.‬‬
‫‪ x‬ها متغیرهاي تصادفي نیستند ‪ ،‬اما مي توان‬
‫آنها را با یك روش تصادفي یا انتخاب مبتني بر‬
‫هدف ‪ ،‬برگزید ‪.‬‬
‫هر‪x‬ـ ـ ـیـك ـتابـع ـتوزیـع ـتجمعـي ـرا ـكه‬
‫‪i‬‬ ‫‪-2‬‬
‫‪σ‬‬ ‫‪2‬‬
‫باشد‬ ‫آن مي‬ ‫و واریانس‬ ‫‪β 0 + β1xi‬‬ ‫میانگین آن‬
‫مشخص مي كند ‪ .‬از این تابع توزیع تجمعي یك‬
‫مقدار ـبـه ـتصـادف ـانتخاب ـكرده ـو ـبا ـ ‪i‬ـ ـ‪ Y‬ـ ـنشان‬
‫است) ‪.‬‬ ‫‪Y xi‬‬
‫ساده شده نماد‬ ‫( ‪Yi‬‬ ‫مي دهیم ‪.‬‬
‫بنابراین یك مجموعه ‪ n‬جفت مشاهده داریم كه‬
‫نشان مي‬ ‫) ‪(Yn , xn ), , (Y2 , x2 ), (Y1 , x1‬‬ ‫آنها را با‬
‫دهیم ‪ .‬فرض كردیم كه ‪:‬‬
‫‪Ε[Yi ] = β 0 + β1 xi‬‬

‫و‬
‫‪var[Yi ] = σ 2‬‬
‫‪En , , E 2 , E1‬‬
‫بنابراین مي توانیم متغیرهاي تصادفي‬
‫را با ‪:‬‬
‫‪Ei = Yi − β 0 − β1 xi‬‬ ‫‪i = 1,2, , n‬‬

‫ها در ‪:‬‬ ‫‪Ei‬‬ ‫تعریف كنیم ‪ .‬و‬


‫‪Ε[ Ei ] = 0‬‬

‫‪var[ Ei ] = σ 2‬‬ ‫و‬


‫صدق مي كنند ‪.‬‬
‫بنابراین مي توانیم بنویسیم ‪:‬‬
‫‪Yi = β 0 + β1 xi + Ei‬‬ ‫‪i = 1,2, , n‬‬

‫‪ .‬این رابطه‬ ‫‪var[ Ei ] = σ 2‬‬ ‫كه در آن ‪ Ε[ Ei ] = 0‬و‬


‫یك مدل خطي را تعریف مي كند ‪ .‬این مطالب‬
‫را در زیر خلصه مي كنیم ‪.‬‬
‫تعریف ‪ :‬مدل خطی‬
‫در مجموعه‬ ‫فرض کنید تابع )‪ µ (.‬برای هر‬
‫‪x‬‬
‫‪µ ( X ) = β 0 + β1 X‬‬ ‫‪D‬‬
‫تعریف شده باشد ‪.‬‬ ‫با‬
‫)‪FYX (.‬‬ ‫‪D‬‬ ‫‪x‬‬
‫یک‬ ‫فرض کنید‬ ‫در‬ ‫برای هر‬
‫) ‪µ( X‬‬
‫تابع توزیع تجمعی با میانگین‪2‬برابر با‬
‫‪σ‬‬ ‫‪β 0 + β1 X‬‬
‫باشد ‪.‬‬ ‫و واریانس‬ ‫یعنی‬
‫یك مجموعه مشاهده‬ ‫‪xn , , x2 , x1‬‬ ‫فرض كنید‬
‫شده ـمركـب ـاز ـ ـ‪n‬ـتـا ـ ـ ـ ‪x‬ـاز ـ ـ ـ ‪D‬‬
‫ـباشـد ـ‪ .‬براي ـ ـ ـ ـ‬
‫فرض كنید ‪ Yi‬یك نمونه تصادفي به حجم ‪1‬‬ ‫‪xi‬‬

‫از تابع توزیع تجمعي )‪ i = 1,2, , n ، FYxi (.‬باشد ‪.‬‬


‫) ‪(Yn , xn ), , (Y2 , x2 ), (Y1 , x1‬‬
‫‪ ،‬یك‬ ‫در این صورت‬
‫مجموعه مشاهدات مرتبط با ‪:‬‬
‫‪Ε[Yi ] = β 0 + β1xi‬‬
‫و‬
‫‪var[Yi ] = σ 2‬‬ ‫‪i = 1,2, , n‬‬

‫مي باشد ‪ .‬این مشخصات یك مدل آماري خطي‬


‫را تعریف مي كنند ‪.‬‬
‫را مي توانیم‬ ‫‪Ε[Yi ] = β 0 + β1xi‬‬ ‫توجه ‪ :‬معادله‬
‫به صورت ‪:‬‬
‫‪Yi = β 0 + β1xi + Ei‬‬

‫‪E ( Ei ) = 0‬‬

‫‪Var ( Ei ) = σ 2‬‬

‫نیز بنویسیم ‪ ،‬كه در آن ‪. i = 1,2, , n‬‬


‫توجـه ـ ‪ :‬لغـت ـ«خطي» در ـعبارت ـ«مدل‬
‫تابعي‬ ‫آماري خطي» به این واقعیت كه تابع‬
‫)‪µ (.‬‬
‫خطـي ـاز ـپارامترهاي ـنامعلوم ـمـي ـباشد ـاشاره‬
‫در مثال ساده اي كه اشاره كردیم ‪،‬‬ ‫دارد ‪.‬‬
‫)‪µ (.‬‬

‫‪D‬‬ ‫‪x‬‬ ‫‪µ ( x) = β 0 + β1 x‬‬


‫‪ ،‬در تعریف شد كه‬
‫‪x‬‬ ‫)‪µ (x‬‬
‫مي باشد ‪.‬‬ ‫تابعي خطي از‬
‫اما این مطلب قسمت اصلي از تعریف این‬
‫مدل خطي نیست ‪ .‬براي مثال ‪، Y = µ ( x) + E ،‬‬
‫‪µ‬‬ ‫(‬ ‫‪x‬‬ ‫)‬ ‫=‬ ‫‪β‬‬ ‫‪+‬‬ ‫‪β‬‬ ‫‪e‬‬ ‫‪x‬‬
‫یك مدل آماري‬ ‫‪0‬‬ ‫ـ‪1‬‬ ‫كه در آن‬
‫خطي مي باشد ‪.‬‬
‫توجه ‪ :‬در بیشتر وضعیت ها برخي فرض‬
‫‪،‬‬ ‫هاي اضافي درباره تابع توزیع تجمعي‬
‫)‪FYX (.‬‬
‫از ــقبیــل ــنرمال ــبودن ــ‪ ،‬ــقایــل ــمــي ــشویم ـ‪.‬‬
‫همچنین ‪ ،‬عموماً روش نمونه گیري چنان است‬
‫‪Yi‬‬
‫ها یا توأماً مستقل یا دو به دو ناهمبسته‬ ‫كه‬
‫مي باشند ‪.‬‬
‫در واقع ما روش هاي استنباطي را براي دو‬
‫مجموعــه ــاز ــفرض ــها ــدرباره ــمتغیرهاي‬
‫تصـادفي ـكـه ـدر ـحالـت ـهاي ـ‪ A‬ـ ـو ـ ـ‪ B‬ـ ـدر ـزیر‬
‫تعریف شده اند ‪ ،‬بحث مي كنیم ‪.‬‬
‫حالت ‪ :A‬براي این حالت فرض مي كنیم‬
‫‪ n‬متغیر تصادفي توأماً مستقل اند و ‪ Yi‬یك متغیر‬
‫تصادفي نرمال مي باشد ‪.‬‬
‫حالـت ـ‪B‬ـ ـ‪ :‬براي ـایـن ـحالت تنهـا ـفرض ـمي‬
‫كنیـم ـ‪ i‬ـ‪Y‬ـهـا دو بـه دو ناهمبسـته ـانـد ـ‪ ،‬ـیعني ـبراي‬
‫‪.‬‬ ‫[‬ ‫]‬
‫‪Cov Yi , Y j = 0‬‬ ‫‪،‬‬ ‫‪i ≠ j = 1,2, , n‬‬ ‫هر‬
‫برآورد نقطه اي ـ حالت ‪A‬‬

‫متغیرهاي تصادفي‬ ‫‪Yn , , Y2 , Y1‬‬ ‫براي این حالت‬


‫نرمال مستقل با میانگین هاي‬
‫‪β 0 + β1xn , , β 0 + β1 x2 , β 0 + β1 x1‬‬

‫‪σ‬‬ ‫‪2‬‬
‫باشند ‪ .‬براي پیدا كردن‬ ‫مي‬ ‫و واریانس هاي‬
‫برآوردگرهاي نقطه اي ‪ ،‬روش درستنمایي‬
‫ماكزیمم را به كار مي بریم ‪.‬‬
: ‫تابع درستنمایي عبارت است از‬
L( β 0 , β1 ,σ 2 ) = L( β 0 , β1 , σ 2 , y1 , y 2 , , y n )

n  
12  1 y −β −β x 2 
 1  
= ∏   exp −  i 0 1 i
 
πσ 2  2  σ   
i =1
 2  

‫و‬
π π 1 n
LogL ( β 0 , β1 , σ 2 ) = − Log 2π − Logσ 2 − ∑ ( yi − β 0 − β1 xi ) 2
2 2 2σ 2 i =1
‫مشتقات جزئي ) ‪LogL(β 0 , β1,σ 2‬را نسبت به‬
‫به دست آورده و مجموعه را برابر‬ ‫‪σ 2 , β1 , β 0‬‬

‫صفر ـقرار ـمـي ـدهیـم ـ‪ .‬فرض ـمـي ـكنیـم ـ ـ ـ ـ ـ ـ ـ‬


‫جوابهاي این سه معادله حاصل را‬ ‫‪σˆ 2 , βˆ1 , βˆ0‬‬

‫نشان مي دهند ‪.‬‬


‫این سه معادله در زیر داده شده اند ‪( .‬با اندكي‬
‫ساده كردن) ‪:‬‬
‫‪n‬‬
‫‪∑ ( yi − βˆ0 − βˆ1xi ) = 0‬‬
‫‪i =1‬‬
‫‪n‬‬
‫‪∑ ( yi − βˆ0 − βˆ1xi ) xi = 0‬‬
‫‪i =1‬‬
‫‪n‬‬
‫‪2 = nσ~ 2‬‬
‫‪∑ i 0 1i‬‬
‫(‬ ‫‪y‬‬ ‫‪−‬‬ ‫ˆ‬
‫‪β‬‬ ‫‪−‬‬ ‫ˆ‬
‫‪β‬‬ ‫‪x‬‬ ‫)‬
‫‪i =1‬‬
‫اولین دو معادله‬
‫براي تعیین‬
‫‪βˆ1 , βˆ0‬‬
‫مي نامند ‪.‬‬
‫خطي هستند و به آساني‬ ‫‪βˆ1 , βˆ0‬‬ ‫این معادلت بر حسب‬
‫حل مي شوند ‪ .‬داریم ‪:‬‬
‫= ‪βˆ1‬‬ ‫) ‪∑ ( yi − y )( xi − x‬‬
‫‪2‬‬
‫‪∑ i‬‬‫(‬ ‫‪x‬‬ ‫‪−‬‬ ‫‪x‬‬ ‫)‬

‫‪βˆ0 = y − βˆ1x‬‬

‫‪~2‬‬‫‪1 n‬‬
‫‪σ = ∑ ( yi − βˆ0 − βˆ1xi ) 2‬‬
‫‪n i =1‬‬

‫‪σ 2 , β1 , β 0‬‬ ‫كه به ترتیب برآوردهاي درستنمایي ماكزیمم‬


‫مي باشند‪.‬‬
‫توجه داریم كه ‪xi‬ها باید چنان باشند كه‬
‫‪2 ≠0‬‬
‫‪ ،‬یعني باید حداقل دو مقدار‬ ‫‪∑ i‬‬
‫(‬ ‫‪x‬‬ ‫‪−‬‬ ‫‪x‬‬ ‫)‬

‫وجود داشته باشد ‪.‬‬ ‫‪xi‬‬ ‫مجزا براي‬


: ‫توجه كنید كه‬

( )
fYi ( yi ; β 0 , β1 , σ ) = 2πσ 2 −1 2  1  y − β − β x 2 
exp −  i
 2  σ
0 1 i 

 

(
= 2πσ 2 )
−1 2  1
exp −
 2σ 2
( β 0 + β1xi ) 
2 

 1 2 β0 β1 

× exp − yi + yi + xi yi 
 2σ 2 σ2 σ2 

‫یك عضو خانواده نمایي سه‬ fYi ( yi ; β 0 , β1, σ )

. ‫پارامتري است‬
‫ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــن‪:‬‬
‫‪n‬‬ ‫‪n‬‬ ‫‪n‬‬ ‫بنابرایـ‬
‫‪2, Y , x Y‬‬
‫‪∑ i ∑ i ∑ ii‬‬
‫‪Y‬‬
‫‪i =1‬‬ ‫‪i =1‬‬ ‫‪i =1‬‬

‫یك مجموعه آماره هاي بسنده مي نیمال و توأماً‬


‫كامـل ـمـي ـباشنـد ـ ‪ .‬به ـعلوه ـچون ـمجموعه ـآماره‬
‫هاي داده شده در معادله بال ‪ ،‬یك تبدیل یك به یك‬
‫از ــبرآوردگرهاي ـ(آماره ــهاي) تعریــف ــشده ــبا‬
‫معادلت قبلي مي باشند ‪ ،‬خود این برآوردگرها نیز‬
‫بسنده مي نیمال و توأماً كامل مي باشند ‪.‬‬
‫براي ـبررسـي ـبیشتـر ـویژگـي ـهایـي ـكـه ـاین‬
‫برآوردگرها دارا هستند ‪ ،‬توزیع توأم آماره هاي‬
‫را پیدا مي كنیم ‪ .‬براي انجام‬ ‫‪σˆ 2 , βˆ1 , βˆ0‬‬ ‫متناظر‬
‫این كار ابتدا تابع مولد گشتاور ‪ Θˆ 3 , Θˆ 2 , Θˆ 1‬را كه‬
‫كمیتهایـي ـتصـادفي ـبـا ـمقادیـر ـتعریـف ـشده ـبـا ـ‪:‬‬
‫‪ˆ −β‬‬
‫‪β‬‬ ‫‪ˆ −β‬‬
‫‪β‬‬ ‫‪n‬‬ ‫‪~2‬‬
‫‪σ‬‬
‫= ‪θˆ1‬‬ ‫‪0‬‬ ‫‪0‬‬ ‫= ‪,θˆ2‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫= ‪,θˆ3‬‬
‫‪σ‬‬ ‫‪σ‬‬ ‫‪σ2‬‬
‫مي باشند ‪ ،‬پیدا مي كنیم ‪.‬‬
‫‪− h < ti < h‬‬ ‫مي دانیم اگر براي ‪ h > 0‬هنگامي كه‬
‫‪ ،‬امید ریاضي وجود داشته باشد ‪ ،‬تابع مولد‬
‫‪ˆ ,Θ‬‬‫ˆ ˆ‬
‫با ‪:‬‬ ‫‪Θ‬‬ ‫‪3 2 , Θ1‬‬ ‫گشتاور توأم‬
‫‪ t1Θˆ 1 + t 2 Θˆ 2 + t 3 Θ‬‬
‫‪ˆ ‬‬
‫‪m(t1 , t 2 , t3 ) = E e‬‬ ‫‪3‬‬
‫‪‬‬
‫‪‬‬
‫تعریف مي شود ‪.‬‬
∞ ∞ : ‫داریم‬
t1θˆ1 + t 2θˆ2 + t 3θˆ3
m(t1 , t 2 , t3 ) = ∫  ∫e
−∞ −∞
 1 2 
exp −
2 ∑ ( yi − β 0 − β1xi ) 
×  2σ  dy  dy
1 n
(2πσ 2 )π 2

xi , yi ‫ بر حسب‬θˆ3 ,θˆ2 ,θˆ1 ‫ كمیتهاي‬، ‫كه در انتگرال‬


. ‫نوشته مي شوند‬
‫این انتگرال ساده اما محاسبه آن كسل كننده‬
: ‫است و نتیجه آن عبارت است از‬
 
1  2 ∑ xi n  
2
 x 1 
m(t1 , t 2 , t3 ) =  exp t1 + 2t1t 2 −  + t2 
2  ∑ (x − x)2 2 2 2

  i  ∑ ( xi − x ) 
  ∑ ( xi − x )  

× (1 − 2t3 ) − ( n − 2) 2
1
، t3 <
2
‫از این تابع مولد گشتاور مي توانیم چیزهایي‬
‫بیاموزیم ‪:‬‬
‫‪ -1‬این عبارت به تابعي تنها از‪t 2 ,t1‬‬

‫تجزیه مي شود ‪.‬‬ ‫ضرب در تابعي ‪t3‬‬


‫تنها از‬
‫ما این نتیجه را به صورت ‪:‬‬
‫) ‪m(t1 , t 2 , t3 ) = m1 (t1 , t 2 )m2 (t3‬‬

‫مي نویسیم ‪.‬‬


‫با استفاده از قضیه هاي ذكر شده ‪ ،‬معلوم مي‬
‫شود متغیرهاي تصادفي مرتبط با ‪ t 2 ,t1‬مستقل‬
‫از ـمتغیرهاي ـتصـادفي ـمرتبـط ـبـا ـ‪3‬ـ‪ t‬ـمـي ـباشند ـ‪،‬‬
‫‪ˆ ,Θ‬‬‫ˆ‬
‫مي باشند ‪ ،‬كه دللت‬ ‫از ‪Θ̂ 3‬‬ ‫مستقل‬ ‫‪Θ‬‬ ‫‪2 1،‬‬ ‫یعني‬
‫بر ــایــن ــدارد ــكــه ــبرآوردگرهاي ــدرستنمایي‬
‫ماكزیمــم ‪1‬ــ‪, β‬ــ‪0‬ــ‪ β‬ــتوأماً ــمســتقل ــاز ــبرآوردگر‬
‫مي باشند ‪.‬‬ ‫‪σ2‬‬ ‫درستنمایي ماكزیمم‬
‫‪ -2‬چون مي دانیم ‪ ،‬یك تابع مولد گشتاور ‪،‬‬
‫توزیـع ـمتغیرهاي ـتصـادفي ـرا ـكـه ـدخیـل ـانـد ـبه‬
‫طور یكتا تعیین مي كند ؛ سعي مي كنیم شكل‬
‫را بشناسیم ‪.‬‬ ‫) ‪m2 (t3 ), m1 (t1 , t 2‬‬
‫تابع مولد گشتاور یك توزیع‬ ‫) ‪m1 (t1 , t 2‬‬ ‫توجه داریم‬
‫نرمال دو متغیره است و طبعاً میانگین ها ‪ ،‬واریانس‬
‫ها و كوواریانس را به دست مي آوریم ‪ .‬مي بینیم‬
‫‪β‬‬‫ˆ‪ˆ , β‬‬ ‫‪β‬‬‫ˆ‪ˆ , β‬‬
‫‪، 0 1‬‬ ‫مرتبط با‬ ‫‪، 0 1‬‬ ‫متغیرهاي تصادفي ‪ ،‬مانند‬
‫متغیرهاي نرمال دو متغیره با میانگین هاي ) ‪ ( β 0 , β1‬و‬
‫ماتریس كوواریانس زیر مي باشند ‪:‬‬
‫‪ σ 2 x2‬‬ ‫‪−σ 2x ‬‬
‫‪‬‬ ‫∑‬ ‫‪i‬‬
‫‪‬‬ ‫‪‬‬
‫) ‪ n∑ ( xi − x‬‬ ‫‪2‬‬ ‫‪2‬‬
‫‪‬‬
‫∑‬ ‫‪( xi − x ) ‬‬
‫‪‬‬
‫‪ −σ x‬‬ ‫‪2‬‬ ‫‪σ‬‬ ‫‪2‬‬ ‫‪‬‬
‫‪‬‬ ‫‪2‬‬
‫‪‬‬
‫‪2‬‬
‫‪‬‬
‫) ‪ ∑ ( xi − x‬‬ ‫‪∑ ( xi − x ) ‬‬
‫روش دیگر بیان این مطلب به صورت زیر‬
‫است ‪ :‬یك متغیر تصادفي نرمال دو متغیره با‬
‫پارامترهاي زیر است ‪:‬‬
‫] [‬
‫‪E Bˆ 0 = β 0‬‬ ‫] [‬
‫‪E Bˆ1 = β1‬‬

‫‪σ 2 ∑ xi2‬‬ ‫‪σ2‬‬


‫] [‬
‫= ‪Var Bˆ 0‬‬ ‫] [‬
‫= ‪Var Bˆ1‬‬
‫‪2‬‬
‫‪n∑ ( xi − x ) 2‬‬ ‫‪∑ i‬‬
‫(‬ ‫‪x‬‬ ‫‪−‬‬ ‫‪x‬‬ ‫)‬

‫‪−σ 2x‬‬
‫[‬ ‫]‬
‫= ‪Cov Bˆ 0 , Bˆ1‬‬ ‫و‬
‫‪∑ ( xi − x ) 2‬‬
‫تابع مولد گشتاور‬ ‫) ‪m2 (t3‬‬ ‫‪ -3‬تشخیص مي دهیم‬
‫یك متغیر تصادفي كي دو با ‪ n − 2‬درجه آزادي‬
‫مي باشد ‪ .‬بنابراین داریم ‪:‬‬
‫‪nσˆ 2‬‬ ‫‪1‬‬ ‫‪2‬‬
‫=‬ ‫‪∑ i 0 1i‬‬
‫(‬‫‪Y‬‬ ‫‪−‬‬ ‫ˆ‬
‫‪B‬‬ ‫‪−‬‬ ‫ˆ‬
‫‪B‬‬ ‫‪x‬‬ ‫)‬
‫‪σ2‬‬ ‫‪σ‬‬ ‫‪2‬‬

‫كه داراي توزیع كي دو با ‪ n − 2‬درجه آزادي‬


‫به ترتیب براي نشان‬ ‫‪σ~ 2 ,σˆ 2‬‬ ‫است ‪( .‬در اینجا‬
‫به كار‬ ‫مقادیر ‪σ~ 2 ,σˆ 2‬‬ ‫دادن متغیرهاي تصادفي با‬
‫مي روند) ‪.‬‬
‫داریم ‪:‬‬
‫‪ nσ~ 2 ‬‬
‫‪E‬‬ ‫‪ = n−2‬‬
‫‪2‬‬
‫‪ σ ‬‬
‫را با ‪:‬‬ ‫‪σˆ 2‬‬ ‫بنابراین‬
‫‪n‬‬ ‫‪1‬‬ ‫‪n‬‬
‫= ‪σˆ 2‬‬ ‫= ‪σ~ 2‬‬ ‫‪∑ i 0 1i‬‬
‫(‬ ‫‪y‬‬ ‫‪−‬‬ ‫ˆ‬
‫‪β‬‬ ‫‪−‬‬ ‫ˆ‬
‫‪β‬‬ ‫‪x‬‬ ‫)‬ ‫‪2‬‬
‫‪n−2‬‬ ‫‪n − 2 i =1‬‬

‫تعریف مي كنیم ‪ .‬این نتایج را در قضیه زیر‬


‫خلصه مي كنیم ‪.‬‬
‫قضیه ‪ :‬حالت ‪ A‬از مدل خطي ساده را در نظر‬
‫ماكزیمم ‪σ 2 , β 2 , β1‬‬ ‫بگیرید ‪ .‬برآوردگرهاي درستنمایي‬
‫(پس از تصحیح براي اریبي) با ‪:‬‬
‫‪Bˆ 0 = Y − Bˆ1x‬‬

‫= ‪Bˆ1‬‬
‫) ‪∑ (Yi − Y )( xi − x‬‬
‫‪2‬‬
‫‪∑ i‬‬‫(‬ ‫‪x‬‬ ‫‪−‬‬ ‫‪x‬‬ ‫)‬
‫‪2‬‬ ‫‪1‬‬ ‫‪2‬‬
‫= ˆ‪σ‬‬
‫‪n−2‬‬
‫‪∑ i 0 1i‬‬
‫(‬‫‪Y‬‬ ‫‪−‬‬ ‫ˆ‬
‫‪B‬‬ ‫‪−‬‬ ‫ˆ‬
‫‪B‬‬ ‫‪x‬‬ ‫)‬

‫داده مي شوند ‪.‬‬


‫این برآوردگرها در موارد زیر صدق مي كنند ‪:‬‬
‫‪ -1‬آماره هاي بسنده كامل توأم مي باشند ‪.‬‬
‫‪ -2‬برآوردگرهاي نااریب پارامترهاي‬
‫متناظرشان مي باشند ‪.‬‬
‫مي باشند ‪.‬‬ ‫‪2‬‬
‫ازˆ‪σ‬‬ ‫مستقل‬ ‫) ‪( Bˆ 0 , Bˆ1‬‬ ‫‪-3‬‬
‫داراي توزیع نرمال دو متغیره‬ ‫‪-4‬‬
‫) ‪( Bˆ 0 , Bˆ1‬‬
‫و ماتریس كوواریانس داده‬ ‫با میانگین‬
‫) ‪( β 0 , β1‬‬
‫شده در بال مي باشد ‪.‬‬
‫یك متغیر تصادفي كي دو با‬ ‫‪σˆ 2‬‬ ‫‪-5‬‬
‫)‪(n − 2‬‬
‫‪σ2‬‬
‫‪n−2‬‬
‫درجه آزادي است ‪.‬‬
‫برآورد نقطه اي ـ حالت ‪B‬‬

‫براي این حالت ‪ Yn , , Y2 , Y1‬متغیرهاي تصادفي‬


‫دو به دو ناهمبسته با میانگین هاي ‪:‬‬
‫‪β 0 + β1 xn , , β 0 + β1x2 , β 0 + β1 x1‬‬

‫‪2‬‬
‫باشند ‪.‬‬ ‫مي‬ ‫‪σ‬‬ ‫و واریانس هاي‬
‫چون چگالي توأم ها مشخص نشده است ‪،‬‬
‫‪Yi‬‬
‫نمي توان برآوردگرهاي درستنمایي ماكزیمم ‪،‬‬
‫را به دست آورد ‪ .‬در مدلهایي كه در‬
‫‪σ 2 , β1 , β 0‬‬
‫آنها چگالي توأم متغیرهاي تصادفي قابل مشاهده‬
‫داده نشده است ‪ ،‬مي توان از یك روش برآورد‬
‫استفاده‬ ‫موسوم به‬
‫كرد ‪.‬‬
‫تعریف كمترین مربعات‬
‫فرض كنید ) ‪ n ، i = 1,2, , n ، (Yi , xi‬جفت مشاهده‬
‫باشند كه در مدل خطي ساده صدق مي كنند ‪.‬‬

‫‪n‬‬
‫مقادیر ‪ β 0 , β1‬كه مجموع مربعات ‪:‬‬
‫‪2‬‬
‫‪∑ i 0 1i‬‬
‫(‬‫‪Y‬‬ ‫‪−‬‬ ‫‪β‬‬ ‫‪−‬‬ ‫‪β‬‬ ‫‪x‬‬ ‫)‬
‫‪i =1‬‬

‫را مي نیمم مي كنند ‪ ،‬برآوردگرهاي كمترین‬


‫تعریف مي شوند ‪.‬‬ ‫‪β 0 , β1‬‬ ‫مربعات‬
‫براي پیدا كردن برآوردگرهاي كمترین مربعات ‪، β 0 , β1‬‬
‫‪n‬‬
‫‪2‬‬
‫= ) ‪L( β 0 , β1‬‬ ‫‪∑ i 0 1i‬‬
‫(‬‫‪Y‬‬ ‫‪−‬‬ ‫‪β‬‬ ‫‪−‬‬ ‫‪β‬‬ ‫‪x‬‬ ‫)‬
‫باید مقادیري كه‬
‫‪i =1‬‬

‫را مي نیمم مي سازند پیدا كنیم و به وضوح این‬


‫مقادیر ‪ ،‬همان مقادیري است كه تابع درستنمایي را در‬

‫) ‪L( β 0 , β1 , σ 2 ) = L( β 0 , β1 , σ 2 , y1 , y 2 , , y n‬‬ ‫معادله‬

‫‪n ‬‬ ‫‪‬‬


‫‪12‬‬ ‫‪ 1 y −β −β x‬‬ ‫‪2 ‬‬
‫‪‬‬ ‫‪1‬‬ ‫‪‬‬ ‫‪‬‬
‫‪= ∏ ‬‬ ‫‪‬‬
‫‪‬‬ ‫‪exp −  i‬‬ ‫‪0‬‬ ‫‪1 i‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪i =1‬‬‫‪‬‬ ‫‪2‬‬‫‪πσ‬‬ ‫‪2‬‬
‫‪‬‬ ‫‪ 2 ‬‬ ‫‪σ‬‬ ‫‪‬‬ ‫‪ ‬‬
‫‪‬‬

‫ماكزیمم مي كنند ‪ .‬بنابراین قضیه زیر را داریم ‪.‬‬


‫مدل خطي ساده ‪،‬‬ ‫قضیه ‪ :‬در حالت‬
‫‪B‬‬
‫با‬ ‫برآوردگرهاي كمترین مربعات‬
‫‪Bˆ 0 , Bˆ1‬‬ ‫‪β 0 , β1‬‬
‫داده مي شوند ‪ ،‬كه در آن ‪،‬‬
‫‪Bˆ 0 = Y − Bˆ1x‬‬

‫= ‪Bˆ1‬‬
‫) ‪∑ (Yi − Y )( xi − x‬‬
‫‪2‬‬
‫‪∑ i‬‬‫(‬ ‫‪x‬‬ ‫‪−‬‬ ‫‪x‬‬ ‫)‬
‫روش كمترین مربعات ‪ ،‬برآوردگري را براي‬

‫‪σ2‬‬
‫به دست نمي دهد ‪.‬‬
‫بر اساس برآوردگرهاي‬ ‫‪σ2‬‬ ‫اما یك برآوردگر‬
‫عبارت است از ‪:‬‬ ‫‪β 0 , β1‬‬ ‫كمترین مربعات‬
‫‪1‬‬
‫= ‪σˆ 2‬‬ ‫‪∑ i 0 1i‬‬
‫(‬‫‪Y‬‬ ‫‪−‬‬ ‫ˆ‬
‫‪B‬‬ ‫‪−‬‬ ‫ˆ‬
‫‪B‬‬ ‫‪x‬‬ ‫)‬ ‫‪2‬‬
‫‪n−2‬‬
‫براي ــحالــت‪A‬ــ ــبرآوردگرهاي ــدرستنمایي‬
‫‪2,β ,β‬‬
‫ـبرخـي ـویژگـي ـهاي ـبهینه‬ ‫ـ ـ‪ 0‬ـ ـ‪ 1‬ـ ـ ـ ـ‬
‫‪σ‬‬ ‫ماكزیمـم‬
‫مطلوب ـرا ـدارا ـبودنـد ـ‪ .‬ایـن ـمطالـب ـبیان ـمي‬
‫دارد كه ‪ Bˆ 0 , Bˆ1‬برآوردگرهاي نااریب با واریانس‬
‫مي نیمم مي باشند ‪.‬‬
‫رده همه برآوردگرهاي نااریب‬ ‫در ‪β 0 , β1‬‬ ‫یعني‬
‫در معادله ‪:‬‬ ‫برآوردگرهاي ‪Bˆ 0 , Bˆ1‬‬ ‫‪،‬‬
‫‪Bˆ 0 = Y − Bˆ1x‬‬

‫= ‪Bˆ1‬‬
‫) ‪∑ (Yi − Y )( xi − x‬‬
‫‪2‬‬
‫‪∑ i‬‬‫(‬ ‫‪x‬‬ ‫‪−‬‬ ‫‪x‬‬ ‫)‬

‫‪1‬‬
‫= ‪σˆ 2‬‬ ‫∑‬ ‫‪(Yi − Bˆ 0 − Bˆ1 xi ) 2‬‬
‫‪n−2‬‬

‫داراي به طور یكنواخت واریانس مي نیممم مي‬


‫باشد ‪.‬‬
‫براي حالت ‪ ، B‬برآوردگرهاي مي نیمم مربعات‬
‫از چنین ویژگي جالبي برخوردار نیستند ‪ .‬براي‬
‫حالت ‪ ، A‬فرض ها قوي تر از حالت ‪ ، B‬كه در‬
‫آن ـتوزیـع ـمتغیرهاي ـتصادفي ـ‪ i‬ـ‪ Y‬ـنامعلوم ـفرض‬
‫شده ـانـد ـ‪ ،‬ـمـي ـباشنـد ـ‪ .‬بنابرایـن ـبراي ـحالت ـ‪B‬ـ‪،‬‬
‫نبایـد ـانتظار ـچنیـن ـویژگـي ـبهینه ـنیرومندي ـرا‬
‫داشته باشیم ‪.‬‬
‫توجه ‪ :‬دو محدودیت روي توابع برآورد‬
‫وجود دارند ‪.‬‬
‫اولً رده توابع برآورد به توابعي خطي از‬
‫‪ Yi‬محدود شده اند ‪.‬‬
‫تنها‬ ‫‪Yi‬‬ ‫ثانیاً در رده توابع خطي از‬
‫برآوردگرهاي نااریب بررسي شده اند ‪.‬‬
‫قضیه گاوس ـ ماركف‬
‫مدل خطي ساده را در نظر مي گیریم و فرض‬
‫مي كنیم براي حالت ‪ B‬فرض ها برقرارند ‪ .‬در‬
‫‪β 0 , β1‬‬
‫این صورت برآوردگرهاي كمترین مربعات‬
‫كه در معادله ‪:‬‬
‫‪Bˆ 0 = Y − Bˆ1 x‬‬ ‫= ‪Bˆ1‬‬
‫) ‪∑ (Yi − Y )( xi − x‬‬
‫‪∑ ( xi − x ) 2‬‬
‫‪ ،‬بهترین‬ ‫‪β 0 , β1‬‬ ‫داده شده اند ‪ ،‬به ترتیب براي‬
‫برآوردگرهاي نااریب خطي مي باشند ‪.‬‬
THE
END

Vous aimerez peut-être aussi