
We are searching data for your request:
Upon completion, a link will appear to access the found materials.
मान लीजिए कि हमारे पास ब्याज की आबादी से एक यादृच्छिक नमूना है। जिस तरह से जनसंख्या वितरित की जाती है, उसके लिए हमारे पास एक सैद्धांतिक मॉडल हो सकता है। हालांकि, कई जनसंख्या पैरामीटर हो सकते हैं जिनमें से हम मूल्यों को नहीं जानते हैं। अधिकतम संभावना अनुमान इन अज्ञात मापदंडों को निर्धारित करने का एक तरीका है।
अधिकतम संभावना अनुमान के पीछे मूल विचार यह है कि हम इन अज्ञात मापदंडों के मूल्यों को निर्धारित करते हैं। हम एक संबद्ध संयुक्त संभाव्यता घनत्व फ़ंक्शन या प्रायिकता मास फ़ंक्शन को अधिकतम करने के लिए इस तरह से करते हैं। हम इसे और अधिक विस्तार से देखेंगे जो निम्नानुसार है। फिर हम अधिकतम संभावना अनुमान के कुछ उदाहरणों की गणना करेंगे।
अधिकतम संभावना आकलन के लिए कदम
उपरोक्त चर्चा को निम्नलिखित चरणों द्वारा संक्षेपित किया जा सकता है:
- स्वतंत्र यादृच्छिक चर X के नमूने के साथ प्रारंभ करें1, एक्स2,… एक्सn प्रायिकता घनत्व फ़ंक्शन f (x; with) के साथ प्रत्येक सामान्य वितरण से1,… θकश्मीर)। Thetas अज्ञात पैरामीटर हैं।
- चूँकि हमारा नमूना स्वतंत्र है, हम जिस विशिष्ट नमूने का निरीक्षण करते हैं, उसे प्राप्त करने की संभावना को हमारी संभावनाओं को एक साथ गुणा करके पाया जाता है। यह हमें एक संभावना फ़ंक्शन एल (eli) देता है1,… θकश्मीर) = एफ (एक्स1 ;θ1,… θकश्मीर) च (x2 ;θ1,… θकश्मीर) ... च (एक्सn ;θ1,… θकश्मीर) = Π एफ (एक्समैं ;θ1,… θकश्मीर).
- अगला, हम थीटा के मूल्यों को खोजने के लिए कैलकुलस का उपयोग करते हैं जो हमारे संभावना फ़ंक्शन एल को अधिकतम करते हैं।
- अधिक विशेष रूप से, हम एक एकल पैरामीटर होने पर L के संबंध में एल फ़ंक्शन की संभावना को अलग करते हैं। यदि कई पैरामीटर हैं तो हम एलटीए के प्रत्येक पैरामीटर के संबंध में एल के आंशिक डेरिवेटिव की गणना करते हैं।
- अधिकतमकरण की प्रक्रिया को जारी रखने के लिए, L के व्युत्पन्न (या आंशिक व्युत्पन्न) को शून्य के बराबर सेट करें और थीटा के लिए हल करें।
- फिर हम यह सत्यापित करने के लिए अन्य तकनीकों (जैसे दूसरी व्युत्पन्न परीक्षा) का उपयोग कर सकते हैं कि हमने अपने संभावना फ़ंक्शन के लिए अधिकतम पाया है।
उदाहरण
मान लीजिए हमारे पास बीजों का एक पैकेज है, जिनमें से प्रत्येक में एक निरंतर संभावना है पी अंकुरण की सफलता। हम पौधे लगाते हैं n इनमें से और अंकुरित होने वालों की संख्या गिनें। मान लें कि प्रत्येक बीज दूसरों के स्वतंत्र रूप से अंकुरित होता है। हम पैरामीटर के अधिकतम संभावना अनुमानक का निर्धारण कैसे करते हैं पी?
हम यह देखते हुए शुरू करते हैं कि प्रत्येक बीज एक बर्नौली वितरण द्वारा तैयार किया गया है जिसकी सफलता के साथ पी। हम जाने एक्स या तो 0 या 1 हो, और एक एकल बीज के लिए संभाव्यता द्रव्यमान कार्य है च( एक्स ; पी ) = पीएक्स(1 - पी)1 - एक्स.
हमारे नमूने के होते हैं nविभिन्न एक्समैंप्रत्येक के साथ एक बर्नौली वितरण है। अंकुरित होने वाले बीज एक्समैं = 1 और अंकुरित होने वाले बीज होते हैं एक्समैं = 0.
संभावना समारोह द्वारा दिया जाता है:
एल ( पी ) = Π पीएक्समैं(1 - पी)1 - एक्समैं
हम देखते हैं कि एक्सपेक्टर्स के कानूनों का उपयोग करके संभावना फ़ंक्शन को फिर से लिखना संभव है।
एल ( पी ) = पीΣ xमैं(1 - पी)n - Σ xमैं
इसके बाद हम इस फ़ंक्शन को सम्मान के साथ अलग करते हैं पी। हम मानते हैं कि सभी के लिए मूल्य एक्समैं ज्ञात हैं, और इसलिए स्थिर हैं। संभावना फ़ंक्शन को अलग करने के लिए हमें पावर नियम के साथ उत्पाद नियम का उपयोग करने की आवश्यकता है:
एल '( पी ) = Σ xमैंपी-1 + Σ xमैं (1 - पी)n - Σ xमैं- (n - Σ xमैं ) पीΣ xमैं(1 - पी)n-1 - Σ xमैं
हम कुछ नकारात्मक घातांक को फिर से लिखते हैं और हैं:
एल '( पी ) = (1/पी) Σ xमैंपीΣ xमैं (1 - पी)n - Σ xमैं- 1/(1 - पी) (n - Σ xमैं ) पीΣ xमैं(1 - पी)n - Σ xमैं
= (1/पी) Σ xमैं- 1/(1 - पी) (n - Σ xमैं)मैंपीΣ xमैं (1 - पी)n - Σ xमैं
अब, अधिकतमकरण की प्रक्रिया को जारी रखने के लिए, हम इस व्युत्पन्न को शून्य के बराबर सेट करते हैं और इसके लिए हल करते हैं p:
0 = (1/पी) Σ xमैं- 1/(1 - पी) (n - Σ xमैं)मैंपीΣ xमैं (1 - पी)n - Σ xमैं
जबसे पी और 1- पी) नोनज़रो हमारे पास है
0 = (1/पी) Σ xमैं- 1/(1 - पी) (n - Σ xमैं).
समीकरण के दोनों किनारों को गुणा करके पी(1- पी) हमें देता है:
0 = (1 - पी) Σ xमैं- पी (n - Σ xमैं).
हम दाहिने हाथ की ओर का विस्तार करते हैं और देखते हैं:
0 = Σ xमैं- पी Σ xमैं- पी n + p xमैं = Σ xमैं - पी n.
इस प्रकार Σ xमैं = पी n और (1 / n)) xमैं= पी। इसका मतलब है कि अधिकतम संभावना अनुमानक पी एक नमूना मतलब है। अधिक विशेष रूप से यह अंकुरित बीजों का नमूना अनुपात है। यह पूरी तरह से हमारे अंतर्ज्ञान के अनुरूप है। अंकुरित होने वाले बीजों के अनुपात को निर्धारित करने के लिए, पहले ब्याज की आबादी से एक नमूने पर विचार करें।
चरणों में संशोधन
चरणों की उपरोक्त सूची में कुछ संशोधन हैं। उदाहरण के लिए, जैसा कि हमने ऊपर देखा है, आम तौर पर कुछ समान बीजगणित का उपयोग करने के लिए कुछ समय बिताना सार्थक होता है, जिससे कि समरूपता फलन की अभिव्यक्ति को सरल बनाया जा सके। इसका कारण भेदभाव को आसान बनाना है।
चरणों की उपरोक्त सूची में एक और बदलाव प्राकृतिक लघुगणक पर विचार करना है। फ़ंक्शन L के लिए अधिकतम समान बिंदु पर घटित होगा, क्योंकि यह L के प्राकृतिक लघुगणक के लिए होगा। इस प्रकार अधिकतम Ln L, फ़ंक्शन L को अधिकतम करने के बराबर है।
कई बार, एल में घातीय कार्यों की उपस्थिति के कारण, एल के प्राकृतिक लघुगणक को लेने से हमारे कुछ काम सरल हो जाएंगे।
उदाहरण
हम देखते हैं कि ऊपर से उदाहरण को फिर से देखकर प्राकृतिक लघुगणक का उपयोग कैसे करें। हम संभावना समारोह के साथ शुरू करते हैं:
एल ( पी ) = पीΣ xमैं(1 - पी)n - Σ xमैं .
फिर हम अपने लघुगणक कानूनों का उपयोग करते हैं और देखते हैं कि:
आर ( पी ) = एलएन एल ( पी ) = Σ xमैं ln पी + (n - Σ xमैं) ln (1 - पी).
हम पहले से ही देखते हैं कि व्युत्पन्न की गणना करना बहुत आसान है:
आर '( पी ) = (1/पी) Σ xमैं - 1/(1 - पी)(n - Σ xमैं) .
अब, पहले की तरह, हम इस व्युत्पन्न को शून्य के बराबर सेट करते हैं और दोनों तरफ से गुणा करते हैं पी (1 - पी):
0 = (1- पी ) Σ xमैं - पी(n - Σ xमैं) .
हम हल करते हैं पी और पहले जैसा ही परिणाम खोजें।
एल (पी) के प्राकृतिक लघुगणक का उपयोग दूसरे तरीके से मददगार है। यह सत्यापित करने के लिए R (p) की दूसरी व्युत्पन्न गणना करना बहुत आसान है कि हम वास्तव में बिंदु पर अधिकतम (1 / n) 1 x हैंमैं= पी।
उदाहरण
एक और उदाहरण के लिए, मान लीजिए कि हमारे पास एक यादृच्छिक नमूना X है1, एक्स2,… एक्सn एक जनसंख्या से कि हम एक घातांक वितरण के साथ मॉडलिंग कर रहे हैं। एक यादृच्छिक चर के लिए प्रायिकता घनत्व फ़ंक्शन रूप का है च( एक्स ) = θ-1 ई -एक्स/θ
संभावना फ़ंक्शन को संयुक्त संभावना घनत्व फ़ंक्शन द्वारा दिया जाता है। यह इन घनत्व कार्यों में से कई का एक उत्पाद है:
एल (θ) = = =-1 ई -एक्समैं/θ = θ-n ई -Σ एक्समैं/θ
एक बार फिर यह संभावना फ़ंक्शन के प्राकृतिक लघुगणक पर विचार करने के लिए सहायक है। इसे विभेदित करने के लिए संभावना फ़ंक्शन को अलग करने की तुलना में कम काम की आवश्यकता होगी:
R (θ) = ln L (θ) = ln =-n ई -Σ एक्समैं/θ
हम लघुगणक के अपने कानूनों का उपयोग करते हैं और प्राप्त करते हैं:
R (θ) = ln L (θ) = - n ln θ + -Σएक्समैं/θ
हम θ और के संबंध में अंतर करते हैं:
आर '(θ) = - n / θ + Σएक्समैं/θ2
इस व्युत्पन्न को शून्य के बराबर सेट करें और हम देखते हैं कि:
0 = - n / θ + Σएक्समैं/θ2.
दोनों तरफ से गुणा करें θ2 और परिणाम है:
0 = - n θ + Σएक्समैं.
अब θ के लिए हल करने के लिए बीजगणित का उपयोग करें:
/ = (1 / n) /एक्समैं.
हम इस से देखते हैं कि नमूना का मतलब है कि संभावना फ़ंक्शन को अधिकतम करता है। हमारे मॉडल को फिट करने के लिए पैरामीटर be बस हमारी सभी टिप्पणियों का मतलब होना चाहिए।
कनेक्शन
अन्य प्रकार के अनुमानक हैं। एक वैकल्पिक प्रकार के अनुमान को निष्पक्ष अनुमानक कहा जाता है। इस प्रकार के लिए, हमें अपने सांख्यिकीय के अपेक्षित मूल्य की गणना करनी चाहिए और यह निर्धारित करना चाहिए कि क्या यह इसी पैरामीटर से मेल खाता है।
ऐसे और भी विषय होंगे!
अतुलनीय विषय, यह मेरे लिए बहुत दिलचस्प है :)
क्या एक दिलचस्प विचार ..
मेरी राय में आप सही नहीं हैं। मुझे पीएम में लिखें।
पूरा खराब स्वाद
मैं अभी चर्चा में भाग नहीं ले सकता - कोई खाली समय नहीं है। लेकिन मैं स्वतंत्र हो जाऊंगा - मैं निश्चित रूप से लिखूंगा कि मैं इस मुद्दे पर क्या सोचता हूं।