برآوردگر بیشینه‌گر احتمال پسین - ویکی‌پدیا، دانشنامهٔ آزاد

در آمار، برآوردگر بیشینه‌گر احتمال پسین (به انگلیسی: Maximum a posteriori estimation) یک پارامتر، مد توزیع احتمال پسین آن پارامتر است. به بیان ریاضی، اگر داده بر اساس توزیع با پارامتر توزیع شده‌باشند و و به ترتیب احتمال پیشین پارامتر و درستنمایی داده را نشان دهند، برآوردگر بیشینه‌گر احتمال پسین برابر خواهد بود با:

برآوردگر بیشینه‌گر احتمال پسین ارتباط نزدیکی با برآورد درستنمایی بیشینه دارد، با این تفاوت که برای پارامتر مورد تخمین احتمال پیشین را هم در نظر می‌گیرد. در نتیجه، می‌توان برآوردگر بیشینه‌گر احتمال پسین را همان برآورد درست‌نمایی بیشینه دانست به همراه یک تنظیم‌گر.

توضیحات

[ویرایش]

فرض کنید میخواهیم پارامتر جمعیت مشاهده نشده‌ی را بر اساس مشاهدات تخمین بزنیم. فرض کنید توزیع نمونه گیری باشد، پس احتمال وقتی که پارامتر جمعیت باشد، است. تابع زیر به تابع درست‌نمایی معروف است:

و تخمین زیر، برآورد حداکثر درست نمایی است:

حال فرض کنید توزیع پیشین روی وجود داشته باشد. این کار به ما اجازه می دهد تا با به عنوان یک متغیر تصادفی رفتار کنیم. محاسبه‌ی توزیع پسین با استفاده از قانون بیز به صورت زیر است:

تابع چگالی و دامنه‌ی است.

روش برآوردگر بیشینه‌گر احتمال پسین به صورت زیر است:

مخرج کسر بالا همواره مثبت است و نیز وابسته به نیست، در نتیجه نقشی در بهینه سازی تابع ندارد. وقتی تابعی ثابت باشد آن گاه برآوردگر بیشینه‌گر احتمال پسین همانند برآوردگر بیشینه درست نمایی عمل میکند.

هر وقت تابع هزینه به شکل زیر باشد:

و به عدد 0 نزدیک شود، برآوردگر بیزی به برآوردگر بیشینه‌گر احتمال پسین نزدیکتر میشود(با فرض اینکه توزیع شبه مقعر باشد). ولی به صورت کلی برآوردگر بیشینه‌گر احتمال پسین یک برآوردگر بیزی نیست مگر آنکه گسسته باشد.

محاسبه

[ویرایش]

محاسبه:

برآوردگر بیشینه‌گر احتمال پسین به چندین روش می‌تواند محاسبه شود:

  1. تحلیلی، زمانی که مد(های) توزیع پسین به شکل عبارت فرم بسته باشد. این مورد زمانی است که توزیع مزدوج پیشین استفاده میشود.
  2. به وسیله‌ی بهینه سازی عددی، مانند روش گرادیان مزدوج یا روش نیوتون. این روش معمولا نیازمند مشتقات اول و دوم است.
  3. به وسیله تغییر دادن الگوریتم امید ریاضی بیشینه کردن. در این روش نیازی به محاسبه مشتقات چگالی پسین نیست.
  4. به روش مونت‌کارلو و با استفاده از الگوریتم تبرید شبیه‌سازی‌شده.

محدودیت‌ها

[ویرایش]
یک مثال از چگالی یک توزیع دوبعدی که در آن بالاترین مد توصیف‌گر اکثریت توزیع نیست

در حالی که فقط شرایط خفیف برای برآوردگر بیشینه‌گر احتمال پسین نیاز است تا نمونه‌ی حدی یک تخمین‌گر بیزی باشد(تحت تابع هزینه‌ی 1-0)، ولی عموما نمایانگر روش‌های بیزی نیست. آن به این دلیل است که برآوردگرهای بیشینه‌گر احتمال پسین، تخمین‌گر نقطه هستند در حالی که روش‌های بیزی از توزیع‌ها برای خلاصه‌سازی داده و نتیجه‌گیری استفاده می‌کنند. از این رو روش‌های بیزی برای گزارش پسین میانگین یا میانه(در کنار بازه‌های مورد قبول) معتبر هستند، زیرا این تخمین‌گرها به‌ترتیب تحت خطای مربعات و خطای خطی بهینه هستند و همچنین توزیع پسین ممکن است توزیع آنالیزی ساده‌ای نداشته باشد(در چنین شرایطی توزیع با استفاده از زنجیره مارکوف مونت‌کارلو می‌تواند شبیه‌سازی شود در حالی که بهینه‌سازی برای پیدا کردن مدهایش ممکن است سخت یا ناممکن باشد).


در بسیاری از انواع مدل‌ها همانند مدل‌های مخلوط، پسین ممکن است چند-مُدال باشد. در این شرایط توصیه آن است که بیشترین مد انتخاب شود که همواره امکان پذیر نیست و گاهی احتمال دارد ناممکن باشد. علاوه‌بر این‌ها بیشترین مد ممکن است بیانگر ویژگی‌های اغلب پسین‌ها نباشد.


برخلاف برآوردگرهای درست‌نمایی بیشینه، برآوردگرهای بیشینه‌گر احتمال پسین هنگام دوباره‌سازی پارامترها ثابت نیستند. زیرا تغییر از یکی به دیگری ژاکوبین جدیدی را ایجاد می‌کند که روی مکان بیشینه اثر می‌گذارد.


فرض کنید می‌خواهیم ورودی‌های را مثبت یا منفی طبقه‌بندی کنیم. سه فرضیه ممکن ،و درباره‌ی روش صحیح دسته‌بندی به ترتیب با پسین‌های 0.4، 0.3 و 0.3 وجود دارد. فرض کنید برای نمونه‌ی جدید ، سه دسته‌بندی کننده‌ی ذکر شده به‌ترتیب را مثبت، منفی و منفی دسته‌بندی می‌کند. با استفاده از برآوردگر بیشینه‌گر احتمال پسین برای دسته‌بندی کننده‌ی مثبت و با استفاده از تخمین‌گر بیزی روی همه‌ی فرضیه‌ها، منفی دسته‌بندی می‌شود.

مثال

[ویرایش]

فرض کنید دنباله ای از متغیرهای تصادفی مستقل با توزیع یکسان و توزیع پسین باشد. میخواهیم برآوردگر بیشینه‌گر احتمال پسین را پیدا کنیم.

تابعی که میخواهیم بیشینه کنیم به صورت زیر است:

که هم ارز است با کمینه کردن تابع زیر از :

در نهایت برآوردگر بیشینه‌گر احتمال پسین برای به شکل زیر در می‌آید:

که یک رابطه‌ی خطی وزن دار بین میانگین پیشین و میانگین نمونه است.

وقتی به بینهایت میل کند اصطلاحا به این، پیشین غیر آموزنده گفته میشود. در این حالت .

منابع

[ویرایش]

Wikipedia contributors, "Maximum a posteriori estimation," Wikipedia, The Free Encyclopedia, (accessed December 21, 2012).