پنج شنبه 23 مرداد 1399 | Thursday 13 th of August 2020 صفحه اصلی گروه الکترونیکی کامپیوتر
3-2-2-1-2 تئوری Bayes و بیشترین احتمال

یک مشکل رایج در یادگیری ماشین ، تعیین بهترین فرضیه h  ازتعدادی فضای Hبر روی داده مشاهده شده Dاست .بهترین فرضیه به عنوان محتمل ترین فرضیه تعریف می شود .بهترین فرضیه به عنوان محتمل ترین فرضیه بر روی داده داده شده Dو دانش قبلی تعریف می شود یا به طور دقیق تر فرضیه ای که  محتمل ترین دسته بندی را با استفاده از داده Dو هرگونه اطلاعات قبلی درباره احتمال فرضیه های مختلف درH، بسازد .

تئوری Bayesیک راه برای محاسبه چنین احتمالی فراهم می کند . تئوری Bayesبه این شکل است:

جایی که P(h)، احتمال اولیه ای است که hنگه می دارد ، قبل از اینکه ما داده را مشاهده کنیم (احتمال پیشین h) . ممکن است هرگونه دانش پیش زمینه ای را راجع به h  منعکس کند .     P(D)احتمال قبلی را نشان می دهد که داده D  مشاهده خواهد شد. P (D|h)احتمال مشاهده داده Dداده شده را که فرضیه hنگه میدارد  نشان می دهد.P(h|D)احتمالی را تعیین می کند که h  داده Dمشاهده شده را نگه می دارد  –واین کیفیتی است که ما به دنبالش بودیم. .P(h|D)احتمال پسین hنیز نامیده می شود.

در بسیاری از کاربردهای یادگیری ، هدف ، پیدا کردن محتمل ترین فرضیه hÎHبر روی داده مشاهده شده Dاست .این فرضیه ، فرضیه MAPنامیده می شود و به ای صورت تعریف می شود .

عبارت P(D)در مرحله اخر بدلیل اینکه یک ثابت مستقل hاست ، رها می شود . اگر فرض کنیم که هر فرضیه ای در H  ، به همان اندازه احتمال پیشین باشد ، سپس ما می توانیم معادله را ساده کنیم وفقط عبارت P (D|h)  را ماکزیمم کنیم . این عبارت احتمال داده D  ملقب به h  نامیده
 می شود.

فرضیه hکه P (D|h)  را ماکزیمم می کند ، فرضیه بیشترین همانندی (ML)یا hMLنامیده
 می شود .سپس زمانی که همه
hiها به همان اندازه احتمال پیشین هستند ، hMLبه این شکل تعریف می شود :

Compatability by:
آخرین به روز رسانی سایت: سه شنبه, 22 اسفند 1391 - 00:26