سه شنبه 23 مرداد 1397 | Tuesday 14 th of August 2018 صفحه اصلی گروه الکترونیکی کامپیوتر
3-3 روش کلاسه بندی نزدیکترین k- همسایه

     هنگام تلاش برای حل مسائل جدید، افراد معمولاً به راه­حل های مسائل مشابه که قبلاً حل شده­اند مراجعه می کنند. k- نزدیکترین همسایه[1] (k-NN)یک تکنیک کلاسه بندی است که از نسخه­ای از این متد استفاده می کند. در این روش تصمیم­گیری اینکه یک نمونه جدید در کدام کلاس قرار گیرد با بررسی تعدادی (k) از شبیه ترین نمونه ها یا همسایه­ها انجام می­شود. در بین این kنمونه، تعداد نمونه ها برای هر کلاس شمرده می شوند، و نمونه جدید به کلاسی که تعداد بیشتری از همسایه­ها به ان تعلق دارند نسبت داده می­شود. شکل 3-2 محدوده همسایگی نمونه Nرا نشان می دهد. در این محدوده، بیشتر همسایه ها در کلاسX  قرار گرفته اند.

شکل 3-2- محدوده همسایگی

شکل 3-2- محدوده همسایگی 

     اولین کار برای استفاده از k-NNیافتن معیاری برای شباهت یا فاصله بین صفات در داده­ها و محاسبه ان است. در حالی که این عمل برای داده­های عددی اسان است، متغیرهای دسته­ای نیاز به برخورد خاصی دارند. هنگامی که فاصله بین نمونه های مختلف را توانستیم اندازه گیریم، می­توانیم مجموعه نمونه هایی که قبلاً کلاسه­ بندی شده­اند را به عنوان پایه دسته­بندی نمونه های جدید استفاده کنیم.

     فاصله بین دو نمونه   با استفاده از فاصله اقلیدسی بصورت زیر محاسبه می شود :

(3-8)                                                  

     k-NNبار محاسباتی زیادی را روی کامپیوتر قرار می­دهد زیرا زمان محاسبه بصورت فاکتوریلی از تمام نقاط افزایش می­یابد. درحالی که بکاربردن درخت تصمیم یا شبکه عصبی برای یک نمونه جدید فرایند سریعی است، k-NNنیاز به محاسبه جدیدی برای هر نمونه جدید دارد. برای افزایش سرعت k-NNمعمولاً تمام داده­ها در حافظه نگه­داری می­شوند.

     فهم مدلهای k-NNهنگامی که تعداد متغیرهای پیش­بینی کننده کم است بسیار ساده است. انها همچنین برای ساخت مدلهایی مانند متن که شامل انواع داده غیر استاندارد هستند، بسیار مفیدند. تنها نیاز برای انواع داده جدید وجود یک معیار مناسب شباهت است.   

 



 

Compatability by:
آخرین به روز رسانی سایت: سه شنبه, 22 اسفند 1391 - 00:26