ویژگیهای بارز الگوریتم دستهبندی عبارتاند از:
پیشبینی آنی (Real-time prediction):به خاطر پیادهسازی ساده و محاسبات سریع آن میتوان از آن برای پیشبینیهای آنی استفاده کرد.
پیشبینی چند کلاسی (Multi-class prediction):از الگوریتم طبقهبندی Naive Bayes میتوان برای پیشبینی احتمال خلفی کلاسهای متعدد متغیر هدف استفاده کرد.
طبقهبندی متن ردهبندی: با نگاهی دوباره به ویژگی پیشبینی چند کلاسی میتوان دریافت که الگوریتمهای طبقهبندی Naive Bayes بسیار مناسب طبقهبندی متن هستند. به همین دلیل میتوان از آنها برای حل مسائلی مانند spam-filtering و تحلیل احساسات استفاده کرد.
سیستم پیشنهاد (Recommendation) دستگاه: علاوه بر الگوریتمهایی مانند پالایه کردن مشارکتی collaborative filtering)، (Naive Bayes یک سیستم پیشنهادی ایجاد میکند که میتوان از آن برای فیلتر کردن اطلاعات غیرقابلدیدن و پیشبینی اینکه آیا یک کاربر منبع دادهشده را دوست دارد یا خیر استفاده کرد.
مقدمهای بر الگوریتم دستهبندی بیز سادهNaive Bayes :
الگوریتم دستهبندی بیز ساده Naive Bayes: عدم اطمینان و احتمال در پدیدههای مختلف منجر به این شده که یادگیری ماشین در هوش مصنوعی باید با دادههایی کار کند که در بسیاری از موارد بزرگ است اما با در نظر گرفتن دادههای ازدسترفته و مدیریت اینگونه دادهها خواهد بود. دقیقاً مانند انسانها، کامپیوتر نیز باید ریسک کند و به آیندهای که قطعی نیست فکر کند.
تحمل عدم اطمینان برای انسان سخت است؛ اما در یادگیری ماشین الگوریتمهای خاصی وجود دارد که کمک میکند تا راهحل این محدودیت پیدا شود. الگوریتم یادگیری ماشین دستهبندی بیز ساده یا Naive Bayes یکی از ابزارهای مقابله با عدم اطمینان با کمک روشهای احتمالی است. احتمال زمینهای از ریاضیات است که را قادر میسازد تا بتوانی باوجود عدم قطعیت استدلال کرد و احتمال برخی نتایج یا رویدادها را ارزیابی نمود.
تئوری بیز در یادگیری ماشین
تئوری بیز در یادگیری ماشین: اینیک روش طبقهبندی بر اساس قضیه بیز با فرض استقلال در بین پیشبینی کنندهها است. به زبان ساده یک طبقهبند Naive Bayes فرض میکند که وجود یک ویژگی خاص در یک کلاس باوجود ویژگی دیگر ارتباطی ندارد. ساخت مدل دستهبندی بیز ساده Naive Bayes آسان است و برای مجموعه دادههای بسیار بزرگ مفید است. همراه با سادگی ثابتشده که این الگوریتم حتی از روشهای طبقهبندی بسیار پیچیده نیز پیشی میگیرد.
ویژگیهای naive bayes
ویژگیهای تئوری بیز الگوریتم دستهبندی بیز ساده Naive Bayes از دو کلمه Naive و Bayes تشکیلشده است که میتواند بهصورت زیر توصیف شود: به آن Naive میگویند زیرا فرض میکند که وقوع یک ویژگی خاص مستقل از وقوع سایر ویژگیها باشد. بیز به آن Bayes گفته میشود زیرابه اصل قضیه بیز بستگی دارد.
عدم اطمینان در مدلسازی یادگیری ماشین جداییناپذیر است زیرا زندگی پیچیده است و هیچچیز کامل نیست. سه منبع اصلی عدم اطمینان در یادگیری ماشین، دادههای پر از نویز، داده ناقص مسئله و مدلهای ناقص است.
محاسبه احتمال در یادگیری ماشین به احتمالات مشروط معروف است. قضیه بیز احتمال رخ دادن یک پیشامد را هنگامیکه پیشامد دیگر اتفاق افتاده است به دست میآورد. در اینجاB شواهد و A فرضیه است. بهاحتمال کلی وقوع چیزی را میتوان حدس زد اما با توجه به اینکه اتفاق دیگری میافتد احتمال وقوع آن تحت تأثیر دیگر مسائل قرار میگیرد. احتمال شرطی بهاینترتیب تعریف میشود: احتمال وقوع Aاحتمال مشترک اتفاق افتادن A و Bتقسیمبر احتمال B.
باکمی دستکاری در معادله احتمال شرطی میتوان به یک معادله دیگر رسید که بیشتر بهعنوان قضیه بیز شناخته میشود. بیز ساده را میتوان یک مدل متنی بر احتمال شرطی در نظر گرفت.
فرض کنید:
برداری از ویژگی را بیان کند که بهصورت متغیرهای مستقل هستند. بهاینترتیب میتوان احتمال به صورت زیر در نظر گرفت (احتمال رخداد به ازایهای مختلف):
قضیه بیز را بر اساس احتمالات پیشامدهای پیشی (Prior)، پسین (Posterior)، «درست نمایی (Likelihood) و شواهد (Evidence) بهصورت زیر میتوان نشانداد:
احتمال پیشین A است (احتمال پیشین، یعنی احتمال وقوع یک پیشامد قبل از مشاهده شواهد). شواهد (evidence) ارزش ویژگی یک نمونه ناشناخته است در اینجا این رخ داد B است. احتمال پسین B است که به معنی احتمال وقوع حادثه پس از مشاهده شواهد(evidence) است.