در کنکور دکتری 99 سه سوال در مورد VC آمده . در کنکور سال 98 هم سوال اخر دوباره در مورد ابعاد VC بود. سر جلسه خیلی شاکی بودم از خودم که چرا جواب تست رو پیدا نکردم
سرچ کردم
متوجه شدم در جزوه دکتر بیگی این امده
بعد متوجه شدم که بله کلا ظاهرا طراح سوال ایشان هستند چون جزوه یادگیری ماشین ایشان را که بخوانی میتونی متوجه بشی بازهم سایر سوالات از جزوه ایشان هست.
من فکر می کردم این مسخره است که میگن جزوه یه استاد رو بخونی ولی واقعا امروز به این حرف رسیدم نه نیازی هست کتاب گردن کلفت بی شاپ رو بخونی نه میچل فقط قسمت 7.4 میچل رو بخونی که در جزوه دکتر بیگی هم به قدر کافی توضیح داره امده میتونی سه تا تست رو بزنی
جزوه رو می تونی از سایت مانشت دانلود کنی.
جزوه یادگیری ماشین به نظرم از شناسایی الگوش بیشتر سوال در کنکور امده بود
7.4 Sample Complexity For Infinite Hypothesis Spaces
در یادگیری به روش PAC ثابت کردیم که وقتی لگاریتم سایز فضای نمونه رشد می کند قاعدتا پیچیدگی هم بیشتر می شود.
از صفحه ۲۲۶ می رویم به قسمت ۷.۲ برای یادآوری
1.Sample complexity for PAC learning grows as the logarithm of the size of the hypothesis space
[code]
There are 2 drawbacks to characterizing sample complexity in terms of |H|
First: it can lead to quire weak bounds
Second:In the case of infinite bypothesis spaces we cannot apply equation |H| at all[/code]
Vapnik-Chervonenkis dimension: A second measure of the complexity of H
The sample complexity bounds based on VC(H) will be tighter than those from |H|
Last edited by vahid on Wed Sep 16, 2020 8:20 am; edited 4 times in total
7.3 Sample Complexity For Finite Hypothesis Spaces
میزان یادگیری بر اساسPAC به تعداد نمونه های آموزشی لازم توسط یادگیرنده بستگی دارد.
رشد تعداد نمونه های آموزشی با توجه به سایز مساله را گوییم sample complexity مساله یادگیری. که مشخصه ایست با بیشترین مزایا. علت این است که در بیشتر کاربردهای واقعی فاکتوری که بیشترین محدودیت را در موفقیت یادگیرنده ایجاد می کند محدود بودن تعداد داده های آموزشی می باشد.
(در بالا دارد در مورد sample complexity پیچیدگی نمونه با توجه به عنوان قسمت ۷.۳ , 7.4 صحبت می کند )
consistent learners:
در اینجا در مورد یک محدودیت عمومی در مورد پیچیدگی نمونه برای طیف وسیعی از یادگیرنده ها صحبت می کنیم که بهش می گن consistent learners
یادگیرنده ای را استوار consistent گوییم اگر فرضیه ای را بعنوان خروجی بدهد که هرموقع که بتواند کاملا با داده های آموزشی فیت باشد .البته این خواسته معقولیست که از یک الگوریتم یادگیری توقع داشته باشیم که استوار باشد. چون ما فرضیه ای را ترجیح می دهیم که داده های آموزشی را پوشش دهد تا فرضیه ای که این کار را نکند. تمام الگوریتم های فصل ۲ از این نوع می باشند consistent learners
آیا میتوانیم قیدی روی تعداد داده های آموزشی لازم برای هر یادگیرنده استوار بگذاریم؟مستقل از الگوریتمی که استفاده می کند تا فرضیه استواری را خروجی دهد؟ جواب بله! برای این کار باید Version Space فصل ۲ را بیاد بیاوریم.
از صفحه ۲۱۹ می رویم فصل ۲ ببینیم ورژن اسپیس چی بود
آیا می توانیم یک محدوده ای روی تعداد نمونه های آموزشی لازم برای هر یادگیرنده پایدار داشته باشیم؟ مستقل از الگوریتمی که استفاده کرده تا فضای پایدار را ایجاد کند.
جواب بله.
اهمیت version space در اینجا این است که هر یادگیرنده پایدار یک فضایی را خروجی می دهد که به فضای نسخه تعلق دارد صرفنظر از فضای نمونه X فضای فرضیه H یا داده اموزشی D . علت این استکه با تعریف VS hd شامل هر فرضیه پایدار در H می باشد. بنابراین برای محدود کردن تعداد نمونه های لازم توسط هر یادگیرنده پایدارکافیست تعداد نمونه های لازم را محدود کنیم طوری که اطمینان حاصل کنیم فضای نسخه شامل هیچ فرضیه غیرقابل قبولی unaccpetable hypothesis نباشد.
Posted: Wed Sep 16, 2020 9:12 am Post subject: 7.4.1 Shattering a set of instances
بعدVC پیچیدگی فضای فرضیهH را با شمردن تعداد فرضیه های متمایز |H| نمی سنجد بلکه جای آن براساس تعداد نمونه های متمایز از X که می تواند توسط H کاملا متمایز شود می سنجد.
You cannot post new topics in this forum You cannot reply to topics in this forum You cannot edit your posts in this forum You cannot delete your posts in this forum You cannot vote in polls in this forum