ParsX.com
پذیرش پروژه از دانشجویی ... تا سازمانی 09376225339
 
   ProfileProfile   Log in to check your private messagesLog in to check your private messages  |  FAQFAQ   SearchSearch   MemberlistMemberlist   UsergroupsUsergroups Log inLog in   RegisterRegister 

فصل 7 میچل Computational Learning Theory

 
Post new topic   Reply to topic    ParsX.com Forum Index -> بازشناسی اماری الگو
View previous topic :: View next topic  
Author Message
vahid
بي تو هرگز


Joined: 26 Nov 2004
Posts: 3024
Location: Tehran

PostPosted: Tue Mar 17, 2020 9:24 pm    Post subject: فصل 7 میچل Computational Learning Theory Reply with quote

مقدمه
Probably learning an approximately correct hypothesis.
Back to top
vahid
بي تو هرگز


Joined: 26 Nov 2004
Posts: 3024
Location: Tehran

PostPosted: Fri Jul 31, 2020 7:18 pm    Post subject: Reply with quote

در کنکور دکتری 99 سه سوال در مورد VC آمده . در کنکور سال 98 هم سوال اخر دوباره در مورد ابعاد VC بود. سر جلسه خیلی شاکی بودم از خودم که چرا جواب تست رو پیدا نکردم
سرچ کردم
متوجه شدم در جزوه دکتر بیگی این امده
بعد متوجه شدم که بله کلا ظاهرا طراح سوال ایشان هستند چون جزوه یادگیری ماشین ایشان را که بخوانی میتونی متوجه بشی بازهم سایر سوالات از جزوه ایشان هست.
من فکر می کردم این مسخره است که میگن جزوه یه استاد رو بخونی ولی واقعا امروز به این حرف رسیدم نه نیازی هست کتاب گردن کلفت بی شاپ رو بخونی نه میچل فقط قسمت 7.4 میچل رو بخونی که در جزوه دکتر بیگی هم به قدر کافی توضیح داره امده میتونی سه تا تست رو بزنی
جزوه رو می تونی از سایت مانشت دانلود کنی.
جزوه یادگیری ماشین به نظرم از شناسایی الگوش بیشتر سوال در کنکور امده بود
Back to top
vahid
بي تو هرگز


Joined: 26 Nov 2004
Posts: 3024
Location: Tehran

PostPosted: Fri Jul 31, 2020 7:35 pm    Post subject: Reply with quote

7.4 Sample Complexity For Infinite Hypothesis Spaces

در یادگیری به روش PAC ثابت کردیم که وقتی لگاریتم سایز فضای نمونه رشد می کند قاعدتا پیچیدگی هم بیشتر می شود.
از صفحه ۲۲۶ می رویم به قسمت ۷.۲ برای یادآوری Arrow

1.Sample complexity for PAC learning grows as the logarithm of the size of the hypothesis space
[code]
There are 2 drawbacks to characterizing sample complexity in terms of |H|
First: it can lead to quire weak bounds
Second:In the case of infinite bypothesis spaces we cannot apply equation |H| at all[/code]
Vapnik-Chervonenkis dimension: A second measure of the complexity of H
The sample complexity bounds based on VC(H) will be tighter than those from |H|


Last edited by vahid on Wed Sep 16, 2020 8:20 am; edited 4 times in total
Back to top
vahid
بي تو هرگز


Joined: 26 Nov 2004
Posts: 3024
Location: Tehran

PostPosted: Sat Aug 01, 2020 6:20 am    Post subject: Reply with quote

7.3 Sample Complexity For Finite Hypothesis Spaces


میزان یادگیری بر اساسPAC به تعداد نمونه های آموزشی لازم توسط یادگیرنده بستگی دارد.
رشد تعداد نمونه های آموزشی با توجه به سایز مساله را گوییم sample complexity مساله یادگیری. که مشخصه ایست با بیشترین مزایا. علت این است که در بیشتر کاربردهای واقعی فاکتوری که بیشترین محدودیت را در موفقیت یادگیرنده ایجاد می کند محدود بودن تعداد داده های آموزشی می باشد.
(در بالا دارد در مورد sample complexity پیچیدگی نمونه با توجه به عنوان قسمت ۷.۳ , 7.4 صحبت می کند Arrow )

consistent learners:
در اینجا در مورد یک محدودیت عمومی در مورد پیچیدگی نمونه برای طیف وسیعی از یادگیرنده ها صحبت می کنیم که بهش می گن consistent learners
یادگیرنده ای را استوار consistent گوییم اگر فرضیه ای را بعنوان خروجی بدهد که هرموقع که بتواند کاملا با داده های آموزشی فیت باشد .البته این خواسته معقولیست که از یک الگوریتم یادگیری توقع داشته باشیم که استوار باشد. چون ما فرضیه ای را ترجیح می دهیم که داده های آموزشی را پوشش دهد تا فرضیه ای که این کار را نکند. تمام الگوریتم های فصل ۲ از این نوع می باشند consistent learners Exclamation
آیا میتوانیم قیدی روی تعداد داده های آموزشی لازم برای هر یادگیرنده استوار بگذاریم؟مستقل از الگوریتمی که استفاده می کند تا فرضیه استواری را خروجی دهد؟ جواب بله! برای این کار باید Version Space فصل ۲ را بیاد بیاوریم.
از صفحه ۲۱۹ می رویم فصل ۲ ببینیم ورژن اسپیس چی بود Arrow

آیا می توانیم یک محدوده ای روی تعداد نمونه های آموزشی لازم برای هر یادگیرنده پایدار داشته باشیم؟ مستقل از الگوریتمی که استفاده کرده تا فضای پایدار را ایجاد کند.
جواب بله.

اهمیت version space در اینجا این است که هر یادگیرنده پایدار یک فضایی را خروجی می دهد که به فضای نسخه تعلق دارد صرفنظر از فضای نمونه X فضای فرضیه H یا داده اموزشی D . علت این استکه با تعریف VS hd شامل هر فرضیه پایدار در H می باشد. بنابراین برای محدود کردن تعداد نمونه های لازم توسط هر یادگیرنده پایدارکافیست تعداد نمونه های لازم را محدود کنیم طوری که اطمینان حاصل کنیم فضای نسخه شامل هیچ فرضیه غیرقابل قبولی unaccpetable hypothesis نباشد.
Back to top
vahid
بي تو هرگز


Joined: 26 Nov 2004
Posts: 3024
Location: Tehran

PostPosted: Wed Sep 16, 2020 9:12 am    Post subject: 7.4.1 Shattering a set of instances Reply with quote

بعدVC پیچیدگی فضای فرضیهH را با شمردن تعداد فرضیه های متمایز |H| نمی سنجد بلکه جای آن براساس تعداد نمونه های متمایز از X که می تواند توسط H کاملا متمایز شود می سنجد.
Back to top
Display posts from previous:   
Post new topic   Reply to topic    ParsX.com Forum Index -> بازشناسی اماری الگو All times are GMT + 3.5 Hours
Page 1 of 1

 
Jump to:  
You cannot post new topics in this forum
You cannot reply to topics in this forum
You cannot edit your posts in this forum
You cannot delete your posts in this forum
You cannot vote in polls in this forum