ParsX.com
پذیرش پروژه از دانشجویی ... تا سازمانی 09376225339
 
   ProfileProfile   Log in to check your private messagesLog in to check your private messages  |  FAQFAQ   SearchSearch   MemberlistMemberlist   UsergroupsUsergroups Log inLog in   RegisterRegister 

فصل ۲ میچل Concept Learning and The General To Specific Ord

 
Post new topic   Reply to topic    ParsX.com Forum Index -> بازشناسی اماری الگو
View previous topic :: View next topic  
Author Message
vahid
بي تو هرگز


Joined: 26 Nov 2004
Posts: 3005
Location: Tehran

PostPosted: Sat Aug 01, 2020 6:59 am    Post subject: فصل ۲ میچل Concept Learning and The General To Specific Ord Reply with quote

2.5 Version Spaces and the Candidate Elimination algorithm

یک دیدگاه ثانویه به یادگیری مفهومیconcept learning خواهیم داشت .الگوریتم حذف کاندیداCandidate-Elimination که به محدودیت های Find-S اشاره می کند. توجه کنید که اگرچه Find-S فرضیه H را بعنوان خروجی ایستا با داده های آموزشی می دهد اما فقط یکی از چند فرضیه H می باشد که ممکن است داده های آموزشی را به خوبی پوشش دهد. ایده کلیدی در الگوریتم حذف کاندیدا خروجی داده یک مجموعه کامل از تمام فرضیه های ایستاhypothesis consistent با داده های آموزشی می باشد. با کمال تعجب الگوریتم حذف کاندیدا این مجموعه را بدون شمارش تمام اعضایش محاسبه می کند. این مهم با استفاده از مرتب سازی قسمتی partial ordering برای نگهداری از یک نمایش پیچیده از مجموعه فرضیه ایستا و پالایش افزایشی این نمایش با ورود هر داده اموزشی ورودی انجام می شود.
الگوریتم حذف کاندیدا در مسایلی مثل یادگیری قوانین در طیفشناسی جرمی شیمی و یادگیری قوانین کنترلی برای جستجوهای ابتکاری heuristic استفاده می شود. با این اوصاف کاربرد عملی الگوریتم های Find-S و حذف کاندیدا محدود بوده و در حقیقت هردوی اینها ضعیف اجرا می شوند وقتی داده آموزشی نویز داری به آنها وارد کنید. اهمیت بیشتر برای هدف ما در اینجا این است که الگوریتم حذف کاندیدا یک چارچوب مفهومی مفید برای معرفی چند مساله یادگیری ماشین می دهد. در فصلهای بعدی الگوریتم هایی که در برابر داده های آموزشی نویزدار به مراتب بیشتر استفاده می شوند را معرفی خواهیم کرد.
Back to top
vahid
بي تو هرگز


Joined: 26 Nov 2004
Posts: 3005
Location: Tehran

PostPosted: Sat Aug 01, 2020 8:36 am    Post subject: 2.5.1 Representation Reply with quote

الگوریتم حذف کاندیدا تمام فرضیه های قابل توضیح که ایستا باشند با داده های آموزشی مشاهده شده رامی دهد. برای مشخص کردن این الگوریتم بصورت دقیق باید با چند معرفی ابتدایی شروع کنیم. اول اجازه دهید بگوییم فرضیه ای ایستا consistent با نمونه های اموزشی می باشد که به درستی این نمونه ها را دسته بندی کند :
تعریف: یک فرضیه h ایستا با یک مجموعه نمونه آموزشی D اگر و فقط اگر h(x)=c(x) برای هر نمونه (x,c(x))در D .

توجه کنید که تفاوتی بین تعریف consistent و تعریف قبلی satisfies می باشد. یک نمونه x فرضیه h را satisfy می کند وقتی h(x)=1 شود بدون در نظر گرفتن اینکه x نمونه مثبت یا منفی از مفهوم هدف است. به هر حال نمونه ای را ایستا می گوییم که بسته به مفهوم هدف مشخصا h(x)=c(x) شود .
Idea یعنی satisfy خروجی ۱ می دهد ولی consistent عینا همان خروجی را باید بدهد.

الگوریتم حذف کاندیدا یک مجموعه از تمام فرضیه های ایستا را توسط نمونه های آموزشی مشاهده شده ارایه می دهد . این مجموعه از تمام فرضیه ها را گوییم version space با در نظر گرفتن فضای فرضیه H و نمونه های آموزشی D چون تمام نسخه های محتمل از مفهوم هدف شامل می شود.

تعریف version space :
فضای نسخه نشان داده می شود با VS h,d با در نظر گرفتن فضای فرضیه H و نمونه های آموزشی D زیرمجموعه ای از فرضیه های H که استوار با داده های آموزشی D می باشد.


2.5 The List-Then-Elimination

مقدار دهی اولیه به این صورت که اول لیست تمام فرضیه های H را در فضای نسخه می اورد . سپس شروع به حذف فرضیه های می کند که با هر نمونه اموزشی ناسازگار باشد.
فضای نسخه فرضیه های کاندیدا با دیدن هر نمونه اموزشی کوچکتر می شود. تا زمانی که بصورت ایده ال فقط یک فرضیه باقی بماند که سازگار باشد با نمونه های مشاهده شده . اگر هم داده کافی جهت کوچک کردن این فضای فرضیه برای پیدا کردن یک فرضیه نداشته باشیم الگوریتم تمام مجموعه فرضیه هایی که سازگار با داده های مشاهده شده باشد را نمایش می دهد.
در اصل این الگوریتم در فضای فرضیه H که محدود باشد عمل می کند. خیلی مزایا دارد شامل این حقیق که گارانتی می کند تمام فرضیه های سازگار با داده اموزشی را خروجی می دهد. متاسفانه بطور طاقت فرسایی باید تمام فرضیه های H را بشمارد .

2.5.3 A More Compact Representation for Version Spaces

الگوریتم حذف کاندیدا براساس همان الگوریتم لیست و حذف کار می کند. اما نمایش فشرده تری در فضای نسخه دارد. فضای نسخه بر اساس عمومی ترین تا خاصترین عضو نمایش داده می شود. این اعضا فرم ژنرال و خاص محدوده فضای نسخه را در فضای فرضیه مشخص می کند.
با داشتن دو فرضیه SوG بعنوان خاص ترین و عمومی ترین می توان اعضای فضای نسخه را همانطور که نیاز است در این محدوده تولید کرد
پس فضای نسخه بین Sو G است.
پس وقتی G و S مشخص شدند فضای نسخه هم مشخص است.

2.5.4 Candidate-Elimiation Learning Algorithm

الگوریتم حذف کاندیدا فضای نسخه را که سازگار با نمونه های اموزشی مشاهده باشند محاسبه میکند. به این صورت عمل می کند که عمومی ترین فرضیه در H را به G0 می دهد{؟ ؟ ؟ ؟ ؟ ؟ } و مقدار دهی اولیه S به {0 0 0 0 0 0} بعنوان خاص ترین فرضیه
این دو مجموعه کل فضای فرضیه را شامل می شود چون خاص تر از G0 و عمومی تر از S0 نداریم. با ورود هر نمونه اموزشی محدوده S , G خاص تر و عمومی تر می شود تا جایی که فضای نسخه محدود می شود که تمام نمونه ها پردازش شده و فضای نسخه محاسبه شده شامل تمام فرضیه های سازگار با نمونه ها می باشد.

2.5.5 An Illustrative Example

وقتی مثال اول که مثبت است وارد الگوریتم می شود الگوریتم خذف کاندیدا محدوده S را چک می کند متوجه می شود که خیلی خاص است و نمی تواند نمونه مثبت را پوشش دهد. بنابراین محدوده را طوری بازبینی می کند که حداقل فرضیه عمومی که نمونه جدید را پوشش دهد شکل گیرد. یعنی در واقع ۰ ۰ ۰ ۰ تبدیل می شود به همان نمونهه .
در این الگوریتم نمونه منفی را هم وارد می کنیم. تا محدوده G را طوری اموزش دهد که نمونه منفی را اشتباها در مجموعه اعلام نکند.
شکل ۲.۷ نتیجه را می دهد فضای نسخه محصول الگوریتم را می بینید. در این شکل فاصله بین s4 و G4 فضای نسخه است که از S4باید عمومی تر و از G4 باید خاص تر باشد.

2.6 Remarks on version spaces and Candidate-Elimination

فضای نمونه که با الگوریتم حذف کاندیدا یادگیری شده به فرضیه ای گرایش پیدا می کند که به درستی مفهوم هدف را تشریح کند :۱هیچ خطایی برای نمونه های آموزشی نیست. ۲فرضیه ای در H وجود دارد که به درستی مفهوم هدف را تشریح می کند. در واقع وقتی نمونه های اموزشی مشاهده می شوند. فضای فرضیه می تواند مانیتور شود که تشخیص دهد بدون ابهام تشخیض دهد مفهوم هدف را . مفهوم هدف وقتی محدوده S و G همگرا می شوند به یک فرضیه همسان و تنها .

چه اتفاقی حادث می شود اگر داده اموزشی خطا داشته باشد؟ فرض کنید برای مثال دومین نمونه اموزشی مثال این فصل به اشتباه نمونه منفی باشد . متاسفانه در این مورد الگوریتم مفهوم هدف را از فضای نسخه حذف می کند چون هر فضیه ناسازگار با نمونه اموزشی را حذف می کند مفهوم هدف درست را از فضای نسخه بزودی حذف می کند تا این نمونه اشتباه را شامل شود. مطمعنا با ارایه نمونه های اموزشی بیشتر به یادگیرینده در نهایت ناسازگاری مفروض شناسایی شده و محدوده S و G به فضای نمونه خالی میل پیدا میکند. یک چنین فضای نسخه فرض می کند که فرضیه ای H سازگار با تمام نمونه های اموزشی وجود ندارد. نشانه مشابه زمانی مشاهده می شود که نمونه های اموزشی صحیح باشند اما مفهوم هدف توسط نمایش فرضیه قابل بیان نباشد. اگر مفهوم هدف


بطور کلی استراتژی بهینه برای یک یادگیرنده مفهوم تولید نمونه هایی است کهدقیقا صدق کند نصف فرضیه ها در فضای نمونه فعلی . با این روش وقتی یک نمونه جدید وارد می شود مفهوم هدف نصف می شود و مفهووم هدف صحیح می تواند باسقف log2lvsl نمونه ها . این موقعیت شبیه بازی بیست سوالی است که در ان هدف مشخص کردن فرضیه صحیح با یک سری سوال بله خیر می باشد. با هر سوال فضای کاندیدا محدود تر می شود. در بعضی موراد تعداد سوالات بیشتری از سقف loglvsl استفاده می شود.

2.6.3 How can partially learned concepts be user?


خوب اگر به مثال قبلی نمونه ای وارد کنیم که در فضای نمونه ما که شش حالت داشت در بعضی جواب مثبت می دهد در بعضی جواب منفی می دهد . یه راه حل اینه که رای گیری کنیم یعنی چون چهار فرضیه جواب مثبت دادند ان را در کلاس مثبت در نظر بگیریم. در این رابطه در فصل ۶ صحبت خواهیم کرد.


Last edited by vahid on Wed Aug 05, 2020 11:28 am; edited 7 times in total
Back to top
vahid
بي تو هرگز


Joined: 26 Nov 2004
Posts: 3005
Location: Tehran

PostPosted: Sun Aug 02, 2020 8:39 am    Post subject: Introduction Reply with quote

استنتاج یک تابع کلی از نمونه های اموزشی مشخص یک مساله اصلی در یادگیری است. Rolling Eyes
Concept Learning :
استنتتاج یک تابع دومقداری بولی از نمونه های آموزشی (شامل ورودی و خروجی) .
Idea
مثلا تابعی روی حیوانات که مشخص می کند پرنده است یا خیر. پرنده باشد خروجی صحیح درغیر اینصورت خروجی غلط می دهد. به این میگن تابع مفهوم.
مفهوم روی ورودی یک برچسب می زند که متعلق به من هست یا خیر. به این میگن یادگیری مفهوم Concept Learning .
Back to top
vahid
بي تو هرگز


Joined: 26 Nov 2004
Posts: 3005
Location: Tehran

PostPosted: Sun Aug 02, 2020 9:13 am    Post subject: 2.2 A Concept Learning Task Reply with quote

یادگیری مفهوم هدف : روزهایی که در آن دوستم آلدو از ورزش آبی لذت می برد. خروجی EnjoySport را بایدپیش بینی کند.
هر فرضیه یک بردار است با شش محدودیت(خصیصه)

انواع محدودیت:
؟ یعنی هر مقداری قابل قبول است.
0 یعنی هیچ مقداری قابل قبول نیست.
مقداری مشخص.

اگر نمونه ای مانند x تمام محدودیت های اعمال شده در یک فرضیه را ارضا کند می گوییم h(x)=1 .

عمومی ترین فرضیه چیست؟ فرضیه ای که تمام خصایص را ؟ بگذارد یعنی هر مقداری قابل قبول استSad?,?,?,?,?,?)
محدودترین فرضیه کدام است؟ (0,0,0,0,0,0) کلا خروجی نه می دهد.
یادگیری مفهوم روزهایی را باید یادگیرد که خروجی EnjoySport=yes شود.

بطور کلی هر یادگیری مفهوم توسط مجموعه نمونه ها روی تابع هدف - تابع هدف - مجموعه فرضیه های کاندیدا که توسط یادگیرنده در نظر گرفته شده است و مجموعه نمونه های اموزشی.

مجموعه ایتم هایی که روی آن مفهوم مشخص می شود را گوییم مجموعه نمونه ها با Xنمایش می دهیم
مفهوم یا تابعی که باید یادگرفته شود را گوییم مفهوم هدف target concept .

نمونه هایی که در آن c(x)=1 باشد را می گوییم نمونه های مثبت یا اعضای مفهوم هدف و
نمونه هایی که در آن c(x)=0 باشد را می گوییم نمونه های منفی یا غیرعضوهای مفهوم هدف.

مساله یادگیرنده در مقابل مجموعه نمونه های آموزشی با مفهوم هدف c درست کردن فرضیه و تخمین c می باشد.
علامت H مجموعه تمام فرضیه های ممکن را نمایش می دهد که یادگیرنده ممکن است در نظر بگیرد با مفهوم هدف.
معمولا H توسط توسط فرد طراح مشخص می شود .
بطور کلی هر فرضیه hدر H یک مقدار بولی روی X نمایش می دهد.

هدف یادگیرنده پیداکردن فرضیه h به گونه ای میباشد که h(x)=c(x) برای همه x ها در X شود.

۲.۲.۲ فرضیه یادگیری استقرایی

توجه کنید که گرچه وظیفه یادگیری شناسایی فرضیه h بصورت منحصربفرد روی مفهوم هدف c بر روی مجموعه تمام نمونه های X می باشد. تنها اطلاعات اماده درباره c مقدارش روی نمونه های آموزشی می باشد. الگوریتم های یادگیری استقرایی بهترین گارانتی را می دهند که فرضیه خروجی فیت مفهوم هدف بر روی داده های اموزشی می باشد. بهترین فرضیه بهترین فرضیه ایست که فیت داده های اموزشی رویت شده باشد. این شالوده فرضیه یادگیری استقرایی است و

فرضیه یادگیری استقرایی:
هرفرضیه ای که برای تخمین تابع هدف پیدا شود و بخوبی روی نمونه های آموزشی باندازه کافی بزرگ کارکند و در اینده هم تخمین مناسبی از تابع هدف را روی نمونه هایی که هنوز مشاهده نشده می دهد.
Back to top
vahid
بي تو هرگز


Joined: 26 Nov 2004
Posts: 3005
Location: Tehran

PostPosted: Sun Aug 02, 2020 11:22 am    Post subject: 2.3 Concept Learning as search Reply with quote

یادگیری مفهومی را می توان بصورت وظیفه ای که در فضای بزرگی از فرضیه های ضمنی با نمایش فرضیه جستجو می کند مشخص کرد.
هدف این جستجو پیدا کردن فرضیه ایست که بهترین فیت را با نمونه های اموزشی داشته باشد.

فضای نمونه X شامل دقیقا ۹۶ نمونه منحصر می شود.
اگر اینها را بعلاوه دو کنیم(تهی و ؟) ۵۱۲۰ فرضیه منحصر نحوی در H خواهیم داشت. اما می دانیم که وجود تهی در هر نمونه خروجی را منفی می کند پس حذف می کنیم.
یعنی از همه یکی کم می شود. اون بعلاوه ۱ فکر کنم حالتی است که همه علامت سوال باشند.

اگر به یادگیری به عنوان یک مساله جستجو نگاه کنیم چه . طبیعیست که یادگیری الگوریتم یادگیری ما استراتژی های مختلفی برای جستجوی فضای فرضیه خواهد . خوب ما علاقه زیادی داریم جستجوی فضای فرضیه خیلی بزرگی یا فرضیه نامحدودی را جستجو کنیم تا بتوانیم فرضیه هایی را پیدا کنیم که بهترین فیت را به داده های اموزشی داشته باشند.
Back to top
vahid
بي تو هرگز


Joined: 26 Nov 2004
Posts: 3005
Location: Tehran

PostPosted: Mon Aug 03, 2020 6:30 am    Post subject: Reply with quote

معنی more general یعنی فرضیه ای که علامت سوالهای بیشتری دارد جنرال تر از فرضیه ایست که علامت سوال ندارد.
برای هر نمونه مانند x در X و فرضیه h در H می گوییم x satisfies h اگر و فقط اگر h(x)=1 .
یعنی در فرضیه صدق می کند. Cool
Back to top
vahid
بي تو هرگز


Joined: 26 Nov 2004
Posts: 3005
Location: Tehran

PostPosted: Mon Aug 03, 2020 1:10 pm    Post subject: 2.4 Find-S: Finding a maximally specific hypothesis Reply with quote

می گوییم یک فرضیه پوشش covers می دهد یک نمونه مثبت را به شرطی که به درستی آن را مثبت بشناسد . بعد از مرور مثال کتاب که خیلی خوب هم توضیح داده است .
الگوریتم Find-S :
گام اول:
مقداردهی اولیه h به خاصترین فرضیه(فرضیه ای که تمام مشخصه هایش تهی است (0,0,0,0,0,0)
(0,0,0,0,0,0)=h
گام بعدی:
خوب h الان مقدار صفر دارد یعنی خاصترین حالت با رویت اولین نمونه مقدار همان نمونه را می گیرد . ورودی بعدی را که وارد می کنیم نقاط غیر مشترک تبدیل ? می شوند.
با ورود نمونه سوم که از قضا خروجی منفی هم دارد الگوریتم هیچ واکنشی به این نمونه نمی دهد. چون در واقع کار درستی هم هست. باید این نمونه در کلاس منفی ها قرار بگیرد.
الگوریتم تمام نمونه های منفی را رد می کند.
یادتان باشد وقتی h شکل گرفت دیگر برای ورودی های منفی هیچ نسخه ای برای ویرایش روی ان نمی خورد. تابع مفهوم c هم در Hهست و باید با نمونه های اموزشی سازگار باشد c هم باید عمومی تر یا مساوی با h پیدا شده باشد. c هم مثل h نمونه های منفی را پوشش نمی دهد.
الگوریتم Find-S
جستجو را از خاص ترین حالت شروع و به عمومی ترین حالت ختم می کند.

این الگوریتم چندتا جای سوال دارد:
۱. آیا تضمینی هست که به مفهوم هدف رسیده باشد؟گرچه این الگوریتم یک فرضیه سازگار با داده اموزشی پیدا می کند اما راهی نیست که بفهمیم تنها فرضیه سازگار در H (مفهوم هدف) را پیدا کرده یا بازهم فرضیه های سازگار دیگری هستند. الگوریتمی را ترجیح می دهیم که حداقل یک میزان عدم قطعیتی در این زمینه به ما بدهد.
۲. چرا خاصترین فرضیه را پیدا می کند؟ شاید فرضیه عمومی تری هم وجود داشته باشد.
۳. ایا نمونه های اموزشی سازگار هستند؟ در اکثر یادگیری های کاربردی نمونه های اموزشی مقداری خطا و نویز دارند. این مجموعه ناسازگار از نمونه های اموزشی منجر به خطای جدی در Find-S می شود با توجه به این موضوع که نمونه های منفی را نادیده می گیرد. ما الگوریتیم را ترجیح می دهیم که اقلا تشخیص دهد که داده اموزشی ناسازگار هست و بهتر انکه با این خطاها سازگار باشند.
۴. چه میشود اگر چندین فرضیه سازگار مشخص وجود داشته باشد؟ در زبان فرضیه H در مثال بالا فقط یک فرضیه سازگار مشخص باهر نمونه مثبت وجود دارد. اما برای فضای فرضیه های دیگر ممکن است فرضیه های سازگار دیگری با داده وجود داشته باشد. در این مورد Find-s باید توسعه یابد تا اجازه دهد که برگشت به عقب برای انتخاب هایش داشته باشد تا بتواند فرضیه عمومی تری را انتخاب کندتاپوشش دهد امکان اینکه مفهوم هدف شاید در شاخه دیگری از مرتب سازی جزعی از این شاخه ای که انتخاب کرده است باشد. علاوه بر این میتوانیم مشخص کنیم فضاهای فرضیه ای که برای ان هیچ فرضیه مشخص سازگار بیشینه ای نباشد گرچه این مورد یک مورد تیوری بوده و کاربردی نیست.
Back to top
vahid
بي تو هرگز


Joined: 26 Nov 2004
Posts: 3005
Location: Tehran

PostPosted: Sun Aug 09, 2020 10:59 am    Post subject: 2.7 Inductive bias Reply with quote

همانطور که گفته شد الگوریتم حذف کاندیدا به سمت مفهوم هدف درست میل می کندبه شرطی که نمونه های اموزشی صحیح و فضای نمونه شامل مفهوم هدف باشد. اما اگر مفهوم هدف در فضای نمونه نباشد چه ؟‌ایا می توانیم از چنین مشکلی با فضای فرضیه شامل هر فرضیه ممکن/ جلوگیری کرد؟سایز چنین فضای نمونه ای چگونه توانایی الگوریتم برای عمومی کردن نمونه های مشاهده نشده را تحت تاثیر قرار می دهد. اینها سولاتبنیادی در مورد استنتاج استقرایی می باشد.

2.7.1 A Biased hypothesis space

فرض کنید می خواهیم مطمعن شویم که فضای فضیه شامل مفهوم هدفی است که نمی شناسیم . راه حل واضح غنی سازی فضای فرضیه به گونه ایستکه شامل هر فرضینه ممکن باشد. برای نمایش این فرض کنید دوباره نمونه enjoysport را که به فضای فرضیه محدود شده بود طوری که شامل حاصلضرب مقادیر خصیصه بود. بدلیل این محدودیت فضای فرضیه برای نمایش حتی مفهوم هدفی مثل sky=sunny نیز ناتوان بود.

2.7.2 An unbiased learner

راه حل واضح برای اطمینان از اینکه مفهوم هدف در فضای فرضیه H قرار دارد فراهم اوردن فضای فرضیه ای است کهنمایش می دهد هر مفهوم یادگیرنده را به این صورت که توانایی نمایش هر زیرمجموعه ممکن از نمونه های X را داشته باشد. بطور کلی مجموعه تمام زیرمجموعه های مجموعه X را گوییم power set of X.
مجموعه توانی: مجموعه ایست شامل تمام زیرمجموعه های اعضای داده شده.
در وظیفه یادگیری EnjoySport سایز فضای نمونه X با شش خصیصه می شود ۳.۲.۲.۲.۲=۹۶ . چه تعداد مفهوم در این مجموعه مشخص می شود؟ در کلامی دیرگ مجموعه توانی X چقدر است؟ بطور کلی تعداد زیر مجموعه های یک مجموعه x عضوی می شود دو به توان x . بنابراین در این مسال ۲ به توان ۹۶ مفهوم هدف یا ۱۰ به توان ۲۸ در فضای نمونه این مثال وجود دارد که باید یادگیرنده ما ان را یاد بگیرد. با یاداوری بخش ۲.۳ متوجه می شویم که فضای فرضیه ما تنها می تواند ۹۷۳ حالت را نمایش دهد 4.3.3.3.3+1=5120 فضای فرضیه .
فرض کنید مساله یادگیری EnjoySport یک روش نااریب unbiased با مشخص کردن یک فضای فرضیه H' باشد که می تواند نمایش دهد هر زیرمجموعه از نمونه ها را اگر این H' با مجموعه توانی x مرتبط باشد. یک روش برای مشخص کردن H' ترکیب عطفی و فصلی و نقیض فرضیه های قبلی با هم می باشد. برای نمونه مفهوم هدف Sky=sunny or sky=cloudy به شرح ذیل نمایش داده می شود:
<cloudy,?,?,?,?,?> ا+ا <sunny,?,?,?,?,?>
Idea
با فضای فرضیه داده شده میتوان از الگوریتم حذف کاندیدا بدون نگرانی در مورد اینکه مفهوم هدف نمی تواند قابل بیان باشد استفاده کنیم . باین حال زمانیکه این فضای فرضیه حذف می کند هر مساله قابله بیانی را متاسفانه مساله دیگری را مطرح می کند : الگوریتم یادگیری مفهوم
Back to top
Display posts from previous:   
Post new topic   Reply to topic    ParsX.com Forum Index -> بازشناسی اماری الگو All times are GMT + 3.5 Hours
Page 1 of 1

 
Jump to:  
You cannot post new topics in this forum
You cannot reply to topics in this forum
You cannot edit your posts in this forum
You cannot delete your posts in this forum
You cannot vote in polls in this forum