تالار گفتمان مانشت
سوال یادگیری ماشین - نسخه‌ی قابل چاپ

سوال یادگیری ماشین - isoa - 07 مرداد ۱۳۹۹ ۱۰:۰۲ ق.ظ

سلام دوستان.وقتتون بخیر.چندتا سوال داشتم.ممنون میشم کمکم کنید
جملات زیر درستند یا نادرست چرا؟
الف "هنگامی که تعداد نمونه های آموزشی زیاد باشد تخمین map به تخمین ml همگرا میشود"
ب " اگر k نمونه وجود داشته باشد که نتواند توسط H شاتر شود انگاه (VC(Hکمتر از K است"
ج" اگر بعد VCیک فضای فرضیه D باشدهمه مجموعه های D نقطه توسط ان شاتر میشود"

همینطور ایا بردارهای ویژه یک ماتریس با معکوسش یکسان ؟هر خطی موازی بردار ویژه ماتریس موازی بردار ویژه معکوس آن است ؟

RE: سوال یادگیری ماشین - BBumir - 07 مرداد ۱۳۹۹ ۰۶:۲۰ ب.ظ

(۰۷ مرداد ۱۳۹۹ ۱۰:۰۲ ق.ظ)isoa نوشته شده توسط:  سلام دوستان.وقتتون بخیر.چندتا سوال داشتم.ممنون میشم کمکم کنید
جملات زیر درستند یا نادرست چرا؟
الف "هنگامی که تعداد نمونه های آموزشی زیاد باشد تخمین map به تخمین ml همگرا میشود"
ب " اگر k نمونه وجود داشته باشد که نتواند توسط H شاتر شود انگاه (VC(Hکمتر از K است"
ج" اگر بعد VCیک فضای فرضیه D باشدهمه مجموعه های D نقطه توسط ان شاتر میشود"

همینطور ایا بردارهای ویژه یک ماتریس با معکوسش یکسان ؟هر خطی موازی بردار ویژه ماتریس موازی بردار ویژه معکوس آن است ؟

سلام
الف) تقریبا درسته، تعداد مشاهده‌ها که زیاد بشه تاثیر احتمال پیشین کم می‌شه و MAP شبیه به MLE می‌شه. اما مثل اینکه همیشه این‌طور نیست
مهمان عزیز شما قادر به مشاهده پیوندهای انجمن مانشت نمی‌باشید. جهت مشاهده پیوندها ثبت نام کنید.
می‌شه بهش یه نگاه کرد.
ب) درسته، تعریف بُعد VC اینه که بیشترین تعداد نمونه‌ای که H بتونه به ازای همه حالت‌های برچسب زده شده فضا رو shatter کنه (البته به این معنیه که باید به ازای خود اون تعداد نمونه و نمونه‌های ‌کم‌تر بتونه shatter کنه). اگه تو [tex]k[/tex] نتونه حتما بعد VC پایین‌تره.
ج) درسته. تعریف بُعد VCیه.

مهمان عزیز شما قادر به مشاهده پیوندهای انجمن مانشت نمی‌باشید. جهت مشاهده پیوندها ثبت نام کنید.
درباره VC یه چیز مختصر و مفیده.

بردار ویژه یه ماتریس با بردار ویژه معکوسش برابره پس جفت عبارتا درسته. چراییش یکی جبرشه که می‌تونی اثباتشو پیدا کنی. یکی هم شهوده، بردار ویژه یک ماتریس برداریه که تحت اون تبدیل تغییر نکنه (جهتش تغییر نکنه). معکوس یه ماتریس یعنی تبدیلی که نقاط تبدیل شده رو بر می‌گردونه به خودشون. وقتی یه چیزی رفتش خودش شده (ممکنه فقط اندازش تغییر کرده باشه)، برگشت هم خودش می‌شه. پس یه برداری که با تبدیل معکوسش خودش شده. پس یعنی بردار ویژه یه ماتریس و معکوسش یکی هستن.

RE: سوال یادگیری ماشین - isoa - 07 مرداد ۱۳۹۹ ۰۷:۲۲ ب.ظ

(۰۷ مرداد ۱۳۹۹ ۰۶:۲۰ ب.ظ)BBumir نوشته شده توسط:  
(07 مرداد ۱۳۹۹ ۱۰:۰۲ ق.ظ)isoa نوشته شده توسط:  سلام دوستان.وقتتون بخیر.چندتا سوال داشتم.ممنون میشم کمکم کنید
جملات زیر درستند یا نادرست چرا؟
الف "هنگامی که تعداد نمونه های آموزشی زیاد باشد تخمین map به تخمین ml همگرا میشود"
ب " اگر k نمونه وجود داشته باشد که نتواند توسط H شاتر شود انگاه (VC(Hکمتر از K است"
ج" اگر بعد VCیک فضای فرضیه D باشدهمه مجموعه های D نقطه توسط ان شاتر میشود"

همینطور ایا بردارهای ویژه یک ماتریس با معکوسش یکسان ؟هر خطی موازی بردار ویژه ماتریس موازی بردار ویژه معکوس آن است ؟

سلام
الف) تقریبا درسته، تعداد مشاهده‌ها که زیاد بشه تاثیر احتمال پیشین کم می‌شه و MAP شبیه به MLE می‌شه. اما مثل اینکه همیشه این‌طور نیست
مهمان عزیز شما قادر به مشاهده پیوندهای انجمن مانشت نمی‌باشید. جهت مشاهده پیوندها ثبت نام کنید.
می‌شه بهش یه نگاه کرد.
ب) درسته، تعریف بُعد VC اینه که بیشترین تعداد نمونه‌ای که H بتونه به ازای همه حالت‌های برچسب زده شده فضا رو shatter کنه (البته به این معنیه که باید به ازای خود اون تعداد نمونه و نمونه‌های ‌کم‌تر بتونه shatter کنه). اگه تو [tex]k[/tex] نتونه حتما بعد VC پایین‌تره.
ج) درسته. تعریف بُعد VCیه.

مهمان عزیز شما قادر به مشاهده پیوندهای انجمن مانشت نمی‌باشید. جهت مشاهده پیوندها ثبت نام کنید.
درباره VC یه چیز مختصر و مفیده.

بردار ویژه یه ماتریس با بردار ویژه معکوسش برابره پس جفت عبارتا درسته. چراییش یکی جبرشه که می‌تونی اثباتشو پیدا کنی. یکی هم شهوده، بردار ویژه یک ماتریس برداریه که تحت اون تبدیل تغییر نکنه. معکوس یه ماتریس یعنی تبدیلی که نقاط تبدیل شده رو بر می‌گردونه به خودشون. وقتی یه چیزی رفتش خودش شده، برگشت هم خودش می‌شه. پس یه برداری که با تبدیل معکوسش خودش شده. پس یعنی بردار ویژه یه ماتریس و معکوسش یکی هستن.

بی نهایت ممنونم ازتون. ب وج زده بود نادرست تو سوالات گیج کرده من .نمیدونم دلیلش چیه ایا احیانا تعداد کلاس براش در نظر بگیریم مثلا نمونه ها از دوکلاس باید باشن که بشه گفت ب و ج درست . نه هر چیزی باشه. نمیدونم این استدلالم درست یا نه ممنون میشم نظرتون بگید

RE: سوال یادگیری ماشین - BBumir - 08 مرداد ۱۳۹۹ ۰۶:۳۴ ق.ظ

(۰۷ مرداد ۱۳۹۹ ۰۷:۲۲ ب.ظ)isoa نوشته شده توسط:  
(07 مرداد ۱۳۹۹ ۰۶:۲۰ ب.ظ)BBumir نوشته شده توسط:  
(07 مرداد ۱۳۹۹ ۱۰:۰۲ ق.ظ)isoa نوشته شده توسط:  سلام دوستان.وقتتون بخیر.چندتا سوال داشتم.ممنون میشم کمکم کنید
جملات زیر درستند یا نادرست چرا؟
الف "هنگامی که تعداد نمونه های آموزشی زیاد باشد تخمین map به تخمین ml همگرا میشود"
ب " اگر k نمونه وجود داشته باشد که نتواند توسط H شاتر شود انگاه (VC(Hکمتر از K است"
ج" اگر بعد VCیک فضای فرضیه D باشدهمه مجموعه های D نقطه توسط ان شاتر میشود"

همینطور ایا بردارهای ویژه یک ماتریس با معکوسش یکسان ؟هر خطی موازی بردار ویژه ماتریس موازی بردار ویژه معکوس آن است ؟

سلام
الف) تقریبا درسته، تعداد مشاهده‌ها که زیاد بشه تاثیر احتمال پیشین کم می‌شه و MAP شبیه به MLE می‌شه. اما مثل اینکه همیشه این‌طور نیست
مهمان عزیز شما قادر به مشاهده پیوندهای انجمن مانشت نمی‌باشید. جهت مشاهده پیوندها ثبت نام کنید.
می‌شه بهش یه نگاه کرد.
ب) درسته، تعریف بُعد VC اینه که بیشترین تعداد نمونه‌ای که H بتونه به ازای همه حالت‌های برچسب زده شده فضا رو shatter کنه (البته به این معنیه که باید به ازای خود اون تعداد نمونه و نمونه‌های ‌کم‌تر بتونه shatter کنه). اگه تو [tex]k[/tex] نتونه حتما بعد VC پایین‌تره.
ج) درسته. تعریف بُعد VCیه.

مهمان عزیز شما قادر به مشاهده پیوندهای انجمن مانشت نمی‌باشید. جهت مشاهده پیوندها ثبت نام کنید.
درباره VC یه چیز مختصر و مفیده.

بردار ویژه یه ماتریس با بردار ویژه معکوسش برابره پس جفت عبارتا درسته. چراییش یکی جبرشه که می‌تونی اثباتشو پیدا کنی. یکی هم شهوده، بردار ویژه یک ماتریس برداریه که تحت اون تبدیل تغییر نکنه. معکوس یه ماتریس یعنی تبدیلی که نقاط تبدیل شده رو بر می‌گردونه به خودشون. وقتی یه چیزی رفتش خودش شده، برگشت هم خودش می‌شه. پس یه برداری که با تبدیل معکوسش خودش شده. پس یعنی بردار ویژه یه ماتریس و معکوسش یکی هستن.

بی نهایت ممنونم ازتون. ب وج زده بود نادرست تو سوالات گیج کرده من .نمیدونم دلیلش چیه ایا احیانا تعداد کلاس براش در نظر بگیریم مثلا نمونه ها از دوکلاس باید باشن که بشه گفت ب و ج درست . نه هر چیزی باشه. نمیدونم این استدلالم درست یا نه ممنون میشم نظرتون بگید

من تعریف بعد VC رو اشتباه برداشت کرده بودم و فکر می‌کردم به ازای تمام چینش‌های نقاط [tex]k[/tex] تایی باید بتونه shatter کنه. ولی فقط کافیه به ازای یه حالت، یعنی حالتی که موقعیت‌ها مشخص شدن ولی به ازای تمام برچسب‌های ممکن دودویی shatter کنه و البته یه تیکه دوم داره که نباید به ازای ۱+[tex]k[/tex] حتی یک چینش وجود داشته باشه که shatter بشه. خوب پس تو بخش ب اگه یه چینشی از [tex]k[/tex] نقطه باشه که نشه shatter کرد بعد VC می‌تونه کم‌تر، بیشتر یا برابر [tex]k[/tex] باشه. برای بخش ج هم مشکل اینه که عبارت "همه" درست نیست فقط یکیشو (یک چینشو) باید بتونه shatter کنه.

من همه جا دیدم shatter کردن برای برچسب‌گذاری ۲ کلاسه بررسی شده تا حالا ندیدم تعداد کلاسای بیشتر بررسی بشه (شاید این برچسب ۲تایی جزو تعریفش باشه).