فهرست مطالب

فصل اول:پیکربندی یک طبقه بند تصویر

به طور غیر رسمی، طبقه بندی مجموعه ای از تصاویر به معنی اختصاصی هر تصویر به یکی از دستههای از پیش تعیین شده است. هرگاه با حجم نسبتا بالایی از تصاویر سر و کار داریم، استفاده از روش های طبقه بندی تصاویر امری اجتناب ناپذیر است. سامانه مدیریت آلبوم شخصی، آرشیوهای هنری و تجاری، موتور جستجوی تصاویر در وب، مثال های رایج و پر استفاده در این زمینه هستند. برای مثال در یک موتور جستجو با توجه به انبوه تصاویر، ابتدا تصاویر در دسته های کوچکتر طبقه بندی میگردند و سپس با توجه به مفهوم مورد پرسی و جوی کاربر، جستجوی تصاویر مرتبط در تعداد محدودی از دسته ها صورت می پذیرد. با توجه به این که معمولا تعداد تصاویر بسیار زیاد است، ساخت ماشینی که به طور خودکار طبقهبندی تصاویر را انجام دهد بسیار مطلوب است. این ماشین ابتدا تعدادی تصویر با برچسب مشخص که نشان می دهد هر تصویر متعلق به کدام دسته است را دریافت کرده و آموزشی میبیند. پس از مرحله آموزش در مرحله آزمون تعدادی تصویر که از قبل برچسب آنها را میدانیم به ماشین داده می شود تا کار طبقه بندی را برروی آنها انجام دهد. از مقایسه برچسب های اختصاص داده شده به تصاویر توسط ماشین و برچسبهای واقعی تصاویر می توان دقت ماشین در طبقه بندی آن مجموعه داده را ارزیابی نمود. با این نگاه، مساله طبقهبندی تصاویر به یک مساله یادگیری ماشین تبدیل میگردد. با توجه به اهمیت بالای این مساله، هر ساله یکی از معتبرترین مسابقات یادگیری ماشین با نام پاسکال بخشی را برای رقابت میان روشهای مختلف طبقه بندی تصاویر اختصاص می دهد. نتیجه این تلاش ها افزایش دقت طبقه بندی برروی مجموعه داده  از ۲۵ درصد در سال ۴ ه ه ۲ به ۷۵ درصد در سال 2010 است. با این وجود این هنوز هم طبقه بندی تصاویر به عنوان یک کار بسیار پیچیده در زمره مسائل دشوار یادگیری ماشین قرار دارد. برای مثال، دقت طبقه بندی بهترین الگوریتمهای موجود برروی مجموعه دادهCaltech که در زمره مجموعه دادههای استاندارد و مشکل طبقه بندی تصاویر قرار دارد، تاکنون از ۵۰ درصد تجاوز نکرده است. علاوه بر این سرعت طبقه بندی در یک ماشین از مسائل مهمی است که همواره در یک پیادهسازی عملی مورد توجه است.در بسیاری از محیطها دسترسی به تصاویر تنها به صورت متوالی میسر است و دسترسی به تمامی تصاویر بصورت یک جا امکان پذیر نیست. علت این امر می تواند حجم بالای تصاویر و محدودیت حافظه و منابع پردازشی باشد و یا با توجه به نوع وظیفه، تصاویر به طور متوالی تولید و به طبقه بند تحویل داده شوند. برای مثال، جستجوگر وب به طور متوالی تصاویر جدیدی را که پیدا نموده به مجموعه دادههای خود اضافه می کند. این در حالی است که اغلب روشهای موفق دستهبندی تصویر دسترسی به کل مجموعه داده را فرض میکنند.هدف اصلی این پایان نامه ارائه روشی بهینه دسته بندی تصاویر به صورت نیمه نظارتی و برای استفاده در محیط هایی است که امکان دسترسی به کل مجموعه دادهها وجود ندارد. اما قبل از این به موضوع انتخاب ویژهگی مناسب برای استفاده در دسته بندی پرداخته خواهد شد، زیرا انتخاب ویژهگی مناسب در دسته بندی بهینه تصاویر تاثیر بسازی خواهد داشت. برای رسیدن به این هدف ابتدا چالشهای اساسی در این کار را بررسی می کنیم. سپس طریقه مواجه روشهای پیشین با این چالشها را معرفی نموده و نقاط قوت و ضعف آنها را مشخص کنیم. سپس به ارائه روشهایی برای حل بخشی از نقاط ضعف خواهیم پرداخت.

1-1-پیکربندی کلی طبقه بند تصویر 2

1-1-1-استخراج ویژگی 3

1-1-2-طبقه بندی 5

1-2-جمع بندی 12

تشخیص شباهت میان دو تصویر با استفاده از ویژه گی های محلی

تشخیص شباهت میان دو تصویر با استفاده از ویژه گی های محلی

برای دانلود رایگان قسمت های بیشتراز فایل به انتهای مطلب مراجعه کنید

فصل دوم:استخراج ویژگی های محلی

همان طور که در فصل قبل نیز گفته شد روش هایی که از ویژهگیهای محلی برای دسته بندی تصاویر استفاده می کنند در سال های اخیر مورد توجه بسیاری قرار گرفته اند. البته به این روش ها انتقاداتی نیز وارد است که در پایان این فصل به بررسی آنها خواهیم پرداخت. ایده اولیه استفاده از نقاط محلی برای تولید ویژه گی با الهام از روش بسته کلمات  که در دسته بندی متون کاربرد دارد) اولین بار در سال 2004 و در مطرح شد و تا به امروز نسخه های متنوعی از آن ارائه شده است. در این بخش قصد داریم همه این روش ها را در یک چارچوب واحد معرفی نموده و تغییر و تحولات هر کدام از این روشها را در این چارچوب بررسی کنیم.

2-5-1- بسته کلمات

در این روش در مرحله اول از هر تصویر تعدادی نقطه به همراه همسایگی مشخصی از آن انتخاب میگردد که به آنها نقاط محلی می گوییم. در مرحله بعد تمامی این نواحی محلی با روش یکسان سازی هیستوگرام از نظر شدت نور و اندازه یکسان سازی می گردند. بدین ترتیب نواحی محلی نسبت به تغییرات نور و اندازه نواحی تا حد خویی مستقل می گردند. سپس از این نقاط ویژه گی سیفت  استخراج میگردد. ویژهگی سیفت هستوگرامی از اندازه و جهت بردارهای گرادیان تصویر در نقاط تصویر است. این ویژهگی نسبت به دوران تصویر مستقل است. خروجی این الگوریتم یک بردار ۱۲۸ بعدی ویژه گی محلی است که نسب به تغییرات شدت نور، انداز و دوران تا حد خوبی مستقل است.

۸۰۲ جمعبندی

اساس همه روش های یادگیری ویژه گی، که در این فصل بررسی نمودیم، روش بسته کلمات است. روش هایی که در ادامه مطرح شدند، اغلب برای حل مشکلاتی است که در طراحی اولیه روش بسته کلمات وجود داشته اند. یکی از این مشکلات مستقل بودن ویژهگی نهایی نسبت به تغییرات مکانی نقاط محلی است، برای حل این مشکل روش هرم تطابق مکانی ارائه شد، این روش هنوز هم به همراه روش های کدگذاری، که بعدها ارائه شدند، مورد استفاده قرار میگیرد. روشهایی که برای کدگذاری ارائه شدند همهگی حول یک نقطه اشتراک دارند و آن کاهش خطای بازسازی داده در عمل کدگذاری است. در این میان روشهای کدگذاری با پایه های محلی و روش هسته بهینه برای تشخیص شباهت ویژگی ها، از نظر تئوری و روشهای کدگذاری تنک و کدگذاری محلی و خطی، به لحاظ کارکرد عملی مورد توجه قرار گرفته اند. باید توجه نمود که روش هسته بهینه تنها چارچوبی برای مقایسه روش ها با مقایسه هسته آنها ارائه می دهد، ولی در مورد هسته بهینه نظر ندارد. بنابراین پیشنهاد هسته های بهینه تر مسالهای است که هنوز باز است.

2-1-بسته کلمات 14

2-2-روش هر تطابق مکانی 17

2-2-1-هسته تطبیق هرمی 17

2-2-2-هرم تطابق مکانی 18

2-3-کدگذاری تنک  19

2-4-کدگذاری با پایه های محلی 20

2-5-کدگذاری محلی وخطی 22

2-6-کدگذاری نرم با برش 23

2-7-هسته بهینه برای تشخیص شباهت ویژگی ها 23

2-7-1-یادگیری ویژگی با بعد محدود   25

2-8-جمع بندی 26

فرض منیفولد در یادگیری نیمه نظارتی

فرض منیفولد در یادگیری نیمه نظارتی

فصل سوم:طبقه بندی نیمه نظارتی

در این بخش روشهای موثر در یادگیری نیمه نظارتی و شرایط و فرض های موجود در هر کدام معرفی میگردد. همچنین هدف از این بخش ارائه تعاریف و بیان کلی روش هایی است که در بخش های بعد مورد استفاده قرار میگیرند. در ادامه به معرفی روش های نیمه نظارتی احتمالی مولد، یادگیری چند نگاهه و روش های مبتی بر گراف می پردازیم. از آنجا که روش های مبتی بر گراف مورد توجه بسیاری قرار گرفته اند و نتایج عملی خوبی نیز داشتهاند آنها را به طور جزئی تر معرفی می کنیم. در پایان تعدادی از روشهای برخط نیمه نظارتی را معرفی نموده و کارکرد آنها را با هم مقایسه می نماییم.

۳. ۴ روشهای یادگیری نیمه نظارتی برخط

در شرایط برخط یا افزایشی، دادهها به طور متناوب از محیط دریافت میگردند و الگوریتم یادگیری موظف است در بازه زمانی مناسب برچسب داده جدید را پیشبینی کند. از طرفی روش های سنتی یادگیری نیمه نظارتی به طور دسته ای روی دادههای برچسب دار و بدون برچسب عمل می کنند. بنابراین برای کاربردهای برخط نیاز به زمان و حافظه نامحدود دارند. یک روش نیمه نظارتی برخط همزمان باید بر محدودیتهای حافظه و زمان فائق آید. دسته ای از این روشها ابتدا حجم دادهها را کاهش می دهند، سپس با استفاده از مجموعه داده ی باقی مانده با استفاده از روشهای سنتی یادگیری نیمه نظارتی، برچسب داده جدید را پیشبینی می کنند. تفاوت این روشها معمولا در الگوریتم کاهش حجم است. در ادامه این روش ها مطرح شده، با یکدیگر مقایسه میگردند.

3-4-1-پنجره زمانی

این الگوریتم نسخه نیمه نظارتی الگوریتم برخط است که در معرفی شده است. در این الگوریتم خط جدا کننده با دریافت داده جدید برچسب دار، به نحوی که با کمترین جابهجایی بتواند خطای طبقه بندی را کمینه کند، تغییر می کند. از داده های بدون برچسب نیز برای ساخت یک جمله هموارسازی استفاده شده است. در این الگوریتم ازکه T داده اخیر بدون برچسب است در جمله هموارساز نیمه نظارتی استفاده شده است. با این کار حجم حافظه مورد نیاز و زمان محاسبه ثابت می ماند. استفاده از پنجره زمانی در سیستم هایی که با زمان تغییر می کنند کاری متداول است و نتایج مناسبی دارد. نشان داده شده است که رابطه بروزرسانی برخط خط جدا کننده به فرم زیر است

۳. ۵ جمع بندی

در این فصل روش های نیمه نظارتی سنتی بررسی شد و مشکلات و چالش های پیش روی یک الگوریتم برخط نیمه نظارتی برشمرده شد. همه این روش ها به نوعی یک مرحله کاهش تعداد داده دارند که بنظر میرسد در هیچ کدام کاهش داده با حفظ منیفولد به عنوان مساله اصلی مورد توجه قرار نگرفته است. همچنین در هیچ کدام از این روش ها وجود داده ها و برچسب های نویزی و راه حل مواجهه با این مشکل بررسی نشده است. بنظر میرسد در نظر گرفتن این مسائل برای الگوریتم نیمه نظارتی برخط مهم و کلیدی است.

3-1-روش های احتمالی مولد 27

3-2-یادگیری چند نگاهه  28

3-3-روشهای مبتنی بر گراف 30

3-3-1-روش های ساخت گراف 30

3-3-2-میدان های گاوسی وتوابع هارمونی 31

3-3-3-سازگاری محلی وعمومی 32

3-3-4-روش هموارسازی منیفولد 33

3-3-5-کمینه سازی تناوبی 33

3-4-روش های یادگیری نیمه نظارتی برخط 34

3-4-1-پنجره زمانی 34

3-4-2-یادگیری نیمه نظارتی برخط با استفاده از گراف چندی سازی شده  35

3-4-3-هموارسازی برخط منیفولد 35

3-4-4-مقایسه روش های یادگیری برخط 36

3-5-جمع بندی 37

کاهش تعداد داده ها با استفاده از روش درخت تصویرتصادفی

کاهش تعداد داده ها با استفاده از روش درخت تصویرتصادفی

 

برای دانلود رایگان قسمت های بیشتراز فایل به انتهای مطلب مراجعه کنید

فصل چهارم:استفاده از شباهت های محلی درکدگذاری

در این بخش به بررسی یکی از مشکلات روشهای یادگیری ویژهگی محلی می پردازیم و راه حلی برای بهبود آن پیشنهاد می کنیم. ما ادعا می کنیم که در شرایط خاصی روشهایی که از پایه های محلی برای کدگذاری استفاده می کنند کارآیی مناسبی برای تشخیص شباهت داده های غیر همسایه نخواهند داشت. برای شرح بهتر، شکل ۱.۴ را در نظر بگیرید. در این شکل پایه ها برروی یک مارپیچ فرضی قرار گرفته اند و هدف کدگذاری سه داده 0، 1 و 2 است. فرض کنید کد متناظر این سه داده به ترتیب باشد. مستطیل کشیده شده حول هر داده همسایگی محلی هر داده را مشخص می کند. بنابراین کد هر داده در درایه های متناظر با پایه هایی که درون مستطیل قرار میگیرد مقدار غیر صفر دارند و در خارج از آن مقدار صفر خواهد داشت. از آن جایی که معمولا از جداکننده خطی برای دسته بندی استفاده می کنیم، تابع هسته در فضای کد به صورت  تعریف می شود. با وجود اینکه با توجه به ساختار مارپیچ داده g نسبت به داده ی شباهت بیشتری به داده d دارد تابع هسته که معیاری برای تشخیص شباهت میان دادههاست به صورت ((Chaos است. علت این امر این است که برای هر داده درایههای کد متناظر پایههای خارج از همسایگی آن نزدیک به صفر است. افزایش همسایگی در نظر گرفته شده برای داده ها نیز این مشکل را حل نمی کند زیرا خاصیت خطی بودن حول هر همسایگی که شرط لازم کدگذاری است برقرار نمیباشد و باعث افت کیفیت کد میگردد. به علاوه با توجه به تئوری نمایش دهنده تابع برچسبگذاری ماشین بردار پشتیبان را می توان به شکل زیر نوشت.

4-1-معرفی مقدمات ونشانه گذاری ها   40

4-2-کدگذاری ورا رسانی 41

4-3-کدگذاری استنتاجی 43

4-4-یادگیری واژه نامه 47

4-5-جمع بندی 50

مراحل کلی استخراج ویژه گی در روش هرم تطابق مکانی

مراحل کلی استخراج ویژه گی در روش هرم تطابق مکانی

فصل پنجم:طبقه بند برخط نیمه نظارتی

هدف از این فصل ارائه روش پیشنهادی برای طبقه بندی برخط نیمه نظارتی در فضای ویژهگیهای استخراج شده از تصاویر است. ابتدا باید ذکر نماییم که یک سیستم برخط علاوه بر مشکلات زمان و حافظه مورد نیاز طبقه بندی معمولا با گذشت زمان با مساله تغییر مفهوم نیز روبرو است. اما آنچه ما در طبقه بندی تصاویر با آن روبروی هستیم تغییر مفهوم برچسب ها نیست. به طور دقیق تر اگر برچسب تصویری در زمان t، مشخص باشد با گذشت زمان برچسب این داده و تعلق آن به دسته مورد نظر تغییر نمی کند. بنابراین در این بخش تنها به معضل اول که زمان و حافظه بالا در طبقه بندی دسته ی است می پردازیم • در اینجا قصد داریم دو اشکال عمده که در اغلب روش های برخط نیمه نظارتی به آن اشاره شد را برطرف سازیم. اول اینکه این روشها معمولا به طور شبه برخط عمل می کنند. یعنی پس از کاهش حجم دادهها یک الگوریتم دستهای برروی آنها اجرا میگردد که با توجه به اینکه برچسب دادهها با اضافه شدن یک داده جدید تغییر چندانی نمی کند اتلاف انرژی است. دوم اینکه در این روش ها ترکیب دادهها با توجه به ساختار منیفولد و توزیع دادهها انجام نمی شود. در واقع ما ادعا می کنیم علاوه بر ساختار منیفولد در نظر گرفتن توزیع داده ها برروی منیفولد نیز با اهمیت است. برای مثال، شکل ۱.۵ را که توزیع دادهها روی یک منیفولد فرضی نشان می دهد را در نظر بگیرید. اگر به طور کلی ساختار منیفولد را در نظر نگیریم یعنی داده هایی ترکیب شوند که فاصله اقلیدسی کمی از یک دیگر دارند، ممکن است دادههایی از دو قسمت مختلف منیفولد که بسیار به هم نزدیک می شوند با یکدیگر ترکیب شوند و ساختار به طور کلی از بین برود. اگر ترکیب را با توجه به فاصله برروی منیفولد انجام دهیم یعنی دادههایی را ترکیب کنیم که روی منیفولد فاصله کمی نسبت به هم دارند ممکن است دادههایی در نقاط تنک با هم ترکیب شوند. اشکال این امر این است که با ترکیب داده ها در نقاط تنک ساختار منیفولد در این نقاط به سرعت دچار تغییر می شود در حالی که اگر این کار را در نقاط چگال انجام دهیم با توجه به این که داده های زیادی در این نقاط از منیفولد نمونهبرداری شدهاند ساختار کلی تغییر چشم گیری نمی کند.

برای ترکیب بهینه داده ها با هم باید فاصله منیفولدی و چگالی دادهها را هم زمان با هم در نظر گرفت.راه حل ما به این صورت است که ابتدا با یک نگاشت غیرخطی که توزیع دادهها را در نظر میگیرد منیفولد دادهها را باز کنیم. سپس در فضای نگاشت، داده هایی که به هم نزدیک تر هستند را ترکیب می کنیم و سپس برچسب دادهها را پیش بینی می کنیم. ایجاد فضای نگاشت و پیش بینی برچسب داده ها با بهروزرسانی اطلاعات قبلی و به صورت برخط انجام می شود که نسبت به روشهای شبه برخط از سرعت بالاتری برخوردار است. در شکل ۵ شمای کلی مراحل الگوریتم برخط آمده است. در بخش های بعد، ابتدا نگاشت غیرخطی استفاده شده استفاده شده را معرفی می نماییم، سپس روش بر روزرسانی برخط این نگاشت و همچنین پیش بینی برخط برچسب ها را معرفی می کنیم.

5-1-نگاشت غیرخطی  53

5-2-به روزرسانی برخط نگاشت 55

5-3-پیش بینی برخط برچسب  56

5-4-جمع بندی 57

مراحل یادگیری پایه ها درالگوریتم

مراحل یادگیری پایه ها درالگوریتم

فصل ششم:آزمایش ها

6-1- یادگیری واژه نامه

همانطور که گفته شد یادگیری واژهنامه معمولا با استفاده از الگوریتم خوشه بندی k میانگین صورت می پذیرد. اما در روش پیشنهادی، الگوریتم خوشه بندی در فضای نفوذ صورت می پذیرد. برای اینکه کارآیی روش پیشنهادی را نشان دهیم دو الگوریتم را برروی مجموعه داده مصنوعی اجرا کرده و نتیجه هر دو را نمایش دادهایم. در شکل ۳.۶ مجموعه دادههای هر خوشه با یک رنگ نمایشی داده شده است. همانطور که مشخص است الگوریتم k میانگین که از معیار فاصله اقلیدسی استفاده می کند لایه های مختلف منیفولد که به هم نزدیک هستند را در یک خوشه قرار داده است در حالی که الگوریتم پیشنهادی دادهها را با توجه به شکل منیفولد در خوشه های مختلف قرار داده است و علت آن توجه به ساختار منیفولد است.

۴۰۶ مجموعه دادههای واقعی

در این بخش کارآیی الگوریتم کدگذاری را در مقایسه با دیگر روش ها در مجموعه دادههای واقعی می سنجیم. برای این کار کد هر مجموعه داده را با روش های پیشنهادی (LSGC)، کدگذاری محلی و خطی (LLC)، کدگذاری نرم  نرم با برش محاسبه کردهایم. اندازه واژهنامه ها در همه روشها برابر ه ه به ۱ پایه است و برای یادگیری واژهنامه ها حداکثر از ه ه ه ۴ داده استفاده شده است. در هر اجرا تعدادی داده را برای آموزش برچسبگذاری می کنیم و از باقی دادهها برای آزمون استفاده می کنیم. دسته بندی با ماشین بردار پشتیبان خطی انجام میشود. برای تنظیم پارامترها از روش اعتبارسنجی ضربدری ۵ بسته ای استفاده می کنیم. برای تنظیم پارامترهای روش پیشنهادی ابتدا با  مقدار R همسایگی را مشخص کرده و سپس با ثابت نگه داشتن k روی بهترین مقدار میزان را تنظیم می کنیم. جدول های ۲.۶ و ۳.۶ متوسط نتایج و انحراف معیار دقت دسته بندی روشهای مختلف در  اجرای مستقل است. در جدول ۲.۶ از هر دسته ه ۲ داده را برای آموزش استفاده کردهایم. در جدول ۳.۶ تعداد داده های آموزشی را افزایش دادهایم تا اثر تعداد دادههای برچسب دار در دقت دسته بندی روشی ها را نیز بررسی کنیم. تعداد دادههای برچسب گذاری شده از هر دسته در جدول ۳.۶ در کنار نام مجموعه داده آمده است. مقادیر پارامترهای استفاده شده در هر روش نیز در جدول آمده است. در همه مجموعه دادهها به جز LetteT با افزایش t خطای دسته بندی کاهش یافته است. این نشان می دهد بیشتر مجموعه داده ها شرط همواری را در خود دارند. در بیشتر مجموعه دادهها روش پیشنهادی دقت دسته بندی بهتری نسبت به بقیه روشها دارد که کارآیی آن را نشان میدهد. در جدول دوم با افزایش تعداد داده های برچسب دار دقت روشها به هم نزدیک شده است. علت این امر این است که با افزایش تعداد داده های برچسب دار، در نزدیکی هر داده بدون برچسب یک داده برچسب دار قرار میگیرد، بنابراین نیازی به انتشار برچسب نیست و با در نظر گرفتن همسایگی محلی یک داده نیز می توان برچسب آن را به خویی پیشبینی کرد.

6-1-یادگیری واژه نامه  65

6-2-تخمین استنتاجی از ورا رسانی 67

6-3-رگرسیون خطی 68

6-4-مجموعه داده های واقعی 70

6-5-مجموعه داده های تصاویر طبیعی 72

6-5-1-دقت دسته بندی درحالت دسته ای  74

6-5-2-دقت دسته  بندی درحالت برخط 76

6-5-3-هزینه زمان وحافظه 77

6-6-دسته بندی برخط تصاویر وردگیری شی  78

مقایسه یادگیری نظارتی وبدون نظارت

مقایسه یادگیری نظارتی وبدون نظارت

فصل هفتم:نتیجه گیری وکارهای آتی

یادگیری مبتنی بر گراف

یادگیری مبتنی بر گراف

فهرست تصاویر

1-1-مقایسه ویژگی معنایی وغیرمعنایی     4

1-2-تشخیص شباهت میان دوتصویر با استفاده از ویژگی های محلی 5

1-3-مقایسه یادگیری نظارتی وبدون نظارت 9

1-4-فض منیفولد در یادگیری نیمه نظارتی 11

1-5-جایگاه طبقه بندهای دسته ای،برخط وافزایشی هنگامی که تعداد داده های به بی نهایت میل میکند،براساس حافظه وزمان پردازش      12

2-1-مراحل یادگیری پایه ها درالگوریتم    16

2-2-ایجاد بردار ویژگی درالگوریتم  16

2-3-مراحل کلی استخراج ویژگی در روش هرم تطابق مکانی  19

3-1-یادگیری مبتنی برگراف     30

3-2-کاهش تعداد داده ها با استفاده از روش درخت تصویر تصادفی     36

4-1-کدگذاری داده ها با روش پایه های محلی  39

4-2-دانه درشت کردن گراف   48

5-1-منیفولد ساده از داده ها  53

5-2-سه مرحله اصلی طبقه بندی برخط 54

6-1-مجموعه داده مارپیچ سوئیسی 61

6-2-تصاویر نمونه از زمجموعه داده های تصاویر طبیعی  64

6-3-یادگیری واژه نامه برروی مجموعه داده مارپیچ سوئیسی  66

6-4-خطای استفاده از روش تخمینی براساس تعداد پایه ها 67

6-5-مقایسه روشهای کدگذاری درمساله درون یابی  69

6-6-بهبود خط جدا کننده با استفاده از داده های بدون برچسب   73

6-7-دقت دسته بندی روش های مختلف براساس تعداد داده های برچسب دار    74

6-8-دقت دسته بندی روش های مختلف براساس تعداد داده های برچسب دار   75

6-9-مقایسه سرعت وزمان دسته بندی روشهای دسته ای وبرخط درمجموعه داده cifar10ا   79

6-10-عمل کرد روشهای مختلف درهنگام ردگیری  81

فهرست جداول

3-1-مقایسه روشهای یادگیری نیمه نظارتی برخط   37

6-1-مشخصات مجموعه داده های واقعی   62

6-2-برای مجموعه داده های آموزشی کوچک    71

6-3-برای مجموعه داده های آموزشی بزرگ   72

6-4-متوسط دقت دسته بندی تصاویر طبیعی بادسته بندهای مختلف  77

6-5-متوسط دقت دسته بندی تصاویر طبیعی با الگوریتم برخط 78

6-6-متوسط خطای تشخیص مکان شی برحسب پیکسل 80


Abstract

Image classification, i.e. the task of assigning an image to a class chosen from a predefined set of classes, has addressed in this thesis. At first the classifier is divided into two major sub partitions, feature extraction and classifier. Then we show that by using local feature extraction techniques such as BOW the classification accuracy will improve. In addition, using unlabeled data is argued as the fact to deal with high nonlinear structure of features. Recently, many SSL methods have been developed based on the manifold assumption in a batch mode. However, when data arrive sequentially and in large quantities, both computation and storage limitations become a bottleneck. So in large scale classification task developing an online SSL learning machine can be helpful. The learning machine is based on data reduction by coarse graining algorithm that reduces data size while keep manifold structure. The experiments on Caltech101 and CIFAR10 datasets show that by using coarse graining method the accuracy does decrease in minimum compared with alternate batch method. Furthermore, unlike batch methods, our online algorithm classifies data with constant time and memory.

Keywords: Semi-supervised Learning, Image Categorization, Online learning, Manifold Assumption, Feature Learning, Coding


تعداد صفحات فایل : 90

مقطع : کارشناسی ارشد

بلافاصله بعد از پرداخت به ایمیلی که در مرحله بعد وارد میکنید ارسال میشود.


فایل pdf غیر قابل ویرایش

خرید فایل pdf و سفارش فایل word

قبل از خرید فایل می توانید با پشتبانی سایت مشورت کنید