نام پژوهشگر: حمید حسن پور
امین زهتابیان حمید حسن پور
نویز و اعوجاج از اصلی ترین عوامل محدود کننده در سیستمهای مخابراتی و اندازه گیری می باشند . بنابراین حذف اثرات نویز و اعوجاج از سیگنالهای آلوده به آنها، چه از نظر تئوری و چه از لحاظ کاربردهای عملی در مرکزیت پردازش سیگنال و علوم مخابراتی قرار دارد . امروزه از بحث " تجزیه مقادیر تکین" یا svd ، به عنوان یکی از قدرتمند ترین ابزار برای تفکیک زیرفضاهای سیگنال و نویز، یاد شده و پژوهشگران علم پردازش سیگنال و صوت از این ابزار به منظور بهبود سیگنالهای گوناگون بهره می برند. در این پایان نامه، از روشی نوین به منظور حذف نویز از سیگنال های آلوده به نویز استفاده شده است. روش پیشنهادی در این پایان نامه، بر پایه استفاده از svd و تفکیک زیر فضاهای نویز و سیگنال از یکدیگر بوده و به منظور بهینه سازی پارامترهای اساسی مورد استفاده ، از الگوریتم ژنتیک بهره برده ایم . همچنین، برخلاف تقریباً تمامی روشهای حذف نویز بر پایه svd که تنها به بحث حذف نویز از مقادیر تکین پرداخته و در امر بازسازی سیگنال بهبود یافته ، از همان بردارهای تکین نویزی بهره می جویند، ما در این پایان نامه از تکنیکی بهینه به منظور حذف نویز بردارهای تکین استفاده کرده ایم که در میزان بهبود سیگنال، چه از نظر معیارهای کمّی و چه از نظر معیارهای کیفی، تأثیری دوچندان از خود به نمایش گذاشته است. آنچه که روش حذف نویز پیشنهادی را نسبت به متودهای دیگر متمایز می کند، همانا توانایی آن در حذف انواع نویزهای سفید و رنگی از سیگنالهای ایستا ، نا ایستا و صوتی و گفتاری می باشد . البته بدیهیست که برای این منظور می بایست روش پیشنهادی، ابتدا بوسیله تنظیماتی اندک بهینه سازی و مهیّا گردد. نتایج به دست آمده از اعمال روش ارائه شده در این پایان نامه بر روی سیگنالهای آلوده به نویزهای گوناگون، به کمک معیارهای ارزیابی استاندارد و مشهوری همچون فاصله اقلیدسی ، snr ، pesq و همچنین معیارهای بصری ناشی از ترسیم سیگنالها در حوزه های زمانی و زمان- فرکانس، مورد بررسی و تحلیلی ژرف و دقیق قرار گرفته و نتایج به دست آمده، حکایت از عملکرد برتر روش پیشنهادی در مقایسه با دیگر روشهای برجسته حذف نویز می دهند.
محمود انیشه غلامرضا اردشیر
در بسیاری از کاربردهای پردازش سیگنال، مانند آنالیز سیگنال eeg، اغلب نیاز است که سیگنال غیر ایستان به بخش¬های کوچکتر تقسیم شود. این عمل با یافتن مرزهای سیگنال در لحظات زمانی تغییر مشخصات آماری آن، از قبیل دامنه یا فرکانس، انجام می¬شود. به طورکلی، دو روش برای سگمنت¬کردن سیگنال وجود دارد، سگمنت¬کردن با طول ثابت و سگمنت¬کردن تطبیقی. در روش¬ سگمنت¬کردن با طول ثابت، سیگنال eeg به تکه¬هایی با طول ثابت تقسیم می¬¬شود. روش¬ سگمنت¬کردن با طول ثابت به سادگی انجام می¬شود، ولی در این روش تنها به طور تصادفی می¬توان مرزهایی یافت که در نقاط تغییر مشخصات آماری سیگنال واقع شده¬اند. بنابراین این روش در سگمنت کردن موفق نخواهد بود. با توجه به ضعف روش سگمنت¬کردن با طول ثابت، ضروری است که روشی به کار برده شود که مرز سگمنت¬ها به طور خودکار تشخیص داده شوند که از روش سگمنت¬کردن تطبیقی برای برآوردن این هدف استفاده می¬شود. در این روش، مرز سگمنت¬ها به طور خودکار و بر اساس تغییر در مشخصات آماری سیگنال تشخیص داده می¬شوند. در این پژوهش، روش سگمنت¬کردن تطبیقی جدیدی بر اساس بُعد فرکتال و تبدیل ویولت معرفی شده است. در روش پیشنهادی، در ابتدا سیگنال اصلی توسط تبدیل ویولت تجزیه می¬شود. سپس، بُعد فرکتالی سیگنال تجزیه شده توسط یک پنجره لغزان محاسبه می¬شود و از تغییرات بُعد فرکتالی برای سگمنت کردن تطبیقی استفاده می شود. در این پژوهش، برای افزایش دقت روش پیشنهادی معیاری جهت انتخاب طول مناسب پنجره لغزان معرفی شده است. این در حالی است که در روش¬های سگمنت¬کردن موجود، معیاری جهت انتخاب طول مناسب پنجره لغزان ارائه نشده است. عملکرد روش پیشنهادی با تعدادی از روش¬های سگمنت کردن موجود با استفاده از داده های ساختگی و واقعی eeg مقایسه شده است. برای مقایسه الگوریتم¬های سگمنت¬کردن، از معیار roc استفاده شده است و نتایج شبیه¬سازی بیانگر کارایی بالای روش پیشنهادی نسبت به روش¬های موجود می¬باشد. به علاوه، نشان داده شده است که روش پیشنهادی به زمان کوتاهی برای آنالیز یک سیگنال نیاز دارد، بنابراین می¬توان از روش پیشنهادی در سیستم¬های آنلاین استفاده کرد. در این پژوهش دو کاربرد دیگر روش سگمنت¬کردن تطبیقی نیز نشان داده شده است. در یکی از این کاربردها، روش سگمنت¬کردن تطبیقی برای بررسی تغییرات درخشندگی اجسام کهکشانی مورد استفاده قرار گرفته است که یکی از موضوعات مهم در نجوم برای بررسی رفتار اجسام کهکشانی می¬باشد. در کاربرد دیگر، الگوریتم سگمنت¬کردن تطبیقی در تشخیص ناهنجاری در سیگنال ترافیک شبکه کامپیوتری مورد استفاده قرار گرفته است. این کاربرد می¬تواند در مواردی همچون کمک به مدیریت شبکه، و بهبود عملکرد شبکه مفید باشد.
محسن کریمی درچه مهدی بانژاد
گسترش جوامع بشری و نیاز روز افزون به انرژی الکتریکی اهمیت ویژه ای به سیستم های قدرت بخشیده است و سبب شده تا مهندسین سیستم های قدرت همواره برای عملکرد صحیح این سیستم در تلاش باشند. یکی از عواملی که موجب ایجاد اختلال در عملکرد سیستم قدرت می شود رخ دادن خطاهای اتصال کوتاه است اما با حفاظت مناسب و بهره برداری صحیح می توان اثرات نامطلوب آن ها را کاهش داد. یکی از مباحث مطرح در حفاظت و بهره برداری از سیستم های قدرت دسته بندی خطاها است. دسته بندی خطاها یکی از نیازهای اصلی اکثر روش های مکان یابی خطا است. بعلاوه با حرکت کردن سیستم های قدرت به سوی هوشمند شدن، دانستن دسته خطایی که در سیستم رخ داده است برای اتخاذ تصمیمات بعدی و بهره برداری مناسب ضروری است. در این پایان نامه روش جدیدی برای دسته بندی خطاها ارائه شده است . در این روش از مقادیر فازوری جریان و ولتاژ و مولفه های متقارن آن ها استفاده شده است. در روش پیشنهادی با استفاده از مقادیر فازوری و مولفه های متقارن، یک معیار مناسب برای دسته بندی خطاها معرفی شده و برای انجام دسته بندی از شبکه های عصبی مصنوعی استفاده شده است. با بررسی مقادیر معیار معرفی شده در خطاهای مختلف به انتخاب شبکه عصبی مناسب پرداخته شده و شبکه های عصبی خود سازمان ده انتخاب گردیده اند. در پایان روش پیشنهادی بر روی یک سیستم قدرت نمونه تست شده است. نتایج این آزمایشات نشان می دهد که روش پیشنهادی خطاهای آزمایشی را به درستی دسته بندی کرده است. بعلاوه روش پیشنهادی از سرعت بالایی برای دسته بندی خطاها برخوردار است. به همین دلیل می-توان روش ارائه شده را به عنوان روش مناسبی برای دسته بندی خطاهای اتصال کوتاه در سیستم-های قدرت دانست.
رحمان یوسف زاده حمید حسن پور
تجزیه و تحلیل رفتار افراد کاربردهای زیادی در حوزه های مختلف دارد که از آن جمله می توان به بررسی رفتار افراد در مراکز خرید و نیز حفظ امنیت اماکنی مانند بانک ها و فرودگاه ها اشاره نمود. ردیابی افراد اولین مرحله در این سیستم ها می باشد. به دلیل محدودیت وسعت دید دوربین، بررسی تمام محیط مورد نظر با استفاده از یک دوربین، در بسیاری از کاربردها امکان پذیر نمی باشد. بر این اساس معمولا شبکه ای از دوربین ها مورد نیاز است. علاوه بر مسائل مطرح در ردیابی با یک دوربین، ردیابی افراد در شبکه ی توزیع شده ای از دوربین ها، از جهات دیگر نیز چالش بر انگیز می باشد. به عنوان مثال ظاهر افراد در دوربین های مختلف، به دلیل عواملی از قبیل شرایط نوری محیط، موقعیت افراد نسبت به دوربین، زاویه ی دید و پارامتر های دوربین متفاوت می باشد. همچنین حضور افراد در زمان و مکان های مختلف در مقابل دید دوربین ها تابع قانون خاصی نبوده و افراد می توانند به صورت غیر یکنواخت در زمان های مختلف، در مکان های متفاوتی قرار گیرند. علاوه بر این ممکن است دوربین های متوالی فضای دید مشترکی نداشته باشند که این موضوع بر پیچیدگی مسئله می افزاید. در این پایان نامه راهکاری برای ردیابی افراد در شبکه ای از دوربین ها بدون فضای دید مشترک، ارائه شده است. در این روش، ردیابی افراد طی دو مرحله انجام می گیرد. در مرحله اول در هر یک از دوربین ها افراد بطور مستقل شناسایی و ردیابی میشوند. در این مرحله اتفاقات رخ داده در هر محیط (دوربین) بر اساس یک ساختمان داده ی استاندارد در پایگاه داده ی مرکزی ذخیره می گردد. در مرحله دوم، تک تک افراد با توجه به اطلاعات ثبت شده در پایگاه داده در کل محیط تحت پوش ردیابی می شوند. به منظور تشخیص افراد در یک دوربین از مدل سازی پس زمینه و محاسبه ی تفاضل فریم فعلی و فریم پس زمینه استفاده شده است. پس از اعمال پیش پردازش هایی برای بهبود کیفیت تصویر اشیاء تشخیص داده شده، و حذف قسمت های زائد مانند سایه، خط سیر افراد با اعمال فیلتر کالمن به دست می آید. الگوریتم ارائه شده، با استفاده از اطلاعات حرکتی، قادر به ردیابی افراد در شرایط نوری مختلف، و همچنین هنگام بروز هم پوشانی های معمول بین افراد می باشد. برای برقراری ارتباط بین مشاهدات دریافت شده در مجموعه ی دوربین ها جهت ردیابی افراد، ویژگی های استخراج شده هر شی با ویژگی های ذخیره شده در پایگاه داده مقایسه شده و در صورت منطبق بودن برچسب آن بروز رسانی می گردد. در این پایان نامه ویژگی جدیدی بر مبنای بافت رنگی تصویر معرفی شده است که نسبت به تغییرات نور دارای ثبات بیشتری بوده و از قابلیت تفکیک بالاتری برخوردار است. این ویژگی از استخراج عناصر واقع بر قطر اصلی ماتریس هم رخداد شی در فضای رنگی ycbcr به دست می آید. به منظور ارزیابی عملکرد الگوریتم ارائه شده، این روش بر روی چند مجموعه ی ویدئویی از جمله ویدئوهای ضبط شده از پنج صحنه مختلف از یک محیط کاری که دارای پیچیدگی بالایی می باشد، اعمال شده است. نتایج نشان می دهد ویژگی ارائه شده دارای دقت بالاتری نسبت به هیستوگرام رنگ و روشهای مشتق شده از آن دارد.
مهدی صدیقی دستجرد حمید حسن پور
رسانه های ویدیویی معمولا حجم زیادی از داده ها را تولید می کنند. این حجم عظیم اطلاعات مشکلاتی از قبیل عدم وجود فضای لازم برای ذخیره کردن اطلاعات و پهنای باند کافی برای انتقال آنها به همراه دارد. برای مقابله با این مشکلات از سیستم های فشرده سازی برای ذخیره کردن تصاویر ویدیویی استفاده می شود. این سیستم ها با بهره گرفتن از افزونگی بین فریم ها، سعی در بالا بردن درصد فشرده سازی دارند. برای یافتن افزونگی، فریم تصاویر به بلوک هایی تقسیم می شود سپس این بلوک ها با هم مقایسه می گردند تا از ذخیره سازی بلوک های تکراری جلوگیری شود. مولفه انطباق بلوک علاوه برآنکه یکی از زمانبرترین مولفه ها در سیستم های فشرده سازی است اگر از نظر دقت دارای عملکرد مناسبی نباشد، درصد فشرده سازی کاهش می یابد. در روش های موجود نظیر mpeg2 در فرایند انطباق بلوک، تمام بلوک ها مورد بررسی قرار می گیرند. به همین دلیل این گونه روش ها بار محاسباتی بالایی دارند. در این پایان نامه با استفاده از روش های مدل سازی پس زمینه، نواحی که در آن تغییرات قابل توجه اتفاق می افتد را تعیین، و عملیات انطباق بلوک را به این ناحیه محدود می کنیم. برای تعیین نواحی که در آن تغییر قابل توجه به وجود آمده، ابتدا پس زمینه را مدل کرده و بعد از حذف نویز، خروجی را به مولفه دیگر ارسال می کنیم. در این مولفه، پیکسل ها به یکی از سه کلاس پس زمینه، شی یا سایه تقسیم می شوند با بهره گرفتن از این اطلاعات بلوک هایی که در آن تغییر قابل توجهی اتفاق افتاده است تعیین می شود و عملیات انطباق بلوک به این نواحی محدود می گردد. مقایسه نتایج این الگوریتم جدید با چهار الگوریتم جستجو دیگر(2-d logarithm search، ucbd،4ss و csd) نشان می دهد زمان الگوریتم پیشنهادی تقریبا یک دهم زمان محاسبات الگوریتم های یاد شده می-باشد. نتایج ز همچنین نشان می دهد درصد فشرده سازی نیز به نسبت الگوریتم های یاد شده بهبود قابل توجهی پیدا می کند. در نمونه های مورد بررسی حجم خروجی سیستم ارائه شده، به نسبت سیستم غیر بهینه تقریبا 50% کاهش می یابد.
مرضیه رحیمی مرتضی زاهدی
امروزه وب یکی از اساسی ترین منابع کسب اطلاعات برای مردم جهان محسوب می شود. این پدیده بسیار گسترده و درحال تغییر، مجموعه ای از داده های متنوع و بدون ساختار با تعداد ابعاد بالا است که با سرعت فزاینده ای در حال گسترش است. این ویژگیها باعث می شوند که با توسعه ی وب، یافتن اطلاعات مورد نیاز در آن سخت تر و سخت تر شود و به همین دلیل موتورهای جستجو به عنوان ابزارهایی ساده و قابل دسترس برای جستجوی اطلاعات در وب مورد توجه قرار گیرند. در بسیاری از موتورهای جستجوی امروزی جستجو بر مبنای کلمات انجام می گیرد. به این ترتیب که کاربر بر اساس اطلاعات مورد نیاز خود، کلماتی را به عنوان درخواست وارد می کند و جستجو بر مبنای این کلمات صورت می پذیرد. به این ترتیب روشن است که دقت نتایج حاصل، بیش از هرچیز دیگری وابسته به درخواست کاربران است. از طرف دیگر بسیاری از کاربران در وب به دلیل عدم آشنایی با موضوع مورد جستجو و یا عدم آشنایی با فرایند جستجو در وب قادر به صدور درخواستهایی که بتوانند توصیف دقیقی از اطلاعات مورد نیاز آنها ارائه دهند، نیستند. ابهام در کلمات نیز مشکل را دوچندان می کند. هدف ما در این پایان نامه ارائه ی روشی برای بهبود عملکرد موتورهای جستجو بر مبنای رفتار کاربران است به گونه ای که قادر باشد برخی از مشکلات الگوریتمهای فعلی مثل زمانبر بودن، مشکل در انتخاب کلمات و نیاز به تعداد زیاد اسناد مرتبط را حل می کند. در این پایان نامه روشی جدید را برای توسعه ی درخواستها در وب ارائه کردیم که می تواند باعث بهبود عملکرد یک موتور جستجو شود و رضایت کاربران را افزایش دهد. این روش بر مبنای عملکرد کاربران در جستجوی وب ارائه شده است. ترکیب lsa و بازخورد ربط در روش پیشنهادی ضمن هماهنگی با شیوه ی رفتار انسانها در هنگام جستجوی وب، برخی از ضعفهای دو روش را نیز برطرف می کند. همانطور که پیش از این گفته شد، روش بازخورد ربط به طور پایه با استفاده از الگوریتم rocchio پیاده سازی شده و موثرترین عملکرد خود را در اولین تکرار دارد. یکی از مشکلات این روش برای هماهنگی با موتورهای جستجوی فعلی انتخاب کلمات مناسب است. در این پایان نامه در مرحله ی بازخورد از کابران خواسته می شود تا ? سند را به عنوان اسناد مرتبط از بین نتایج حاصل از جستجوی درخواست اولیه انتخاب کنند. این اسناد به پنجره هایی دارای همپوشانی تجزیه شده و ماتریس حاصل به عنوان ورودی به تکنیک lsa سپرده می شود. یکی از مشکلات روش lsa زمانبر بودن آن است که در اینجا با کوچک شدن ورودی این مشکل دیگر مطرح نیست. با انتخاب اسناد مرتبط در واقع کاربر متنی (context) را برای بیان معنی کلماتی که در درخواست اولیه ارائه کرده است، مشخص می نماید. با سپردن داده های حاصل از این مرحله به lsa در واقع سعی می کنیم هر کلمه ی درخواست را معنی کنیم. به این ترتیب که کلمات مرتبط (هم معنی در متن مشخص شده) با هر کلمه ی درخواست را از متن حاصل از مرحله ی بازخورد، استخراج می نماییم. برای تعیین کلمات هم معنی در این فضا، آنها را در این فضای جدید که فضای معانی یا عناوین نامیده می شود، خوشه بندی می کنیم. برای این کار از سه روش که هریک را پیش از این به تفصیل شرح داده ایم استفاده شده است. 1- هر یک از ابعاد در فضای جدید نماینده ی یک عنوان هستند . هر کلمه را به عنوانی اختصاص می دهیم که بیشترین اهمیت را در آن topic دارد. 2- روش خوشه بندی k-means 3- روش خوشه بندی hierarchical سپس از بین کلمات موجود در خوشه هایی که کلمات درخواست اولیه در آن کلاسترها قرار دارند، آنهایی را که در تعداد بیشتری از عناصر داده ای تکرار شده اند انتخاب کرده و درخواست را با استفاده از آنها توسعه می دهیم . مجموعه ی درخواستهای تولید شده توسط هر یک از روشهای مطرح شده ی بالا در پاسخ به درخواستهای مجموعه ی تست در موتور جستجوی گوگل توسط کاربران ارزیابی شده و با نتایج حالت اولیه و روش rocchio مقایسه شده اند. این مقایسه بر اساس میانگین معیار bpref روی مجموعه ی تست و محاسبه ی سطح معنی داری برای تفاوت میانگینها انجام شده است. هر سه روش پیشنهاد شده در میانگین بهبودهایی را نسبت به حالت اولیه و rocchio نشان می دهند روشهای اول و دوم آزمون معنی داری آماری را برای تفاوتشان با حالت اولیه و الگوریتم rocchio با موفقیت می گذرانند، ولی روش سوم خیر. به این ترتیب روی مجموعه تست ما و در یک شرایط واقعی روشهای اول و دوم پیشنهادی به میزان قابل توجهی رضایت کابران را افزایش می دهند و روش اول بهترین عملکرد را دارد. این بهبود عملکرد نتیجه ی دو رخداد است. یکی افزایش تعداد اسناد مرتبط نمایش داده شده و دیگری رتبه بندی (رنکینگ) آنها در موقعیتی بالاتر از اسناد نامرتبط. اگر به مثالهای نمایش داده شده در بخش پیش دقت شود روشن است که کلمات انتخاب شده توسط روش اول، کلماتی تخصصی تر و دقیقتر هستند و همانطور که نتایج مشخص می کنند منجر به نتایج دقیقتری نیز می شوند. علت این امر این است که این کلمات بر اساس ارتباط مفهومیشان با کلمات درخواست در متن (context) مشخص شده توسط اسناد مرتبط انتخاب می شوند و نه صرفا بر اساس وزنشان در مجموعه ی کلمات. به عبارت دیگر ممکن است کلمه ای که بیشترین وزن را دارد به دلیل عدم ارتباط مفهومی با کلمات کلیدی انتخاب نشود.
ملیحه شبان زاده مرتضی زاهدی
گیاهان از پرکاربردترین منابع برای انسان ها در زمینه های مختلف محسوب می شوند، لذا تمایز بین گونه های گیاهی امری مهم بوده و از آن به عنوان سیستم تشخیص گیاه یاد می شود. تاکنون این وظیفه توسط گیاه شناسان خبره صورت می گرفت که امری طاقت فرسا و زمانبر در کنار نقصان حافظه و خطای انسانی محسوب می شد لذا محققان کوشیدند با استفاده از الگوریتم های هوش مصنوعی معایب مذکور را رفع نمایند. از آنجا که بررسی های گیاه شناسی، برگ گیاه را برای تشخیص نوع گونه کافی و لازم می داند، می توان فقط با تصویر برداری از برگ و سپس استخراج مشخصه مناسب به نتایج دلخواه دست یافت. در حالت کلی مشخصه های مفید یک برگ در سه دسته جداگانه قرار می گیرند. دسته اول مشخصات عمومی برگ شامل ابعاد برگ، اندازه حفره و یا مساحت برگ، دسته دوم مشخصات محلی شامل بافت یا ساختار رگبرگ ها و در نهایت دسته سوم حاوی ویژگیهای دندانه برگ می باشد. موارد فوق در مقالات مختلف آزموده شده است ولی کارایی آنها محدود به فرضیات مقاله، برای گونه های خاص و در شرایط کاملا ایده آل می باشد. لذا در این پژوهش، علاوه بر تعریف مشخصه های مفید در هر دسته، پیشنهاد می گردد که مشخصه های سه دسته فوق ترکیب شده و سیستمی برای تشخیص شمار زیادی از گونه های گیاهی ارائه دهیم. لازم بذکر است که در این پژوهش 6 مشخصه محلی مبتنی بر بافت توسط محاسبات کاملا ریاضی استخراج می شود که بایستی آنها را بر روی قطعه میانی از برگ (بدون وجود رگبرگ اصلی و دندانه) اعمال نمود. برای دسته عمومی نیز 4 مشخصه که برگرفته از مقالات اخیر سایر محققین بوده اند محاسبه می گردد و برای دسته دندانه برگ نیز روشی کاملا بدیع با استفاده از تبدیل موجک ارائه شده است که به استخراج 4 مشخصه دیگر ختم خواهد شد. در مجموع بردار مشخصه حاوی 14 عنصر تشکیل خواهد شد که با استفاده از الگوریتم k-نزدیکترین همسایه آنها را دسته بندی می نماییم. نتایج به دست آمده گواه عملکرد صحیح برای شمار زیادی از گونه ها و در شرایط مختلف نظیر آفت، تغییر فصول و نورپردازی می باشد.
احمد صادقی قراملکی حمید حسن پور
در علم دندانپزشکی پوسیدگیهای دندان به دو دسته پوسیدگیهای اولیه و ثانویه تقسیم بندی می شوند. پوسیدگیهای اولیه با چشم قابل مشاهده بوده و برای تشخیص آن نیاز به ابزار خاصی نیست ولی از آنجایی که پوسیدگیهای ثانویه در زیر دندانهای ترمیمی روی می دهد با چشم قابل مشاهده نبوده و برای تشخیص این نوع پوسیدگی از تصاویر رادیوگرافی دندان استفاده می شود. در تصاویر رادیوگرافی دندان پوسیدگیهای ثانویه به صورت نواحی رادیولوسنت(تیره) دیده می شوند زیرا پوسیدگی موجب از بین رفتن مواد معدنی دندانها شده و باعث تغییر رنگ مینای دندان می شود. در این نوع تصاویر نواحی دیگری نیز به صورت رادیولوسنت ظاهر می شوند که پوسیدگی نبوده و مربوط به یک خطای نوری موسوم به پدیده اثر مَچ باند می باشند. این پدیده در اثر اختلاف میزان روشنایی دو ناحیه از یک تصویر روی می دهد که در دندانهای ترمیمی نیز به دلیل اختلاف روشنایی ناحیه ترمیمی با مینای دندان این پدیده رخ می دهد. بدلیل شباهت پوسیدگی ثانویه با اثر مَچ باند از نظر وجود ناحیه رادیولوسنت، ممکن است دندانپزشک دچار اشتباه شده و دندان دارای مچ باند را پوسیدگی تشخیص دهد که در این حالت به دندان بیمار آسیب وارد می شود. بنابراین ارائه روشی دقیق برای شناسایی اثر مَچ باند ضروری است. در این پایان نامه یک روش دو مرحله ای برای تشخیص اثر مَچ باند در تصاویر رادیوگرافی دندان ارائه شده است که مرحله اول شامل جدا کردن دندان های دارای پوسیدگی ثانویه می باشد. سطوح خاکستری نواحی رادیولوسنت در تصاویر رادیوگرافی، در هیستوگرام تصویر نیز به وضوح قابل مشاهده است براین اساس در مرحله اول با اعمال یک حد آستانه بر مساحت زیر نمودار تجمعی هیستوگرام دندانهای دارای پوسیدگی ثانویه تشخیص داده می شوند. در مرحله دوم دندانهای دارای اثر مَچ باند از سایر دندانها تشخیص داده می شوند. در این مرحله نیز از آنجایی که پدیده مَچ باند بدلیل اختلاف میزان روشنایی دو ناحیه در تصویر روی داده و شدت آن به میزان اختلاف روشنایی بستگی دارد، ابتدا با استفاده از تبدیل لاپلاس اختلاف روشنایی دو ناحیه محاسبه شده و سپس با اعمال یک حد آستانه بر هیستوگرام تبدیل لاپلاس دندانهای دارای اثر مَچ باند از سایر دندانها جدا می شوند. روش ارائه شده،بر روی 100 تصویر دندان ترمیمی اعمال شده است. نتایج حاصله نشان می دهد که روش ارائه شده دارای دقت 82 درصد در تشخیص دندانهای دارای پوسیدگی ثانویه و 78 درصد در تشخیص مَچ باند می باشد.
حمزه هدهدکیان مرتضی زاهدی
به طور کلی، روش های ارائه شده جهت استخراج خودکار کلمات کلیدی، سعی در بدست آوردن نتایج بهتر در معیارهایی مانند بازخوانی و دقت دارند. اگرچه این معیارها، میزان کارایی روش استخراج کلمات کلیدی در نقش یک انسان را نشان می دهد اما با توجه به نقش غیرقابل انکار موتورهای جستجو در دنیای امروز، به نظر می رسد که در انتخاب کلمات کلیدی علاوه بر توجه به معیارهای رایج بازیابی اطلاعات باید به افزایش میزان دسترسی پذیری متن توسط موتورهای جستجو نیز توجه ویژه ای شود. در این تحقیق روشی جدید برای استخراج خودکار کلمات کلیدی ارائه شده است که همزمان با افزایش دسترسی پذیری متن، امتیاز مناسبی در معیارهای بازخوانی و دقت نیز کسب می کند. روش ارائه برای استخراج کلمات کلیدی از دو تابع امتیاز دهی استفاده می کند: تابع امتیاز دهی به کلمات کلیدی و تابع ارزیابی میزان دسترسی پذیری. تابع اول سعی در بالا بردن بازخوانی و دقت دارد در حالیکه تابع دوم در طول فرایند آموزش با استفاده از الگوریتم ژنتیک و بازخوردهای موتورهای جستجو به بهینه سازی ضرایب خصوصیات درتابع اول می پردازد. همچنین در این پروژه با بهره گیری از کلمات برجسته ساز، فرایند پس پردازشی ارائه شده که با گزینش نهایی کلمات کلیدی از میان لیست کلمات کاندید، منجر به بهبود کارایی روش در معیار دقت می شود. آزمایشات نشان می دهد که با به کارگیری تعداد تکرار مناسب در طی فرایند آموزش و ایجاد موازنه منطقی در کسب هریک از سه معیار یاد شده می توان به نتایج مطلوبی در هر سه معیار دست یافت.
حسین دهقان حمید حسن پور
بیماری آلزایمر یک بیماری تخریب کننده نرونی در دوران میان سالی و پیری است که باعث نابودی نورون ها و سیناپس ها و کاهش حافظه بیمار می گردد. برای بیماری آلزایمر درمان شناخته شده ای وجود ندارد ولی با شناخت زود هنگام این بیماری، می توان پیشرفت آن را کند نگه داشت. روش تصویربرداری توموگرافی انتشار پوزیترون (pet) بدلیل قابلیت تشخیص متابولیسم و عملکرد مغز، در تشخیص بیماری آلزایمر می تواند بهتر از روش های ساختاری متداول، مانند تصویربرداری تشدید مغناطیسی (mri)، عمل نماید. در این پایان نامه؛ به کمک هیستوگرام محلی شدت وکسل ها و ماتریس هم رخداد نواحی مختلف تصاویر عملکردی pet مغز، ویژگی های موثرتر جهت تفکیک بهتر بیماران آلزایمر و افراد سالم مشخص می گردد. علاوه بر این، در این تحقیق ویژگی جدیدی ارائه می گردد که می تواند با درصد تشخیص بالاتری نسبت به ویژگی های آماری و بافتی استخراج شده از هیستوگرام محلی شدت وکسل ها، افراد سالم را از بیماران آلزایمر تفکیک نماید. همچنین در این تحقیق نشان می دهیم که در تصاویر pet، اطلس هاروارد-آکسفورد اطلاعات مفیدتری نسبت به اطلس پرکاربرد aal در اختیار سیستم های تشخیص بیماری آلزایمر قرار می دهد. ارزیابی های اولیه این تحقیق نشان می دهد که به کمک ویژگی های آماری و بافتی حاصل از هیستوگرام شدت و ماتریس هم رخداد نواحی مختلف مغز، می توان با درصد تشخیص بین 72.9% و 88%، بیماران آلزایمر را از افراد سالم تفکیک نمود. جهت ترکیب روش های مبتنی بر ویژگی های مختلف نواحی مغز افراد، روش جدیدی براساس دسته بندی داده ها به کمک منطق فازی برای تشخیص بیماری آلزایمر ارائه شده است. دسته بندی بیماران و افراد سالم براساس قوانین if-then فازی می باشد. برای ایجاد مجموعه قوانین فازی، توابع عضویت و پارامترهای توابع عضویت از الگوریتم پیشنهادی ترکیبی جهش قورباغه ها و ژنتیک استفاده شده است. نتایج حاصل نشان می دهد که روش پیشنهادی مبتنی بر منطق فازی می تواند با درصد تشخیص 93.33%، افراد سالم را از بیماران آلزایمر جدا نماید.
منصور پاکدل حمید حسن پور
نویز تناوبی از جمله نویزهایی است که باعث تخریب تصویر شده و ارائه راه کاری مناسب جهت حذف آن ضروری است. اکثر محققان جهت حذف این نویز از حوزه فرکانس تصویر استفاده نموده اند که دلیل آن واضح بودن مولفه های نویز تناوبی در این حوزه می باشد. مشکلی که اکثر تکنیک های ارائه شده دارند این است که حاشیه های اطراف تصویر بعد از اعمال تکنیک حذف نویز همچنان به صورت نویزدار باقی می ماند و همینطور اگر نویز تناوبی دارای فرکانس کمی باشد تشخیص پارامترهای نویز در حوزه فرکانس بسیار مشکل خواهد بود و عملاً حذف آن ممکن نخواهد بود. مشکل دیگر تکنیک های بررسی شده تعیین پارامترهای اولیه هر تکنیک می باشد که نیاز به تجربه در این زمینه دارد. در این پایان نامه، یک روش جدید جهت تشخیص خودکار نویز تناوبی توسط تکنیک همبستگی متقابل ارائه شده است و سیستم با دریافت تصویر توانائی تشخیص نوع نویز تناوبی را دارد. جهت حذف نویز تناوبی در حوزه فرکانس دو مرحله لازم است که مرحله اول تشخیص خودکار مولفه های نویز در این حوزه است که به صورت خودکار این مرحله در حوزه فرکانس انجام می گردد و در مرحله دوم برای حذف نویز تناوبی، مقادیر نویز در حوزه فرکانس با پیش بینی داده ها توسط سریهای زمانی انجام می گردد. نتایج بیانگر این موضوع است که این روش مانند روش های فیلتر میانه رد برش گوسی، فیلتر میانه گوسی، فیلتر میانه و فیلتر میانگین پارامترهای زیادی ندارد و حاشیه های تصویر بعد از حذف نویز نسبت به روش های ذکر شده کمتر، نویزی می باشد. روش دومی نیز جهت حذف نویز تناوبی ارائه گردیده است که نیاز به حوزه فرکانس نمی باشد بلکه از سیگنال های تصویر اصلی جهت حذف نویز استفاده شده، به این ترتیب که فرکانس های نویز تناوبی در راستای سطر و ستون و دامنه آن از یک سطر و یک ستون دلخواه از تصویر دارای نویز تناوبی، استخراج می گردد نتایج این روش کاملاً باعث حذف نویز تناوبی از تصاویر می گردد.
علیرضا مانشتی مرتضی زاهدی
تشخیص زبان اشاره توسط رایانه در حوزه های مختلف هنوز یک چالش محسوب می شود. یکی از مهمترین مشکلات در این حوزه قطعه بندی دست، به خصوص در پس زمینه های پیچیده است. با ارائه دوربین های عمقی به خصوص سنسور کینکت، عمق پیکسل های تصویر نیز در دسترس می باشد که می تواند در قطعه بندی تصویر دست بسیار مفید باشد. در این تحقیق یک سیستم بلادرنگ تشخیص هجی انگشتی حروف الفبای زبان اشاره آمریکایی بر مبنای قطعه بندی عمقی دست از طریق سنسور کینکت ارائه شده است. تعداد 26 ویژگی هندسی از تصاویر قطعه بندی شده دست پس از چندین مرحله پیش پردازش استخراج و پس از تحلیل ویژگی ها توسط lda، توسط دسته بند بیِز دسته بندی شده اند. ویژگی های استخراج شده شامل 19 ویژگی بر حسب moment ها و 7 ویژگی بر حسب لبه بیرونی دست قطعه بندی شده می باشند. مراحل پیش پردازش نیز شامل آستانه گیری تصویر عمقی برای قطعه بندی دست جهت ایجاد ماسک، حذف نویز ماسک بدست آمده، جابجایی و تغییر اندازه آن می باشد. قطعه بندی تصویر رنگی و عمقی توسط اطلاعات عمقی سنسور کینکت و ارائه ویژگی ها و سیستم بلادرنگ مناسبی جهت دسته بندی بهینه داده های بدست آمده دستاورد اصلی این تحقیق می باشد. نتایج مختلفی با اعتبارسنجی ضربدری ارائه شده است که برتری این روش را نسبت به شش روش مشابه قبلی نشان می دهد. استفاده از یک پایگاه داده استاندارد با بیش از 54000 نمونه در پنج اجرا مختلف توسط چهار فرد، اعتبار نتایج بدست آمده را تضمین نموده است. نتایج مختلفی بر حسب انتخاب های مختلفی از پایگاه داده برای 24 حرف الفبا ارائه شده است که از 78.29% برای کل پایگاه داده شامل پنج اجرا کننده و 450 نمونه از حروف به ازای هر فرد تا 99.75% برای یک اجرا کننده با 100 نمونه برای هر حرف را شامل می شود. بررسی سرعت پردازش ورودی ها بر روی یک پردازنده core i7 لپ تاپ، بلادرنگ بودن سیستم با حداقل 38 فریم بر ثانیه در حالت تک نخه و 245 فریم بر ثانیه در حالت چند نخه را نشان می دهد. همچنین در تحلیل و اعتبار سنجی داده ها و نتایج نیز مشخص شده است که استفاده از lda و ویژگی های ترکیبی حاصل از اعمال ماسک عمقی بر روی تصاویر قطعه بندی شده عمقی و رنگی بهترین نتیجه را در سیستم ارائه نموده و در صورت تصادفی کردن داده ها و اعمال آموزش برای هرفرد جدید قبل از استفاده از سیستم، بهبود چشم گیری در نتایج بدست آمده حاصل می شود.
حمید حسن پور حبیب الله سمیع زاده لاهیجی
با وجود سطح زیر کشت گسترده ذغال اخته در شمال غرب ایران، توجه چندانی از حیث به نژادی، بهره وری باغبانی و اقتصادی به این ریز میوه نشده است. به منظور ارزیابی ذغال اخته های منطقه ارسباران استان آذربایجان شرقی، تنوع ژنتیکی با استفاده از نشانگرهای مورفولوژیکی و مولکولی issr مورد بررسی قرار گرفت. نتایج حاصل از تجزیه واریانس صفات مورفولوژی نشان داد که تفاوت معنی دار در سطح احتمال 1 درصد در همه صفات اندازه گیری شده وجود دارد. با توجه به خصوصیات میوه ازجمله وزن میوه، وزن گوشت و.. می توان گفت که دو نمونه c26 و c37 دارای ارزش بالاتری نسبت به بقیه نمونه های ذغال اخته مورد مطالعه هستند. بیشترین ضریب همبستگی مثبت بین وزن میوه با وزن گوشت میوه (99/0) بدست آمد. تجزیه خوشه ای به روش complete، نمونه های ذغال اخته مورد مطالعه را در پنج گروه مجزا قرار داد که به ترتیب 35، 10، 22، 8 و 25 نمونه در گروه ها قرار گرفت. صحت گروه بندی حاصل از تجزیه خوشه ای با تابع تشخیص کانونی به روش خطی فیشر 79 درصد بود. براساس مولفه های اصلی پس از چرخش وریماکس شش عامل را که در مجموع 1/78 درصد از تغییرات بین صفات را توجیه نمودند، استخراج شدند. با استفاده از 20 آغازگر تعداد 171 باند چندشکل به دست آمد که از بین آغازگرهای مورد استفاده، آغازگرهای ubc810، ubc829 و ubc837 با تعداد 12 باند بیشترین تعداد باند و آغازگرهای ubc827 و ubc838 با تعداد 6 باند کمترین تعداد باند را ایجاد نمودند. pic آغازگرها بین 311/0 تا 49/0 و mi آنها از 99/1 تا 83/5 متغیر بود. تجزیه به مختصات اصلی نشان داد که سه مولفه اول توانستند مجموعا 6/10 درصد از واریانس کل را توجیه کنند. تجزیه خوشه ای به روش complete، 100 نمونه ذغال اخته مورد مطالعه را در هفت گروه قرار داد که به ترتیب شامل 6، 8، 23، 21، 8، 21 و 13 نمونه بودند. صحت گروه بندی حاصل از تجزیه خوشه ای توسط تابع تشخیص کانونی به روش خطی فیشر با 97 درصد تائید شد. بطور کلی نتایج نشان داد که سطح بالایی از چندشکلی در میان نمونه های ذغال اخته منطقه ارسباران استان آذربایجان شرقی وجود دارد و می توان از این ذغال اخته ها برای کارهای اصلاحی و معرفی یک ژنوتیپ برتر استفاده نمود. نتایج مطالعات بیوشیمیایی روی ژنوتیپ های برتر انتخاب شده از لحاظ مطالعات مورفولوژیکی نشان داد که مقدار فنل کل در محدوده 19/1097 تا 75/2695 میلی گرم گالیک اسید در هر 100 گرم بافت میوه بر اساس وزن تر بوده و محتوی فلاونوئید کل در محدوده 27/321 تا 669 میلی گرم کاتچین در هر 100 گرم بر اساس وزن تر است. همچنین مشخص گردید که محتوی آنتوسیانین کل در ژنوتیپ های ذغال اخته مورد بررسی در محدود 89/106 تا 11/442 میلی گرم وزن تر بر اساس سیانیدین 3- گلوکوزاید بوده و مقدار ویتامین ث در محدوده 25/183 تا 5/299 میلی گرم در هر 100 گرم بر اساس وزن تر است. همچنین نتایج نشان داد که بالاترین فعالیت آنتی اکسیدانتی مربوط به ژنوتیپ c24 (37/82 %) می باشد. مطالعه بیوشیمیایی حاضر اثبات کرد که ژنوتیپ های c24 و c27 پتاسیل بالای برای بهبود ارزش غذایی از طریق برنامه های اصلاحی دارند.
عذرا رستمی قادی حمید حسن پور
کیفیت تصاویر در زمینه های مختلف کاربردی از جمله تصاویر پزشکی، تصاویر ماهواره ای، تصاویر صنعتی و تصاویر بیومتریکی، از اهمیت ویژه ای برخوردار است. بر این اساس، استفاده از روش های مختلف بهسازی تصویر در داشتن تصاویری با کیفیت بالاتر، ضروری به نظر می رسد. در این پایان نامه، پیشنهاد جدیدی برای چگونگی بهبود کیفیت تصویر ارائه شده است و در آن نگرش جدیدی در مورد نحوه اعمال روش های بهسازی بر روی تصاویر مطرح شده است. هنگام تهیه یک تصویر ویژگی هایی مانند شدت روشنایی صحنه و قابلیت بازتابش اجسام بر تصویر حاصل، تاثیر می-گذارند. اثر هر یک از این ویژگی ها بر تصویر حاصل را می توان به کمک فیلتر همومورفیک به عنوان یک مولفه یا تصویر جداگانه ای در نظر گرفت و مورد بررسی قرار داد. به طور کلی، پیکسل های یک تصویر به گونه ای مقدار می گیرند که متناسب با شدت روشنایی نقطه مربوطه در صحنه و قابلیت انعکاسی آن نقطه از جسم می باشند. بر این اساس، در این پایان نامه نشان داده می شود که خرابی یک تصویر ممکن است ناشی از هر یک از مولفه های شدت روشنایی و یا قابلیت انعکاسی باشد و انواع مختلف خرابی تصویر، روی مولفه شدت روشنایی و مولفه بازتابش تصویر تاثیر متفاوتی می گذارند. برخلاف روش های معمول که به ازای هر نوع خرابی، فرایند بهسازی و اصلاح را روی تصویر اصلی انجام می دهند، در این پایان نامه، بهسازی باتوجه به نوع خرابی بر روی مولفه های تصویر انجام می گیرد. با توجه به نتایج بدست آمده و مقایسه ی آن ها با نتایج روش های بهسازی موجود، می توان به صراحت بیان کرد که بهسازی تصویر بر اساس روش ارائه شده، نتایج مطلوب تری نسبت به بهسازی مستقیم تصویر اصلی با روش های موجود دارد.
ابوالفضل سرکرده یی علی اکبر پویان
با افزایش روزافزون بدافزارهای جدید و ناشناخته و همچنین استفاده از تکنیک های پنهان سازی در بدافزارها ارایه روش هایی جدید جهت شناسایی آن ها بسیار احساس می شود. در آنتی ویروس های تجاری از ترکیب روش های مبتنی بر علامت های هویتی و همچنین روش های مبتنی بر یادگیری جهت شناسایی بدافزارها استفاده می شود. با این وجود به دلیل مناسب نبودن روش های مبتنی بر یادگیری موجود درآنتی ویروس ها جهت تشخیص بدافزارهای جدید، این نرم افزارها برای تشخیص بدافزار بسیار به بروز بودن پایگاه داده وابسته هستند. در نتیجه امروزه بهبود روش های مبتنی بر یادگیری و ارایه روش های جدید در این زمینه بخش اصلی تحقیقات در تشخیص بدافزار را تشکیل می دهد. شناسایی فایل های اجرایی آلوده شده با کدهای مخرب یکی از اصلی ترین کارهای یک آنتی ویروس می باشد. که برای تشخیص کدهای مخرب ناشناخته و جدید از روش های مبتنی بر یادگیری استفاده می شود. هدف از انجام این پایان نامه تلاش جهت بدست آوردن یک الگوی سیگنالی از فایل های اجرایی می باشد تا بتوان با استفاده از آن الگو و تکنیک های پردازش سیگنال یک روش تشخیص فایل های اجرایی آلوده ارایه کرد.برای این کار ابتدا به بررسی روش های مختلف تحلیل فایل اجراییپرداخته و سپس روش مناسبی که از تحلیل قسمت منبع فایل اجرایی بدست می آید معرفی می شود. جهت اثبات کارا بودن روش معرفی شده، براساس آن یک بردار ویژگی 256 تایی از تکرار ترکیب بایت ها در قسمت آخر فایل اجرایی بدست می آید و با استفاده از تکنیک های دسته بندی متن روشی جهت تشخیص فایل اجرایی آلوده جدید، بادقت 99.10 درصد ارایه می شود.
علی قنبری سرخی حمید حسن پور
تحلیل و بررسی حرکات و رفتار انسان در حوزه های مختلف علمی همواره مورد توجه بسیاری از محقیقن بوده است. هدف از طراحی چنین سیستم هایی درک رفتار انسان از طریق توالی تصاویر ویدئویی است. تحلیل حرکات انسان از جنبه های متفاوتی از قبیل مقداردهی اولیه توالی تصاویر، ردیابی، بازیابی و شناسایی حرکات انسان قابل بررسی می باشد. ردیابی به عنوان یکی از مهمترین مراحل در مبحث تحلیل رفتار است که عموما از طریق شبکه ای از دوربین ها که ناحیه وسیعی را تحت پوشش قرار می دهند، انجام می شود. جهت کاهش هزینه در چنین مواردی از دوربین هایی با دید مجزا استفاده می شود. اما ویژگی هایی مانند ظاهر افراد، شرایط نوری محیط، موقعیت افراد نسبت به دوربین و زاویه ی دید نتایچ حاصله از چنین شبکه هایی را با خطا همراه می سازد. در این پایان نامه راهکاری جهت ردیابی افراد در شبکه ای از دوربین ها با دید گسسته ارائه شده است. فرآیند ردیابی طی دو مرحله شناسایی و ردیابی افراد در درون ناحیه دید یک دوربین و انطباق بین افراد در سایر دوربین ها انجام گرفته است. پس از اعمال پیش پردازش های لازم و حذف قسمت های زائد سه ویژگی کلی مبتی بر حرکت، مدل هندسی و ظاهر افراد مورد بررسی قرار گرفته و نقاط قوت و ضعف هریک به تفصیل ارائه شده است. با توجه به عدم ارائه نتایج مناسب توسط روش های مبتنی بر حرکت و مدل هندسی از هیستوگرام رنگ افراد به عنوان مهمترین ویژگی استخراج شده از ظاهر افراد استفاده شده است. هیستوگرام رنگ به دلیل سادگی و سرعت بالا جهت استفاده در این نوع از سیستم ها بسیار مناسب می باشد اما در محیط هایی با شدت روشنایی متفاوت و تغییر در اندازه افراد با مشکلاتی روبرو می شود. به همین منظور از تابع انتقال روشنایی تجمعی برای کاهش تغییرات روشنایی محیط در هنگام عبور افراد در بین دوربین ها استفاده شده است. جهت ردیابی با استفاده از ویژگی رنگ، بر اساس اندازه نسبی قسمت های مختلف بدن، بدن افراد به سه قسمت سر، نیم تنه و پایین تنه تقسیم شده است. این روش تحت تاثیر انداره افراد قرار نمی گیرد و زمانی که افراد نسبت به دوربین دور یا نزدیک می شوند بدن به درستی تقسیم بندی می شود. روش دیگری که در پایان نامه حاضر جهت استخراج ویژگی های لازم مورد استفاده قرار گرفته، روش تجزیه و تحلیل مولفه های اصلی قوی فازی غیرخطی می باشد. ویژگی های معرفی شده توسط این روش را نمی توان همیشه در ورود و خروج افراد استفاده نمود زیرا هر یک از ویژگی ها در موقعیت های متفاوت محیطی نتایج متفاوتی را نشان می دهند. به همین منظور، با استفاده از سیستم فازی محیط تحت نظارت به شش قسمت فاصله نزدیک رو/پشت به دوربین، متوسط رو/پشت به دوربین و دور رو/پشت نسبت به دوربین تقسیم شد. به منظور ارزیابی عمکلرد سیستم پیشنهادی آزمایشات بر روی مجموعه استخراج شده از آزمایشگاهای در کشور ایتالیا، پیاده سازی شده است. نتایج بدست آمده از روش پیشنهادی نشان دهنده عملکرد بهتر در محیط رنگی ycbcr نسبت به کارهای پیشین می باشد. کلمات کلیدی: ردیابی افراد، شبکه ای از دوربین ها، زاویه دید مجزا، مدل ظاهری، هیستوگرام، فاصله نسبی بدن انسان، سیستم فازی، تابع انتقال روشنایی تجمعی، تجزیه و تحلیل مولفه های اصلی قوی فازی غیرخطی.
سمیرا خدابخشی سورشجانی حمید حسن پور
تحلیل تصویر یکی از تکنیک های پردازش تصویر می باشد که هدف آن استخراج ویژگی ها یا اطلاعات از تصویر می باشد. تحلیل تصاویر در علم پزشکی از جایگاه ویژه ایی برخوردار است به این دلیل که مبنایی جهت تشخیص بیماری برای پزشک می باشد. علاوه بر روش های تصویربرداری که برای تشخیص بیماری از بخش های مختلف بدن بیمار تصاویری تهیه می شود، در برخی مواقع لازم است که جهت تشخیص بیماری از خون بیمار استفاده شود. به منظور تفکیک اجزای خون از دستگاهی به نام الکتروفورز استفاده می شود. الکتروفورز فرایند حرکت ذرات در داخل مایعی تحت تأثیر یک میدان الکتریکی یکنواخت است. الکتروفورز پروتئین سرم خون و الکتروفورز هموگلوبین خون جزء مهم ترین تست های آزمایشگاهی هستند که امروزه به طور وسیع در آزمایشگاه های تشخیص طبی، به منظور تشخیص برخی بیماری های خونی استفاده می شوند. تصاویر حاصل از الکتروفورز توسط نرم افزارهای تحلیل تصاویر الکتروفورز و با دخالت هماتولوژیست تحلیل می شوند. مهم ترین بخش تحلیل، تعیین نقاط جداکننده باندها می باشد که این کار به طور دستی انجام می شود. علاوه بر این موقعیت منحنی لین ها نیز توسط هماتولوژیست جابجا می شود. بنابراین نرم افزارهای الکتروفورز به طور اتوماتیک قادر به شناسایی نقاط جداکننده باندها نیستند. در این صورت احتمال بروز اشتباه به دلیل خطای انسانی وجود دارد. در این پایان نامه به منظور شناسایی اتوماتیک موقعیت باندها در تصاویر الکتروفورز، الگوریتمی ارائه شده است که شامل مراحل پیش پردازش، استخراج لین و تحلیل لین می باشد. در مرحله پیش پردازش با محاسبه میزان تغییرات در پروفایل عمودی تصویر الکتروفورز، محدوده لین ها شناسایی و استخراج می شوند. در مرحله استخراج لین، با تعیین حد آستانه مناسب با استفاده از روش اتسو فرایند استخراج انجام می گیرد. در مرحله تحلیل لین پس از بهبود کنتراست با روش کشش هیستوگرام، موقعیت خطوط جداکننده تعیین می شود. سپس با در نظر گرفتن فاصله نسبی باندها نسبت به یکدیگر، موقعیت بهینه خطوط جداکننده محاسبه می شود. با تعیین موقعیت خطوط جداکننده محدوده باندها مشخص می شود و مقدارآن ها تعیین می گردد. الگوریتم پیشنهادی بر روی تصاویر الکتروفورز جمع آوری شده از آزمایشگاه های تشخیص طبی شهرستان های شهرکرد، اصفهان و شاهرود اعمال شد. با مقایسه نتایج الگوریتم و نتایج ارائه شده توسط آزمایشگاه نرخ تشخیصی در حدود %75.6 به دست آمده است.
سیما رشیدی مرتضی زاهدی
هر گونه پنهان سازی داده ها در درون یک محصول دیجیتال، مثل صدا، تصویر و ویدئو را به منظور دستیابی به اهدافی همچون حفظ حقوق مالک، ردیابی نسخه های غیرمجاز، جلوگیری از نسخه برداری غیرمجاز و ...، الگوگذاری می نامند. روشهای مختلف الگوگذاری در تصاویر، در حوزه های مختلفی تعریف شده اند. پرکاربردترین این حوزه ها، تبدیل کسینوس گسسته و تبدیل موجک گسسته هستند. در این پایان نامه به معرفی این دو تبدیل و بررسی چند روش مطرح الگوگذاری که در این حوزه ها فعالیت می نمایند، خواهیم پرداخت. همچنین یک روش جدید الگوگذاری در حوزه ی تبدیل موجک گسسته معرفی خواهد شد. در این روش، الگو در درون ضرایب تبدیل موجکِ زیر تصویرهایی انتخابی از تصویر میزبان با استفاده از تکنیک تجزیه نقاط منفرد و تغییر نقاط منفرد تصویر اصلی و جایگزینی آن ها با مقادیر منفرد تصویر الگو، درج می شود. علاوه بر آن یک روش مقاوم در برابر خرابی های ناشی از حملات هندسی بر روی تصویر ارائه کرده ایم که برای بازیابی تصویر خراب شده از نقاط مشخصه تصویر اصلی استفاده می نماید در این روش برای شناسایی نقاط مشخصه از تکنیک sift استفاده می کند. با این کار خطاهای همزمانی ناشی از حملات هندسی که جزء خطاهای رایج است، کاهش می یابند. فرایند درج الگو در حوزه تبدیل موجک گسسته بر روی هر زیر تصویر انجام می شود.در فرایند تشخیص الگو، تصویر ورودی بر اساس نقاط مشخصه ی ذخیره شده از مرحله درج الگو، بازیابی میگردد و سپس الگو از آن استخراج می شود. تشخیص نهایی الگو، نیز بر پایه تعداد بیت های منطبق شده بین الگوی استخراج شده و الگوی اصلی انجام می شود. و در نهایت با دو معیار ارزیابی شامل میزان شباهت تصویر اصلی و تصویر الگوگذاری شده و دوم میزان همبستگی نرمال شده برای بررسی میزان مقاومت روش الگوگذاری در برابر حملات هندسی، روش ارائه شده را مورد ارزیابی قرار می دهیم. نتایج عملی حاصل شده از این روش بیانگر مقاومت بالای آن در مقابل حملات هندسی و پردازش های تصویر رایج است.
ملیکا یعقوبی حمید حسن پور
رشد روز افزون و گسترش چشمگیر تعداد وب سایت ها و حجم بالای داده های موجود در اینترنت، یکی از چالش هایی است که دهکده جهانی وب با وجود مزایای بیشمارش برای انسان به همراه آورده است. از طرف دیگر، امروزه نیاز و تمایل برای کسب دقیق و به موقع اطلاعات پیرامون حوادث جاری، به منزله برنامه ریزی جهت گذران زندگی، چه در سطح شخصی و چه در سطح سازمانی و سیاسی از اهمیت بسیار بالایی برخوردار است. سرعت بالای گسترش اخبار در اینترنت و عدم امکان کنترل آنها پس از انتشار، افزایش چشمگیر منابع خبری و حجم بالای اخبار منتشر شده در موضوعات و فیلدهای مختلف، امکان پیگیری مداوم اخبار به صورت دستی را غیر ممکن نموده است. این حجم بالا نه تنها در بدست آوردن اطلاعات مورد نیاز به کاربران کمک نمی کند، بلکه باعث سردرگمی و ابهام بیشتر آن ها نیز می گردد، تا آنجا که نیاز به سیستمی برای مدیریت و در نهایت متمایز ساختن اسناد خبری از یکدیگر و دسته بندی آن ها در گروه های متشابه در این بستر به چشم می خورد. در این پروژه برای رفع این معضل، از تلفیق روش های وب کاوی و دسته بندی داده های متنی برای مدیریت بهینه اسناد خبری بهره گرفته شده است. قسمتی از متن اسناد خبری در ابتدا به کمک یک خدمتگزار وب از سایت های خبری مورد تایید و مشخص برداشته شده و پس از آموزش سیستم، پیش پردازش های مورد نیاز بر روی اسناد قابل تست صورت گرفته، هر سند خبری به دسته های مربوطه و انتخابی کاربر ارجاع داده شده و نتیجه به صورت لیستی از اخبار دسته بندی شده نمایش داده می شود. از دو عامل پویایی اسناد خبری و ناهمگونی های موجود در زبان فارسی می توان به عنوان اساسی ترین چالش های موجود در روند کار نام برد. تا کنون بیشترین تمرکز در مبحث دسته بندی اسناد بر روی استفاده از معیارهای شباهت متفاوت و مقایسه عملکرد آنها بر روی ویژگی های انتخابی بوده است. همچنین در اکثر موارد از فرکانس تکرار لغات در متن و ارتباط آنها با مجموعه اسناد تحت آزمایش و در چند مورد نیز از تعداد اسناد درون گروهی به عنوان ویژگی انحصاری متن استفاده شده است. در حالی که در این پروژه، بیشترین تاکید بر روی آماده سازی و نرمال سازی داده های قابل پردازش، ادغام دیکشنری های کمکی به منزله افزایش اهمیت کلمات کلیدی در گروه ها و در نهایت توجه به فرکانس تکرار لغات هر سند -به صورت مستقل از دیگر اسناد- در گروه های مختلف صورت گرفته شده است. همچنین به منزله انتساب سند حد آستانه ای برای تعیین حداقل میزان شباهت در نظر گرفته شده ، که تعلق سند به بیش از یک گروه را ممکن می سازد. نتیجه بدست آمده حاکی از موفقیت روش پیشنهادی بر روی داده های خبری موجود در وب می باشد.
صبا سادات مدنی حمید حسن پور
با توجه به رشد روزافزون اسناد الکترونیکی، نیاز به یک دسته بند کارا در حوزه داده کاوی واضح است. اخیراً به منظور افزایش دقت دسته بندی، استفاده از آنتولوژی لغوی به عنوان مرجع خارجی و نیز استخراج دانش از متون در فرآیند دسته بندی، مطرح شده است؛ از این رو، هدف از انجام این پروژه ارائه و پیاده سازی سیستم دسته بندی خودکار اسنادی است که آنتولوژی لغوی فارس نت را در عملیات دسته بندی داخل می نماید. این امر منجر به افزایش اوزان کلمات مرتبط با دانش پیش زمینه متن می شود. راهکار پیشنهادی برای استفاده از آنتولوژی لغوی، تمرکز بر روی بردار مشخصه ی معنایی را محور فعالیت های خود قرار داده است؛ تا بدین وسیله فرآیند دسته بندی را بهبود بخشد. در این پروژه ضمن بررسی و مطالعه ی روش های بکارگیری آنتولوژی لغوی در فرآیند دسته بندی، آنتولوژی لغوی فارس نت را به منظور استخراج روابط معنایی استفاده می نماییم. در سیستم ارائه شده، کلیه ی اجزاء تشکیل دهنده ی سیستم دسته بندی شامل پردازشگر لغوی، کاهنده ی ویژگی، انتخاب کننده ی ویژگی، وزن دهی به ویژگی و طبقه بندی کننده اسناد، لحاظ شده است. در این پروژه الگوریتم ?^2 در بخش انتخاب مشخصه و روش وزن دهی ویژگی نرمال شده tfidf در بخش وزن دهی به کار گرفته می شود. پیش از اعمال روش وزن دهی به مشخصه ها، بردار مشخصه معنایی برای هر کلمه کلیدی توسط مفاهیم استخراج شده از آنتولوژی لغوی فارس نت، ایجاد می شود. نتایج ارزیابی های انجام شده نشان دهنده ی بهبود قابل توجهی در کارایی و دقت الگوریتم دسته بندی با بکارگیری آنتولوژی لغوی فارس نت است.
آزیتا نیکو علی نجاتی کلاته
تجزیه طیفی با استفاده از تبدیل فوریه یکی از مفیدترین ابزار در علم ژئوفیزیک است. این روش چندین دهه است که در لرزه شناسی بطور وسیعی مورد استفاده قرار می گیرد. عواملی همچون نوع سیال درون سازند و تغییرات ضخامت لایه بر محتوای فرکانسی اطلاعات لرزه ای تاثیر می گذارند. مطالعه محتوای فرکانسی این اطلاعات می تواند در تشخیص عوامل بوجود آورنده آن کمک شایانی نماید. روش تجزیه طیفی یا تجزیه اطلاعات لرزه ای به فرکانس های تشکیل دهنده آن، بررسی محتوای فرکانسی اطلاعات لرزه ای را امکانپذیر می سازد و پدیده هایی که در فرکانس های خاصی قابل تشخیص هستند را بهتر نمایش می دهد. تجزیه طیفی با استفاده از تبدیل فوریه قادر به نمایش همزمان مشخصات طیفی و اطلاعات زمانی نیست. این روش محدودیت هایی در برخورد با سیگنال های ناپایا و سیستم های غیرخطی دارد که محققان را بر آن داشت که به توسعه روش های دیگری بپردازند. در این راستا روش های زمان-فرکانس توسعه یافتند که نمایش زمانی مشخصات طیفی سیگنال را میسر می سازند. روش های زیادی برای نمایش همزمان اطلاعات زمانی و فرکانسی وجود دارد. از جمله آنها می توان تبدیل فوریه زمان کوتاه ، تبدیل موجک پیوسته ، تبدیل s و توزیع ویگنر-وایل را نام برد. هرکدام از این روش ها اگرچه دارای مزایایی هستند، اما به علت وجود برخی محدودیت ها و معایب، استفاده از آنها محدود شده است. لذا یافتن روش-های زمان-فرکانس جدید که علاوه بر حفظ نقاط قوت روش های متداول، نقاط ضعف آنها را برطرف کند، ضروری می نماید. توزیع با تداخل کاهش یافته روشی است که علاوه بر رفع معایب توزیع ویگنر-وایل خصوصیات مطلوب آن را نیز حفظ می کند. با توجه به اینکه زمین رفتاری مانند فیلتر پایین گذر دارد، به هنگام انتشار امواج لرزه ای درون زمین محتوای فرکانسی این امواج با زمان تغییر می کند و سیگنال های لرزه ای ناپایا می شوند. بنابراین در تجزیه و تحلیل این سیگنال ها، نمایش همزمان اطلاعات زمانی و فرکانسی کاربرد وسیعی دارند. ساختار های زمین-شناسی مانند لایه های نازک ، کانال ها و تعدادی از مخازن هیدروکربنی که در حد ضخامت همکوکی هستند، به علت ضخامت کم آنها در مقاطع لرزه ای بازتابی قابل تشخیص نیستند. به تصویر کشیدن این ساختارها در صنعت بسیار مهم است. در این پایان نامه با استفاده از توزیع با تداخل کاهش یافته، که مزایای بسیاری دارد، به شناسایی دقیق تر مخازن هیدروکربنی با استفاده از نشانگرها و همچنین تشخیص لایه های نازک پرداخته شده است و نتایج حاصل از آن با روش های دیگری مانند ویگنر-وایل مقایسه شده است و در انتها می توان نشان داد که نتایج قابل قبولی با استفاده از توزیع با تداخل کاهش یافته در مقایسه با سایر روش ها بدست آمده است.
حمید حسن پور آتوسا مدیری
در پژوهش مورد نظر به تبیین رابطه رویت پذیری – گزاره پذیری قدرت در فرآیند برنامه ریزی شهری تهران پرداخته شد. ابتدا مفهوم قدرت نزد فوکو که متفاوت از مفهوم قدرت نزد دیگر فیلسوفان و اندیشمندان می باشد را بررسی شد. قدرت نسبتی از نیرو هاست، یا به عبارت بهتر، هر نسبتی از نیروها یک نسبت از قدرت است. فوکو هدف خود را در تحلیل قدرت خود این چنین معرفی می کند : نقد عملکرد هایی که به ظاهر خنثی و مستقل می آیند؛ نقد آن ها به ترتیبی که خشونت سیاسی که به شکلی مبهم از مجرای آن ها اعمال می شود، افشا شده و بدین ترتیب امکان مبارزه با آن ها فراهم گردد. (فلابجرگ و ریچاردسون، 1387،67) هر سامانه قدرت دو امر رویت پذیری و گزاره پذیری را به یکدیگر پیوند می زند. تغییر چینه های تاریخی بدون این دو امر ناممکن است.با تغییر امور رویت پذیر و گزاره پذیر ، سامانه های قدرت نیز تغییر می یابند. از سوی دیگر فریدمن استدلال می کند که برنامه ریزی به عنوان گونه ای از کنش اجتماعی که اواخر قرن 18 ظاهر شد (عصر روشنگری اروپا) و در طی 150 سال گذشته آهسته در میان رشته های دیگر پیش به سوی برتری نهاد در کنار علوم انسانی و علوم اجتماعی که شالوده آن را بنا نهادند. بنابراین برنامه ریزی و قدرت دارای پیوند هایی می باشند که در واقع تبیین این پیوند ها هدف این پژوهش می باشد. تبیین این پیوند در فرآیند برنامه ریزی تهران در طی دوران مختلف هدف اصلی این پژوهش می باشد. بدین ترتیب الگوی رویت پذیری و گزاره پذیری قدرت در فرآیند برنامه ریزی تهران شناسایی شد و این رابطه با استفاده از روش تبارشناسی و با کمک تحلیل مقایسه ای تبیین گردید. در پایان چنین نتیجه گیری می شود که در فرآیند برنامه ریزی شهر تهران بر خلاف آنکه بین امر رویت پذیر و امر گزاره پذیر ، امر رویت پذیر در نظام برنامه ریزی شهری جنبه اساسی تری داشته ، اما در تاثیر گذاری بر برنامه ریزی شهری و به تبع آن شهر تهران ، امر گزاره پذیر بر امر رویت پذیر غلبه داشته است. اما در سطح کلان ، روابط قدرت ، معمولا ،از گزاره پذیری شروع می شود.
مرتضی ره گشای حمید حسن پور
حجم اطلاعات موجود در اینترنت و رشد روزافزون آن، کار جستجوی بهینه منابع را، هم برای کتابداران و هم برای کاربران مشکل کرده است. کاربران وب اغلب با حجم زیادی از اطلاعات نامرتبط و تکراری مواجه می شوند. این پژوهش در پی انست که ابرموتورهای جستجو تا چه حد پاسخ گوی سوالات کاربران کتابداری واطلاع رسانی می باشند، کدام ابرموتورها در پاسخ گویی به نیاز کاربران مناسب ترند و ارایه الگوی پیشنهادی چه تغییری در بهبود و رتبه بندی نتایج ایجاد می کند. با انجام جستجو در هر ی از ابرموتور جستجو و ده کلید واژه عبارتی در حوزه کتابداری و اطلاع رسانی به مطالعه و بررسی ابرموتورهای جستجو از نظر میزان ربط، دقت و ریزش کاذب پرداخته است. مجموعا 700 نتیجه بازیابی شده توسط ابرموتورهای جستجو مورد مطالعه قرار گرفت که از بین این اقلام بازیابی شده ، 225 رکورد بازیابی منابع مرتبط و 475 مورد نامرتبط (ریزش کاذب) بوده است. ابر موتور جستجوی infospoce با 37 درصد، بهترین عملکرد را در بازیابی منابع مرتبط و میزان دقت داشته است و ابر موتور جستجوی mamma با 76 درصد، بیشترین ریزش کاذب را به خود اختصاص داد. یافته های پژوهش نشان می دهد که هر ابرموتور در بازیابی اطلاعات مورد نظر، متفاوت با ابرموتور دیگر عمل کرده است. بنابراین نمی توان به ابرموتور خاصی برای پاسخگویی به سوالات کاربران کتابداری و اطلاع رسانی اکتفا نمود. با توجه به این که منابعی که در بالاترین سطح رتبه بندی نتایج جستجو قرار دارند، لزوما مرتبط ترین گزینه برای پاسخ گویی به نیاز کاربر نیستند و چون کاربران معمولا به صفحات اولیه نتایج جستجو اکتفا می کنند، رتبه بندی نتایج جستجو، از اهمیت خاصی برخوردار است. برای دسترسی کاربران کتابداری و اطلاع رسانی به منابع مرتبط تر، الگویی جهت بهبود و تغییر رتبه بندی در نتایج جستجو ارایه شد. با تغییر در رتبه بندی نتایج، کاربر می تواند منابع مرتبط تر را با توجه به میزان تکرار کلید واژه های جستجو در عنوان، متن و آدرس پیوندهای بازیابی شده در بالاترین سطح رتبه بندی مشاهده نماید.
زهرا محمدیان علی اکبر پویان
هدف این پایان نامه، ارائه ی روشی برای تشخیص جعل تصاویر از نوع کپی-انتقال می باشد. تشخیص صحت تصاویر، زمانی مهم و حساس می شود که بخواهیم از آن تصاویر به عنوان مدرک، در دادگاه ها، استفاده کنیم. جعل کپی-انتقال یکی از عمومی ترین روش های جعل تصاویر می باشد که در آن، یک قسمت از تصویر، کپی و در جای دیگری از همان تصویر چسبانده می شود. در این پژوهش به بررسی انواع روش های تشخیص جعل کپی- انتقال می پردازیم. بسیاری از روش ها در صورتی قادر به تشخیص هستند که هیچ تغییری بر روی ناحیه ی کپی شده، قبل از چسبانده شدن، صورت نگرفته باشد. اکثر جاعلان برای این که ناحیه ی کپی شده با نواحی اطرافش همخوانی داشته باشد و تصویر طبیعی تر به نظر برسد، بر روی ناحیه ی کپی شده، یکسری تبدیلات هندسی اعمال می کنند. یک روش تشخیص جعل خوب باید نسبت به انواع تغییرات و تبدیلات هندسی مقاوم باشد. بسیاری از روش ها نسبت به تمام یا برخی از تغییرات مقاوم نیستند یا از لحاظ محاسباتی بسیار پیچیده و زمانبر هستند. روش تشخیص جعل با استفاده از تبدیل ویژگی های مستقل از مقیاس نسبت به انواع تغییرات مقاوم است و زمان پردازش پایینی دارد، اما این روش در صورتی که جعل در ناحیه ی هموار تصویر صورت گرفته شده باشد، قادر به تشخیص نخواهد بود. این اشکال را توسط ممان های زرنیک برطرف کرده ایم. در این تحقیق، به ارائه ی روشی ترکیبی برای تشخیص جعل کپی- انتقال خواهیم پرداخت که از ترکیب دو روش تشخیص جعل بر پایه ی ممان های زرنیک و ویژگی های sift حاصل شده است. باتوجه به خصوصیات این دو روش، روش پیشنهادی در برابر انواع تبدیلات و تغییرات هندسی مقاوم و قادر به تشخیص جعل در نواحی هموار می باشد همچنین بهبودهای زیر بر روی آن ها اعمال شده است: ? تشخیص چندین ناحیه ی کپی شده از یک ناحیه. در حالی که روش های قبلی، قادر به تشخیصِ فقط یک ناحیه ی کپی شده از ناحیه ی اصلی هستند. ? این روش بین اشیا و نواحی شبیه به هم که منتج به استخراج ویژگی های مشابه می شود، و نواحی یا اشیای کپی شده تمییز قائل می شود. همچنین در صورت تشخیص جعل، به تعیین پارامترهای تبدیلات هندسی خواهیم پرداخت. روش پیشنهادی دارای fpr برابر با 5 درصد و tpr برابر با 98 درصد دارد.
نازبخت مرگانپور حمید حسن پور
در سال های اخیر سیستم های هوشمند به طور فزاینده ای مورد توجه واقع شده است که شبکه های عصبی مصنوعی از این مجموعه می باشند. این شبکه ها با پردازش داده های تجربی، قانون نهفته در ورای این اطلاعات را استنتاج می کنند. مدل های شبکه عصبی مصنوعی در مورد فرایندهایی که تعریف دقیق و درک خاصی از آنها وجود ندارد، بسیار موثر عمل می کنند. در این مورد، این امر به اثبات رسیده است که شبکه های عصبی مصنوعی قادر می باشند که هر تابع ریاضی را با دقت قابل قبولی تخمین بزنند. خصوصیت دیگر این مدل ها که آنها را نسبت به سایر روش ها و الگوریتم های دیگر ممتازتر می نماید حساسیت کمتر آنها نسبت به وجود خطا در ورودی ها می باشد این ویژگی ها سبب افزایش رویکرد به این مدل ها در بین انواع مدل های پیش بینی شده است. بهمین دلیل مطالعه محققین این طرح پس از جستجوهای متنوع طرحی را برای پیش بینی پاسخ دهی بیماران به درمان های کبد چرب برپایه ی اطلاعات فردی، بالینی و آزمایشگاهی در گروه های مختلف بیماران را پیشنهاد نمود. دراین پروژه اطلاعات مربوط به تعداد 1464 بیمار با نتیجه درمان مشخص گرد آوری می شود. در مرحله اطلاعات مفید مورد نظر توسط نرم افزارها والگوریتم های مناسب استخراج می گردد. در این تحقیق برای پیش بینی شدت بیماری کبد چرب با استفاده از قابلیتهای مدل شبکه های عصبی مصنوعی(anns) مدل های هوشمندی توسعه داده خواهد شد و دقت پیش بینی و عملکرد آنها در مقایسه با داده های واقعی بررسی خواهد شد. عملکرد این مدلها بدین صورت خواهد بود که با وارد نمودن اطلاعات فرد بیمار به مدل شبکه عصبی مصنوعی، درجه شدت آسیب کبدی پیش بینی خواهد شد. انجام موفق تحقیق حاضر رهیافت نوینی در تعیین شدت آسیب کبدی بیماران بشمار می رود که از ارزش کاربردی بالینی و عملی ویژه ای برای بیماران نیز برخوردار است. شبکه های عصبی مورد استفاده دراین تحقیق ، شبکه های عصبی چندلایه و شبکه های عصبی پایه شعاعی میباشد. زیرا پرسپترون نوعی از شبکه عصبی برمبنای یک واحد محاسباتی به نام پرسپترون ساخته میشود. یک پرسپترون برداری از ورودیهای با مقادیر حقیقی را گرفته و یک ترکیب خطی از این ورودیها را محاسبه میکند. اگر حاصل از یک مقدار آستانه بیشتر بود خروجی پرسپترون برابر با 1 و در غیر اینصورت معادل -1 خواهد بود شبکه های تابع پایه شعاعی رفتاری مشابه شبکه های بیولوژیکی مغز انسان دارد. شبکه ای مرتبط با شبکه پیش خور چند لایه با یک لایه ورودی و الگوریتم آموزش که این مجموعه یکی از قویترین شبکه های عصبی را تشکیل داده است. شبکه rbf نسبت به شبکه پرسپترون پیشخورد چند لایه ساختار ساده تری دارد و از سه لایه ثابت تشکیل شده : لایه ورودی محل ورود داده ها به شبکه , لایه میانی که به لایه rbf نیز معروف است و لایه خروجی که ترکیبی خطی از کلیه خروجی های لایه میانی است.
جمال جمال اوغلی مرتضی زاهدی
امروزه یکی از ملزومات ارتقاء کیفیت و کمیت محصولات صنعتی، استفاده از ماشین آلاتی است که کارکردشان به طور خودکار بوده و اتکای آن به عوامل انسانی کمتر باشد. علی رغم پیشرفت های صورت گرفته در اتوماسیون صنعت کاشی و سرامیک، عیب یابی این محصولات به منظور درجه بندی یا خارج کردن محصولات فاقد کیفیت در روند تولید، هنوز بصورت دستی بوده و توسط عوامل انسانی انجام می گیرد. اغلب کارهای انجام شده در این زمینه روی عیوبی متمرکز شده اند که وجودشان نمی تواند بطور یقین سرنوشت محصول را در مرحله ای از تولید تعیین کند. اهمیت عیوب شکستگی از آنجاست که اگر محصولی دارای این عیوب باشد، به احتمال بسیاری بازیافت شده و در صورت تشخیص بموقع این عیوب، از ارسال محصول به مراحل بعدی می تواند جلوگیری شود. که این امر باعث کاهش هزینه های تولید و اثرات نامطلوب زیست محیطی می شود. موارد ذکر شده امکان بررسی جداگانه این عیوب را فراهم میکند. از این رو در این پایان نامه ضمن مطالعه و بررسی روشها و چالش های موجود در زمینه ی مربوط و با استفاده از دانش پردازش تصویر و بینایی ماشین، سعی در ارائه ی روشی ساده برای آشکارسازی خودکار عیوب شکستگی و پریدگی در مرزها و بدنه ی کاشی و سرامیک شده است. روش پیشنهادی با استفاده از دیدگاه بازیابی مرزهای سالم و آشکارسازی حفره ها، اقدام به شناسایی عیوب می کند. با استفاده از دیدگاه روش پیشنهادی این پایان نامه، کشف، شمارش، نمایش و درجه بندی عیوب شکستگی بصورت بلادرنگ و با دقتی بالا انجام خواهد شد. علاوه بر این، تدابیری در ارائه ی روش پیشنهادی در نظر گرفته شده است، که امکان استفاده از روش را در دو فاز مختلف تولید فراهم می کند. بطوریکه اولین مرحله استفاده از روش پیشنهادی، قبل از ورود محصولات به کوره میباشد. جایی که بدنه کاشی هنوز موادی ضعیف میباشد. آمارها نشان میدهد که شایع ترین محل وقوع این عیوب نزدیکی این مرحله میباشد. که در اینصورت روش پیشنهادی قادر خواهد بود با شناسایی کاشی بازیافتی، عدم کیفیت آنرا اعلام کرده و از ارسال محصول به مراحل بعد و در نهایت از تحمیل هزینه های زائد جلوگیری کند. کاربرد دوم استفاده از روش در مرحله ی درجه بندی محصولات میباشد. از این رو قابلیت درجه بندی محصولات با توجه به اندازه ی عیوب و تعدادشان، به سایر قابلیت های روش پیشنهادی افزوده شده است. بنابراین بدیهی است که روش مذکور نسبت به لعاب محصولات سرامیک مستقل باشد. از برجسته ترین ویژگی های روش مذکور، بلادرنگ بودن زمان اجرای روش می باشد. که این امر در صنعت بسیار حائز اهمیت است.
مهدی نیازی حمید حسن پور
در این پایان نامه از یادگیری تقویتی برای پیدا کردن یک سیاست مناسب جهت رفع مشکل موجود در بازی های امروزی که سطح سختی نامتناسب و عدم تطبیق پذیری بازی، با قابلیت های بازیکنان می باشد استفاده کرده-ایم. عامل یادگیرنده بازی که از روش یادگیری تطبیقی dyna بهره می برد با بکار بردن تابع عمل-ارزش و دریافت پاداش، شروع به درک محیط اطراف خود می کند و در ادامه، مبحث انتخاب و سازماندهی ویژگی ها، اعمال و پاداش (که در همه بازی ها وجود دارد) در ترکیب با متد یادگیری مطرح می گردد. عامل یادگیرنده، شروع به آموزش دیدن در مقابل عامل هوشمند دشمن (الگوریتم های برپایه قانون ) می کند و در بخش نتایج نشان خواهیم داد که عامل یادگیرنده برای انتخاب سیاست در بازی، می تواند به نسبت برخی روش های موجود عملکرد بهینه تری را از خود نشان دهد. دو آزمایش مختلف برای اثبات بهینه بودن روش مطرح شده در این پایان نامه طراحی گردیده است. در آزمایش اول موضوع کارایی عامل یادگیرنده مد نظر است که نشان دهنده توانایی الگوریتم ارائه شده در اجرای بازی بصورت موفق می باشد. آزمایش دوم نیز مقایسه ای بین روش ارائه شده در این پایان نامه و یکی دیگر از روش های رایج در بازی ها، در مواجهه با وضعیت های جدید انجام خواهد داد.
زهرا فروتن جهرمی حمید حسن پور
شناسایی زبان اشاره توسط رایانه گام اولیه و مهمی در راستای ارتقای تعامل کاربران ناشنوا با رایانه است. با وجود گستردگی کارهای انجام شده در شناسایی زبان اشاره سایر کشور ها به خصوص زبان اشاره امریکایی، تنها هنوز گام های اولیه و آزمایشگاهی در مورد زبان اشاره فارسی انجام پذیرفته است. در این پایان نامه روشی جهت شناسایی حروف الفبای زبان اشاره فارسی باغچه بان (اولین و پرکاربردترین زبان اشاره فارسی) ارائه شده است که با استفاده از دوربین های عمقی و ویژگی های های هندسی دست، اسکلت و صورت، در محیطی با پس زمینه پیچیده درصد شناسایی بالایی را ارائه می دهد. تحقیق پیش¬رو اولین تحقیق کاربردی برای شناسایی زبان اشاره فارسی در محیطی با پس زمینه پیچیده است. هم چنین استخراج ویژگی از اسکلت و دهان فرد نیز تا کنون در شناسایی زبان اشاره فارسی انجام نگرفته است. کارهای اصلی انجام شده در این تحقیق عبارت اند از تولید اولین پایگاه داده عمقی زبان اشاره فارسی باغچه بان شامل تصاویر کامل بدن و به خصوص صورت و دهان، شناسایی کامل 38 حرف الفبای معمول ناشنوایان با سرعت بلادرنگ، استفاده از ویژگی های اسکلتی و نقاط صورت در تشخیص زبان اشاره فارسی و تحلیل و بررسی نتایج سیستم تا رسیدن به درصد تشخیص بیش از 99%. پایگاه داده استفاده شده در این سیستم دارای 150 تا 500 نمونه متفاوت از 38 حرف الفبای زبان اشاره فارسی باغچه بان با فضایی دارای تداخل رنگی بین دست، صورت، بدن، لباس و پس زمینه تصویر می باشد که توسط سنسور کینکت ضبط شده است و به ازای هر فریم آن، تصویر رنگی، تصویر عمقی، اسکلت نیم تنه بالای بدن و 121 نقطه صورت فرد استخراج شده است. تحلیل نتایج سیستم نشان دهنده بهترین درصد شناسایی 99.4% برای 3800 نمونه (100 نمونه از هر حرف) و 99.2% به ازای 5700 نمونه (150 نمونه از هر حرف) است. تاثیر استفاده از ویژگی های هندسی دست و دهان، ویژگی های بر پایه تبدیل موجک استخراج شده از تصویر قطعه بندی شده دهان و ویژگی های اسکلتی مربوط به مکان قرارگیری دست، در این تحقیق مورد ارزیابی قرار گرفته اند. بررسی عملکرد سیستم نیز نشان دهنده سرعت بین 40 تا 70 فریم بر ثانیه در شناسایی داده های پایگاه داده و با استفاده از دسته بند بیز می باشد.
نجمه صمدیانی حمید حسن پور
بازشناسی نوری حروف در حوزه های گوناگون مانند تشخیص پلاک خودرو، امنیت(مانند تصدیق گذرنامه)، بارکد و سیستم های بانکی (چک)، نقش مهمی ایفا می کند و تا کنون روش ها و سیستم های متعددی برای تشخیص کاراکترها ارائه شده است. هدف این تحقیق، ارائه ی روشی می¬باشد که بتواند ارقام و حروف تایپی یک زبان را بدون محدودیت در نوع فونت و اندازه، شناسایی نماید. از مهم ترین چالش های سیستم های بازشناسی موجود، این است که دارای تعداد زیادی نمونه ی آموزشی و در نتیجه حجم بالایی از محاسبات هستند؛ زیرا هنگام آموزش هر یک از کاراکترها به چندین نمونه ی آموزشی از آن کاراکتر، نیاز دارد. هم چنین اگر این سیستم ها برای تشخیص کاراکترها با تنوع فونت های بیشتری توسعه یابند؛ خطای تشخیص، افزایش می یابد. بنابراین به سیستم بازشناسی¬ای نیاز داریم که قادر باشد علاوه بر کم بودن تعداد نمونه های آموزشی، در مقابل تغییر فونت، مقاوم بوده و خطای تشخیص آن در ازای افزودن فونت های جدید، تغییر آن¬چنانی نداشته باشد. در این پایان نامه، به بازشناسی ارقام و حروف تایپی انگلیسی می پردازیم. کاراکترهای تایپی در فونت ها و اندازه های مختلف نوشته می شوند که سبب می گردد شکل نوشتاری کاراکترهای مشابه با یکدیگر متفاوت باشد؛ بنابراین به یک سیستم بازشناسی با استخراج ویژگی های مناسب از کاراکترها، نیاز است تا بتواند با درنظر گرفتن این تفاوت ها، کاراکترهای مشابه را تشخیص دهد. در این تحقیق، با استفاده از یک بردار ویژگی ساده- مجموع مقادیر پیکسل های تک تک سطرها و ستون ها- و یک شبکه¬ی عصبی نگاشت خودسازمانده بدون ساختار پیچیده، توانستیم ارقام تایپی انگلیسی را در 30 نوع فونت و 11 اندازه ی متفاوت با دقت 99.47% و حروف تایپی انگلیسی را در 24 نوع فونت و 11 اندازه ی مختلف با دقت 97.73%، دسته بندی کنیم. شبکه¬ی عصبی نگاشت خودسازمانده، معمولاً از فاصله ی اقلیدسی برای مقایسه ی نمونه های یک کلاس استفاده می کند اما در این پایان نامه به جای استفاده از فاصله ی اقلیدسی، معیار شباهت برای مقایسه ی بین بردار مشخصه ی رقم ورودی و وزن نرون¬های مختلف، به کار برده می شود. هم چنین، به جای آموزش چندین نمونه از فونت ها و اندازه های مختلف، تنها یک یا دو نمونه برای آموزش در شبکه¬ی عصبی، مورد استفاده قرار می گیرد.
عبدالرضا زادسار حمید حسن پور
در این پایان نامه استفاده از ویژگی های تفرق نور لیزر و روش های پردازش تصاویر دیجیتال را برای اندازه گیری برخی ویژگی های سطح زیرلایه های نیمرسانا مورد ارزیابی و بررسی قرار می دهیم و به معرفی چند روش ساده، سریع، ارزان و دقق مبتنی بر خواص تفرق نور لیزر برای اندازه گیری پارامترهای سطح زیرلایه های مورد استفاده در ساخت لیزرهای نیمه هادی می پردازیم. به این منظور ابتدا به معرفی مفاهیم ریاضی پارامترهای متبط با کیفیت سطح و مشخصا مفهوم ناصافی می پردازیم و سپس برخی از روش های و دستگاه های مرسوم برای اندازه گیری این کمیت را معرفی نموده و مزایا و معایب هر یک را شرح می دهیم. آنگاه رروشهای سنجش مبتنی بر تفرق نور لیزر را بررسی کرده و با ویژگی ها، قابلیت ها و محدودیت های آنها آشنا می شویم.
نرجس رمضانی اومالی مرتضی زاهدی
با رشد روزافزون اطلاعات در وب، اغلب پروژه های تحقیقاتی در این حوزه با هدف سازماندهی اطلاعات شکل می گیرند، به گونه¬ای که کاربر نهایی بتواند راحت¬تر و با سرعت بیشتر به اطلاعاتی با دقت بالا و کارایی بهینه دست¬یابد. دسته¬بندی اسناد ابزاری مهم در بسیاری از امور مربوط به بازیابی اطلاعات است. اغلب تکنیک¬های خوشه-بندی اسناد مانند مدل فضای برداری برپایه¬ی تحلیل کلمات منفرد، در مجموعه¬ داده موجود در سند هستند. کلمات منفرد به تنهایی فاقد اطلاعات کافی بوده و باعث بروز خطا در دسته¬بندی می¬شود. جهت دستیابی به خوشه¬بندی دقیق¬تر استفاده از ویژگی¬هایی حاوی اطلاعات بیشتر مانند عبارات و وزن آن عبارات در اسناد می¬تواند بسیار مفید باشد. روش¬های دیگری چون درخت پسوندی اگرچه از عبارات جهت دسته¬بندی استفاده می¬کنند ولی با افزایش تعداد اسناد به دلیل افزونگی بالا فاقد کارایی لازم هستند. در این میان مدل جدید نمایه¬سازی سند براساس عبارت با عنوان document index graph یک روش دسته¬بندی مبتنی بر گراف است که در سال 2004 مطرح شده است. این مدل به دلیل استفاده از عبارات نسبت به مدل¬های مبتنی بر کلمات منفرد بسیار کاراتر است. در این روش به صورت موثر انطباق عبارات جهت بررسی شباهت بین اسناد انجام می¬شود. این مدل به دلیل استفاده از ساختار گراف فاقد افزونگی بوده و در دسته¬بندی از هر تعداد سند پشتیبانی می¬کند. همچنین به دلیل ساختار افزایشی الگوریتم دسته¬بندی، قابلیت به¬کارگیری به صورت آنلاین در وب را نیز دارد. استفاده از این مدل، نتایج دسته¬بندی اسناد وب را در مقایسه با روش¬های سنتی تاحد چشم¬گیری بهبود می¬بخشد. این پایان¬نامه به بررسی روش¬های مختلف دسته¬بندی اسناد و نقاط قوت و ضعف هرکدام پرداخته و با تمرکز بر روش دسته¬بندی مبتنی بر گراف به بررسی این روش و مزایای آن نسبت به روش¬های قبلی می¬پردازد، در ادامه با توجه به این¬که این سیستم قابلیت استفاده در موتور جستجو را جهت دسته¬بندی اسناد بازیابی شده دارد، با نگاهی دیگر از زاویه موتور جستجو به بررسی عملکرد این سیستم پرداخته و سعی در بهبود کارایی این سیستم در قالب موتور جستجو داریم. اسناد بازیابی شده توسط موتور جستجو غالباً براساس میزان بازدید کاربران در لیست نتایج مرتب شده و در اختیار کاربر قرار می¬گیرند، با به¬کارگیری سیستم معرفی شده و اضافه کردن وزن¬¬هایی به نودها و یال-های گراف می¬توان وزن عبارت مورد جستجو را در اسناد مختلف محاسبه و آن¬ها را براساس وزن عبارت مورد جستجو مرتب کرد، این کار سبب می¬شود کاربر با دقت و سرعت بیشتر به اطلاعات مورد نظر خود دست¬یابد. برای اضافه کردن وزن با اصلاح ساختار گراف به ازای هر سند وزن نودها را با شمارش و وزن یال¬ها را با استفاده از یک شبکه¬عصبی پرسپترون محاسبه کرده و عملکرد سیستم را به عنوان بخشی از یک موتور جستجو بهبود می¬دهیم.
منصوره السادات مرتضوی حمید حسن پور
چکیده محیط فیزیکی اطراف ما، یک محیط سه بُعدی است، محیطی که هر جسم موجود در آن، دارای طول، عرض و ارتفاع (عمق) می¬باشد. زمانی¬که به این محیط نگاه می¬کنیم و یا توسط دوربین¬های معمولی از آن عکس می¬گیریم، یک محیط سه¬¬بُعدی بر روی یک صفحه دوبُعدی نگاشت می¬شود. این کار باعث از دست دادن بُعد سوم یا همان عمق می¬شود. این بُعد حاوی اطلاعات بسیار مهمی جهت تحلیل و بررسی موقعیت و ویژگی¬های اشیاء موجود در تصویر می¬باشد. انسان با استفاده از تکنیک های سه بُعدی¬ساز مغز و داشتن قابلیت دید دو¬چشمی ، محیط را به شکل سه بُعدی درک می کند اما زمانی که از محیط عکس می¬گیریم باید سعی کنیم در کامپیوتر، بُعد سوم صحنه را توسط تکنیک¬های موجود بازیابی کنیم. تشخیص عمق تصویر، مسئله¬ای بسیار مهم و اساسی در بحث بینائی¬ماشین و هوش¬مصنوعی می¬باشد که هنوز راه حل قطعی برای آن پیدا نشده است. هدف این تحقیق، بدست آوردن عمق یک صحنه با توجه به یک تصویر دو¬بُعدی یک¬چشمی از آن و بخش¬بندی رنگی تصویر از نظر عمق می¬باشد. جهت رسیدن به این مهم، ابتدا ویژگی¬های موردنظر را از تصویر استخراج کرده و بردار ویژگی را تشکیل می¬دهیم سپس این بردار را به شبکه-عصبی داده و با توجه به نتیجه آن، تصویر را به کلاس¬های متمایزی از نظر عمق تقسیم می¬کنیم سپس هر قسمت را با توجه به عمق مربوطه رنگ¬آمیزی می¬کنیم. مستقل بودن از ویژگی¬های دوربین و صحنه، دقت و سرعت بالا، عدم نیاز به دسته¬بندی تصویر، آنچنان که در کارهای پیشین وجود داشت، استفاده از ویژگی¬ها و تکنیک¬های رایج و نسبتاً ساده پردازش تصویر، برخی از مزایای روش پیشنهادی می¬باشد. کلمات کلیدی: تشخیص عمق، شبکه¬عصبی، بخش¬بندی تصویر، کلاس¬بندی
فاطمه بطیاری حمید حسن پور
این پژوهش مطالعه موردی بر روی تعامل بین شرکت کنندگان در انجمن های چهار دوره کارشناسی در دوره های برخط (آنلاین) از دیدگاه تجزیه و تحلیل شبکه اجتماعی (sna) را ارائه می دهد. با توجه به فقدان مطالعات انجام شده در شبکه های اجتماعی در محیط های آموزشی برخط در آموزش عالی در ایران ما از تجزیه و تحلیل ساختاری کیفی برای رسیدگی به این پدیده استفاده کرده ایم. زمینه این کار با تجربه های جدید در آموزش از راه دور (de) که توسط بسیاری از نهادها پیاده سازی و استفاده شده اند، بوجود آمده است. این تجربه ها تابع تغییرات در پارامترهای آموزشی می باشد و با توجه به پذیرش وسیع تر فناوری اطلاعات و ارتباطات (ict) در مدارس و دانشگاه ها و همچنین به بازار رقابت، نیاز به بررسی ساختاری این حوزه احساس می شود.در میان فن آوری های استفاده شده توسط دانشگاه ها، سیستم های مدیریت آموزشی (lms) که اجازه ضبط، ذخیره سازی و استفاده از مقادیر زیادی از داده های رابطه ای در مورد کاربران را می دهد و می تواند از طریق ابزارهای webtracking قابل دسترسی باشند بررسی شد. ما از این اطلاعات برای ساخت ماتریس sna استفاده کرده ایم. به منظور افزایش دانش در مورد چهار درس دوره های آنلاین مطالعه شده، ما به جمع آوری داده ها با پرسشنامه و مصاحبه پرداخته و تجزیه و تحلیل محتوایی با استفاده از شرکت کنندگان در انجمن های این دروس انجام دادیم. سه منبع اصلی جمع آوری داده ها منجر به سه نوع از تجزیه و تحلیل شده است: sna ، تجزیه و تحلیل آماری و تجزیه و تحلیل محتوایی. این نوع از تجزیه و تحلیل ها، به نوبه خود، اجازه مطالعه سه بعدی در استفاده از lms را می دهد. 1) بعد رابطه از طریق مطالعه شبکه های انجمن ها و الگوهای تعامل میان شرکت کنندگان در این شبکه ها، 2) بعد نسبت به فرآیند آموزش و یادگیری از طریق تجزیه و تحلیل محتوای مصاحبه ها، 3) و در نهایت بعد مربوط به برداشت شرکت کنندگان در مورد استفاده از lms برای اهداف آموزشی و به عنوان یک پلت فرم برای ایجاد شبکه های اجتماعی از طریق تجزیه و تحلیل پرسشنامه ها. با نتایج به دست آمده، ما مطالعه مقایسه ای بین چهار دوره انجمن های برخط انجام داده و تلاش کرده بازخوردی از اجرای پروژه برخط از دانشگاه بدست آوریم و همچنین مشکلات موجود از طریق این مشاهده شناسایی شود.در نهایت این پایان نامه با پیشنهاد چارچوبی برای مطالعه جنبه های رابطه ای شبکه آموزش برخط بمنظور تحقیقاتی که در آینده ممکن است، به پایان می رسد.
زهرا قیسی حمید حسن پور
امروزه به¬ دلیل حجم زیاد اطلاعات دیجیتال، فشرده¬سازی تصاویر به عنوان یک نیاز اساسی در سیستم-های بایگانی و ارسال تصاویر مطرح می¬شود. روش¬های زیادی برای افزایش نرخ فشرده¬سازی تصویر ایجاد شده است. اما همچنان افزایش نرخ فشرده¬سازی و حفظ کیفیت تصویر بازیابی شده یک ضرورت محسوب می¬شود. هر یک از الگوریتم¬های فشرده¬سازی موجود بر اساس یک یا چند ویژگی اقدام به شناسایی افزونگی در تصویر و در نتیجه فشرده¬سازی آن می¬کنند. بر همین اساس، هر یک از روش¬های فشرده¬سازی، به ازای تصاویر مختلف، نرخ فشرده¬سازی یکسانی را ارائه نمی¬دهند. نرخ¬های فشرده¬سازی آنها ممکن است به عواملی چون تنوع سطوح خاکستری، هموار بودن تصویر و یکسان بودن مقادیر پیکسل¬های مجاور در تصویر بستگی داشته باشد. بر این اساس، در این تحقیق راهکارهایی ارائه می¬شود که به عنوان یک مرحله پیش-پردازش بر روی تصویر اعمال ¬شوند تا پارامترهای تاثیرگذار مربوطه در آن تصویر را جهت فشرده¬سازی تقویت نمایند. در این پایان¬نامه چهار روش پیش¬پردازش ارائه شده است. پردازش اول بدون اتلاف بوده و در دو گام صورت می¬گیرد. در گام اول، تصویر به بلوک¬های بدون هم¬پوشانی تقسیم شده و بلوک¬ها بر اساس افزایش (کاهش) ضرایب dc، مرتب می¬شوند. در گام دوم، هشت تبدیل هندسی برگشت¬پذیر بر روی تصویر حاصل از گام اول صورت می¬گیرد. از بین تصاویر حاصل، تصویری که منجر به بهترین نتیجه برای فشرده¬سازی می¬شود، انتخاب می¬گردد. این پردازش باعث کاهش دامنه¬ی تغییرات، در نتایج حاصل از محاسبات jpeg شده و نرخ فشرده¬سازی آن را بهبود می¬دهد. در روش دوم، سطوح خاکستری که از نظر مقدار، به هم نزدیک می¬باشند، در یک دسته قرار می¬گیرند. سپس، یک سطح خاکستری به عنوان نماینده¬ برای هر دسته در نظر گرفته می¬شود. مقدار هر سطح خاکستری در تصویر اصلی با مقدار نماینده¬ی مربوط به دسته¬ی خودش، جایگزین می¬شود. دسته¬بندی و انتخاب نماینده به نحوی انجام شده است که خرابی تصویر حداقل باشد. در گام بعد، هیستوگرام تصویر پردازش شده، متراکم می¬شود. این پیش¬پردازش، با حفظ کیفیت تصویر، توانسته نرخ فشرده¬سازی الگوریتم lossless jpeg را بهبود دهد. روش سوم مشابه روش دوم می¬باشد با این تفاوت که تصویر در ابعاد ثابت بلوک¬بندی شده و مقدار پارامتر تعیین¬کننده¬ی تعداد سطوح هر دسته، برای هر بلوک، آگاهانه¬تر و بر اساس سیستم بینایی انسان انتخاب می¬گردد. این پیش¬پردازش باعث بهبود نرخ فشرده¬سازی الگوریتم¬های jpeg2000 و lossless jpegشده است. در روش چهارم، با استفاده از الگوریتم ژنتیک فضای رنگ مناسبی برای فشرده¬سازی هر تصویر به طور مجزا ایجاد می¬گردد. این پیش¬پردازش منجر به بهبود عملکرد الگوریتم cic شده است.
نجمه فیاضی فر حمید حسن پور
سیستم شناسایی و تشخیص اصوات محیط کاربردهای فراوانی در زمینه¬ی هدایت ربات، سیستم¬های نظارت پزشکی و تشخیص نفوذ در سیستم¬های امنیتی و نظارتی دارا می¬باشد. این پایان¬نامه به منظور توسعه¬ی سیستم هوشمندی انجام شده است که بتواند اصوات ضربه¬ای را از غیر¬ضربه¬ای تمییز داده و آن¬ها را دسته-بندی کند. از جمله چالش¬های مطرح در روش¬های موجود در این زمینه، نیاز به پنجره¬گذاری سیگنال¬ها پیش از استخراج ویژگی و سپس استخراج ویژگی¬ها از این پنجره¬ها می¬باشد. ویژگی پیشنهاد شده در این تحقیق، مستقیما از داده¬ها استخراج می¬شود و ضرورتی برای پنجره¬گذاری سیگنال¬ها وجود ندارد. به دلیل استفاده از کل سیگنال در فرآیند استخراج ویژگی، تعداد ویژگی¬های استخراج شده کمتر از سایر روش¬ها بوده و در نتیجه حجم محاسبات سیستم پیشنهادی کم و مناسب برای کاربردهای بلادرنگ می¬باشد. همچنین این روش در مقایسه با سایر روش¬های موجود، در برابر نویز بسیار مقاوم می¬باشد. سیستم پیشنهادی ابتدا ضربه¬ای بودن یا نبودن سیگنال ورودی را بررسی می¬کند. دو رویکرد جدید در این پایان¬نامه، برای شناسایی پیشنهاد شده است. این دو روش بر اساس تغییرات میزان انرژی سیگنال در طول زمان عمل می¬کنند. در بخش شناسایی، سیستم در شرایط بدون نویز توانسته است عملکرد بسیار مناسبی ارائه دهد. در این حالت میزان شناسایی سیستم 100% گزارش شده است. پس از شناسایی اصوات ضربه¬ای، سیستم وارد فاز دسته¬بندی می¬شود. ویژگی جدیدی که در این پایان¬نامه ارائه شده است بر مبنای تفاوت در رفتار سیگنال¬ها و نحوه¬ی رسیدن آن¬ها از مقدار کمینه به بیشینه، عمل می¬کند. در این کار از دسته¬بند k-نزدیک¬ترین همسایه استفاده شده و میزان تشخیص درست سیستم در این حالت 93.75% گزارش شده است که در مقایسه با روش¬های موجود از جمله ضرایب کپسترال فرکانس مل، نقطه¬ی تعادل طیفی و شار طیفی عملکرد بهتری داشته است.
حمید حسن پور حمید پیشگاه هادیان
وقوع حملات غافلگیرانه تروریستی 11 سپتامبرموجب شد ایالات متحده آمریکا به منظور مقابله با تهدیدهای نامتقارن،به تدوین و توسعه مبانی نظری و عملی سیاستگذاری دفاعی و امنیت ملی بپردازد. پس از شکل گیری استراتژی ضربات پیشدستانه و پیشگیرانه در بستر سیاست های امنیت ملی آمریکا علیه تهدید های نامتقارن،جنگ های افغانستان و عراق به وقوع پیوستند.حملات هوایی و موشکی،عملیات تعقیب و انهدام نیروهای مخصوص شامل تکاوران نیروی زمینی و تفنگداران دریایی،پرواز هواپیماهای بدون سرنشین و انقلاب شبکه های نظامی در انهدام منابع بالقوه و بالفعل تهدید های نامتقارن در جنگ های افغانستان و عراق به کار گرفته شدند. که نقش شورای امنیت سازمان ملل متحد در دو جنگ مذکور و عملکرد سازمان پیمان آتلانتیک شمالی (ناتو) در تهاجم افغانستان قابل تامل می باشد.
امیر کشاورزرضا بهزاد تخم چی
حدود 50 درصد مخازن نفتی در دنیا شکافداراند؛ که البته این نسبت در ایران به بیش از 90 درصد می¬رسد. این در حالیست که تعیین دقیق شکستگی¬های یک میدان در حال حاضر بسیار پر هزینه بوده و مستلزم توصیف و مستندسازی گام به گام تعداد زیادی چاه¬نمودار تصویری توسط متخصصین خبره می¬باشد، بعلاوه¬ی اینکه در حال حاضر و به خصوص در ایران موانع جدی در مقابل لاگ¬برداری تصویری وجود دارد که نیاز به استفاده از سایر داده¬ها بمنظور شناسائی شکستگی-ها را اجتناب ناپذیر کرده است. تا کنون مطالعات متنوعی در زمینه تفکیک شکستگی¬های طبیعی باز و بسته صورت پذیرفته است که هنوز به هدف نهایی و کارآمد برای استفاده در صنعت نرسیده است. در این تحقیق سعی شده است با استفاده از داده¬های پتروفیزیکی به این تشخیص دست یابیم که آیا یک ناحیه از چاه دارای شکستگی باز، شکستگی بسته و یا فاقد شکستگی می¬باشد. در روش پیشنهادی به جای استفاده از داده¬های خام با استفاده از تکنیک پنجره¬گذاری و جایگزین نمودن داده¬ها با واریانس پنجره هر سیگنال داده¬ را به یک سیگنال ساده¬تر تبدیل نموده و از آن برای داده¬کاوی استفاده نمودیم. در دسته بندی داده¬ها از دو الگوریتم دسته¬بندی استفاده گردیده که در نهایت نتایج این دو الگوریتم با استفاده از روش رأی¬گیری اکثریت با هم ترکیب شده¬اند. دو الگوریتم مورد استفاده در این تحقیق الگوریتم naïve bayes و random tree می¬باشند که در مقایسه با سایر الگوریتم¬های آزمایش شده در این تحقیق نتایج بهتری را از خود نشان داده¬اند. این مطالعه بر روی چاه¬های میدان نفتی گچساران صورت پذیرفت. داده¬هائی که در اختیار این پروژه قرار گرفت دارای محدودیت¬هائی بود و بنابراین محدودیت¬ها قسمتهایی از آزمایشات بر روی داده¬های 7 چاه با 7 چاه¬نمودار انجام شده و قسمتهایی نیز بر روی داده¬های 4 چاه با 11 چاه¬نمودار. گرچه هدف اصلی و رویکرد مطالعات در این تحقیق دسته¬بندی داده¬ها به سه کلاس شکستگی باز، شکستگی بسته و یا فاقد شکستگی بوده است ولی بمنظور آنکه دست اندرکاران صنعت نفت بتوانند مقایسه¬ای با نتایج تحقیقات خود داشته باشند در پایان بخشی نیز به دسته¬بندی دو کلاس دارای شکستگی و فاقد شکستگی، اختصاص یافته است. در این تحقیق ایجاد توازن در میان صحت دسته¬بندی سه کلاس از اهمیت فوق¬العاده¬ای برخوردار است و این با طبیعت شکستگی¬ها سازگاری ندارد چرا که این داده¬ها دارای توازن نبوده و کلاس فاقد شکستگی ، با تفاوت بسیار زیاد کلاس غالب می¬باشد، لذا با درنظر گرفتن این اصل ما مجبور هستیم از نتایجی که دارای توازن کمتر می¬باشند حتی اگر از صحت عملکرد خوبی برخوردار باشند، صرف نظر کنیم. در پایان، برای دسته بندی دو کلاسه¬ی قابل تعمیم بهترین نتیجه در یکی از چاه¬ها به دقت 77.5 درصد و برای دسته¬بندی سه کلاسه¬ی قابل تعمیم برای یکی از چاه¬ها صحت عملکرد به بیش از 80.6 درصد رسید. این در حالیست که که میانگین دقت روش پیشنهادی بیش از 70.1 درصد را در دسته¬بندی سه کلاسه¬ی قابل تعمیم و نیز بالاتر از 68.6 درصد را در دسته¬بندی دو کلاسه¬ی قابل تعمیم از خود نشان می¬دهد.
حبیبه حسن آبادی حمید حسن پور
یکی از شایع¬ترین موارد خرابی تصویر، مساله تاری است. اگر شی موجود در صحنه¬ در هنگام فرآیند تصویربرداری حرکت کند باعث می¬شود ناحیه¬ای از تصویر تار شود، این نوع خرابی تاری حرکتی محلی نامیده می¬شود. در صورتی که در کل تصویر فرآیند رفع تاری اعمال شود، آرتیفکت¬هایی به نواحی بدون تاری تصویر اعمال می¬شود، که لزوم استفاده از روش¬هایی برای تشخیص مکان تاری را نشان می¬دهد. در این پایان¬نامه از سه مشخصه برای تشخیص مکان تاری استفاده شده است. این مشخصه¬ها کپسترم، تبدیل کسینوسی گسسته و تجزیه مقادیر منفرد می¬باشند. هر یک از این سه مشخصه در مورد تاری یا عدم تاری بلاک به طور جداگانه تصمیم می گیرد. تصمیم-گیری نهایی در مورد مکان تاری به صورت پیکسل به پیکسل است. اگر حداقل دو مشخصه پیکسلی را تار تشخیص داده بودند، در تشخیص نهایی آن پیکسل تار در نظر گرفته می¬شود. بعد از اتمام فرآیند تشخیص، برای از بین بردن نقاط و ناحیه¬های کوچک بوجود آمده از عملگرهای مورفولوژی استفاده شده است. و سپس تصویر آماده شده با روش دیکانولوشن بینا و با دانش اولیه توزیع خلوت رفع تاری شده است. از مزایای این روش می¬توان به سرعت و عدم وجود تاثیرات بلاکی اشاره کرد.
امید کهنسال حمید حسن پور
هدف از این پایان نامه، تعیین هویت افراد در تصاویر ویدیویی درگاه های ورودی تحت شرایط واقعی است. به این منظور در این پایان نامه، روشی بلادرنگ و مقاوم در برابر شدت روشنایی های متفاوت، حالات مختلف چهره، تغییرات زاویه دید و مقیاس، پوشش بخشی از چهره و کیفیت نامناسب تصاویر ارائه شده است. در ابتدا تصاویر ویدیویی از یک دوربین دریافت می شوند و با استفاده از الگوهای باینری محلی و طبقه بند آبشاری مبتنی بر آدابوست نامتقارن، چهره های موجود در هر فریم استخراج می شوند. در حین عمل استخراج، تصاویر چهره هر فرد تفکیک و مناسب ترین چهره هر فرد در هر چند فریم یک بار انتخاب و به مرحله شناسایی ارسال می گردد. در مرحله شناسایی با استفاده از توصیفگر sift استخراج ویژگی از نواحی مهم چهره مانند چشم ها، بینی و دهان انجام می شود و ابعاد این ویژگی ها کاهش می یابند. در نهایت به کمک ویژگی های بدست آمده، عمل تطبیق تصویر ورودی با تصاویر موجود در گالری انجام شده و هویت فرد مشخص می گردد.
حمید حسن پور فرشاد بهاری
چکیده مقدمه: هم وابستگی نه تنها شایع ترین اعتیاد بلکه "اساس" چیزی می شودکه همه اعتیادها و وسواسها از آن ناشی می شود.این اعتیاد و وسواس به هر ترتیبی که شکل بگیرد، قصد دارد این باور اشتباه را بیان کند که چیزی در خارج از وجود فرد می تواند او را خشنود و کامل کند. هدف: هدف پژوهش حاضر تعیین میزان اثربخشی درمان مبتنی بر پذیرش و تعهد (act) بر کاهش هم وابستگی مادران افراد معتاد می باشد. روش: طرح پژوهش حاضر از نوع مطالعات نیمه آزمایشی با پیش آزمون و پس آزمون همراه با گروه کنترل است. جامعه آماری این پژوهش شامل 48 نفر از مادران هم وابسته افراد معتاد در شهر تهران است که با نمونه گیری هدفمند انتخاب شدند. سپس با گمارش تصادفی نیمی از آنها (24 نفر) در گروه آزمایشی و نیمی دیگر (24 نفر) در گروه کنترل تخصیص داده شدند. ابزار پژوهش: ابزار این پژوهش عبارت است از: پرسشنامه هم وابستگی (codi). به منظور تجزیه و تحلیل داده ها از آزمون کوواریانس استفاد شد. یافته ها: نتایج نشان داد که بین گروه آزمایش و گروه کنترل در نمره کلی هم وابستگی تفاوت معناداری وجود دارد(p<0/001 f=150/2159 ). نتیجه گیری: نتایج این پژوهش در مورد تاثیر روان درمانی گروهی مبتنی بر پذیرش و تعهد(act) بر کاهش هم وابستگی مادران افراد معتاد که با پذیرش احساسات و پذیرفتن خود واقعی و بازسازی و تقویت ارزش های کار آمد و تعهد به انجام آنها، هم وابستگی مادران افراد معتاد نسبت به قبل از درمان کاهش چشمگیری نشان داد.
سمیرا آشوری حمید حسن پور
چکیده ندارد.
نیما ذبیحی شیخ رجه جواد روحی
در این پایان نامه مدل میانگین فضای حالت برای اینورتر منبع امپدانس بکار گرفته شد و با مقایسه عملکرد این مدل و مدل مداری و تأثیر افت ولتاژ بر آنها مشخص گردید که با استفاده از مدل میانگین و خطی سازی آن حول نقطه کار , می توان دید مناسبی از کنورتور جهت طراحی جبرانساز و کنترل کننده مورد نیاز در کاربردهای مختلف نظیر پیل سوختی داشت. نتایج بدست آمده نشان داد که در صورت کنترل مناسب ولتاژ خازن شبکه امپدانس , می توان خروجی اینورتر منبع امپدانس را بگونه ای کاملاً مناسب کنترل نمود. مدل پیشنهادی به پاسخ گذرای خوبی نسبت به مدل مداری دست یافته است. جریان سلف شبکه امپدانس در این مدل بر خلاف نتیجه حاصل از مدل مداری نوسانات کمتری دارد و در زمان کمتری به حالت پایدار خود می رسد. در ادامه دو روش کنترل حداکثر تقویت و حداکثر تقویتی با ضریب وظیفه shoot through ثابت , به همراه تزریق هارمونیک سوم , برای اینورتر منبع امپدانس سه فاز ارائه شده است. تنش ولتاژ در روشهای ارائه شده نسبت به روش کنترل تقویتی ساده خیلی کمتر شده است. به این معنی که برای تجهیزات معین , اینورتر قادر خواهد بود تا به بهره ولتاژ بالاتری دست یابد. در نتایج شبیه سازی کاملاً واضح است که روشهای پیشنهادی حداکثر تقویتی با ضریب وظیفه shoot through ثابت و حداکثر تقویتی با ضریب وظیفه shoot through ثابت همراه با تزریق هارمونیک سوم , ریپل مربوط به فرکانس خط را حذف می کنند و این مسئله باعث می شود که بتوان مولفه های شبکه امپدانس را کوچکتر انتخاب نمود که این امر در بسیاری از کاربردها به صرفه و مفید خواهد بود. نتایج حاصل از شبیه سازی با نرم افزار matlab بیانگر قابلیت مناسب طرح های ارائه شده می باشد.