نام پژوهشگر: رضا عزمی
ایران بیمر فریبرز موسوی مدنی
مهمترین اصل در کارآمدی سرویسهای مبتنی بر فناوری اطلاعات در جامعه ایجاد اعتماد در کلیه سطوح جامعه می باشد . اعتماد چیزی جز ایجاد ارکان امنیت اطلاعات برای آحاد افراد جامعه نیست. این پژوهش قصد دارد یک بررسی تحلیلی از روشهای پرداخت مبتنی برموبایل ارائه کند. بدین منظور ابتدا نگاهی به تهدیدات و مکانیزمهای مقابله با آنها درزمینه پرداخت های الکترونیکی دارد تا یک دید کلی از وضعیت امنیتی وراههای مبارزه با آنهارا بدست دهد. سپس با دسته بندی سرویسهای امنیتی و با الهام از استاندارد فیپس 191 ، یک چارچوب تحلیلی برای بررسی وضعیت امنیتی روشهای پرداخت ارائه می کند و روشهای پرداخت مبتنی برموبایل را، درقالب این چارچوب تحلیل می کند. درادامه با بهبود ساختار کلید عمومی بی سیم و با عنایت به پروتکل ست روش پرداخت امنی ارائه می کند که آنرا با همان چارچوب تحلیل ارائه شده بررسی می نماید.
سحر یوسفی مرتضی زاهدی
ناحیه بندی تصاویر mr مغز نقش پر اهمیتی را در سیستم های تشخیص نابهنجاری ها مانند تومور بازی می کند. در این پایان نامه از مدل آماری میدان تصادفی مارکوف به منظور ناحیه بندی بدون ناظر تصاویر mr استفاده شده است. این مدل یک مدل آماری است که مساله ی ناحیه بندی تصویر را به مساله ی برچسب گذاری تبدیل می کند و هدف آن یافتن یک میدان تصادفی برچسب گذاری شده با انرژی بهینه می باشد. به منظور بهبود کارایی روش و افزایش سرعت همگراییِ الگوریتم در یافتن جواب بهینه، دو الگوریتم بهینه سازی پیشنهاد می شود. در روش اول از ترکیب الگوریتم تبرید فلزات و الگوریتم ژنتیک اصلاح شده استفاده شده است. الگوریتم تبرید فلزات یک الگوریتم بهینه سازی قوی با سرعت محاسباتی پایین به منظور یافتن جواب بهینه است و الگوریتم ژنتیک یک جستجوی سریع است که ضمانتی در یافتن جواب بهینه ندارد. در ترکیب این دو روش با بهره گرفتن از مزایای هر الگوریتم سعی در پوشاندن کاستی های الگوریتم دیگر هست. به این طریق به روشی دست خواهیم یافت که از لحاظ سرعت و دقت محاسباتی به خوبی عمل می کند. در روش دوم از ترکیب الگوریتم های اجتماعی شامل بهینه سازی اجتماع مورچگان و الگوریتم شایعه پراکنی کمک گرفته شده است. الگوریتم های اجتماع مورچگان یک الگوریتم هدایت شده چند عامله برای بهینه سازی است که از رفتار مورچگان در پیدا کردن مسیر بهینه میان لانه و غذا ایده گرفته شده است و ترکیب الگوریتم شایعه پراکنی با آن باعث تصمیم گیری هدفمندانه و بهبود عملکرد هر یک از عامل ها در الگوریتم می شود. در نتیجه سرعت و دقت محاسباتی الگوریتم بهبود می یابد. در این تحقیق به منظور آزمون روش های پیشنهادی از سه نوع مجموعه داده و مقایسه نتایج با الگوریتم استاندارد مدل تصادفی مارکوف استفاده شده است. در رویکرد اول از روش های مطرح شده به منظور ناحیه بندی بافت های سالم مغز شامل ماده سفید، ماده خاکستری، مایع نخاعی در تصاویر واقعی mr استفاده شده است. در روش استاندارد نتایج نشان دهنده میانگین درصد ضریب dice 1/72% است. در مقابل همین معیار برای روش ترکیبی الگوریتم تبرید فلزات و الگوریتم ژنتیک برابر با 1/73% و برای روش ترکیبی الگوریتم های اجتماع مورچگان و شایعه پراکنی برابر با 7/72% می باشد. همچنین میانگین درصد کاهش زمان محاسبات روش پیشنهادی اول نسبت به الگوریتم استاندارد برابر با 49/89% و برای روش پیشنهادی دوم نسبت به الگوریتم استاندارد برابر با 02/59% می باشد. در رویکرد دوم از روش ها به منظور ناحیه بندی تومور در تصاویر واقعی مغز استفاده شده است. میانگین درصد ضریب dice در ناحیه بندی تومور در روش استاندارد برابر با 1/73%، در روش پیشنهادی اول 76% و برای روش پیشنهادی دوم معادل با 8/70% می باشد. همچنین میانگین درصد کاهش زمان محاسباتی روش پیشنهادی اول نسبت به روش استاندارد 33/91% و روش پیشنهادی دوم 21/71% می باشد. در رویکرد سوم روش های مطرح شده به منظور ناحیه بندی تصاویر شبیه سازی شده چند-طیفی مغز استفاده شده است. در روش استاندارد، نتایج نشان دهنده میانگین درصد ضریب dice برابر با 1/82% می باشد. این معیار برای روش پیشنهادی اول برابر با 2/83% و برای پیشنهادی دوم برابر با 7/82% می باشد. همچنین میانگین درصد کاهش زمان محاسباتی روش پیشنهادی اول نسبت به روش استاندارد 08/77% و روش پیشنهادی دوم نسبت به روش استاندارد 08/67% می باشد.
مهدیه حکیمی رضا عزمی
طبیعت دسترسی آزاد به شبکه، گمنام ماندن، وجود اعضای ناهمگون و نبود سیستم احراز هویت مرکزی، همانطوری که تجارب اخیر از محیط های نظیربه نظیر مانند شبکه نوتلا (gnutella) نشان می دهد، این سیستم ها را در مقابل اعضای بدخواهی که قصد آلوده کردن سیستم با داده های مسموم را دارند، آسیب پذیر می سازد. بنابراین بایستی کاربران در مورد کیفیت و قابلیت اعتماد منابعی که در دسترس آنها قرار می گیرد، بسیار هوشیار باشند و محتاطانه عمل کنند. پژوهشگران به منظور کاهش رفتارهای مضرّ توسط اعضای بدخواه و غیرقابل اعتماد در شبکه، استفاده از مکانیزم های خوشنامی و اعتماد را پیشنهاد کرده اند. در این پژوهش از شبکه عصبی مصنوعی rbf،که خاصیت دسته بندی بدون ناظر را مضاف بر مکانیزم بازشناسی با ناظر، دارا است، به منظور تعیین سطح اعتماد و خوشنامی در شبکه های فرانهاد(overlay) کمک گرفته ایم. ورودی های این شبکه عصبی نظرات سایر اعضا در مورد سطح اعتماد فراهم کننده فایل مورد نظر است. آموزش آن، از طریق تجربه خود فرد پس از هر بار تعامل انجام می گیرد و در نهایت خروجی نیز معادل سطح اعتماد فراهم کننده فایل است. مدل ارائه شده در یک محیط شبیه ساز مناسب ارزیابی و آزمون شده است و پس از اجرای 30000 چرخه جستجو، به مقدار 91.7 درصد پاسخ صحیح شبکه عصبی رسیده است.
طاهره پورحبیبی رضا عزمی
امروزه به دلیل اهمیت محافظت سیستم های اطلاعاتی از مهاجمان، سیستم های تشخیص نفوذ به مولفه های ضروری زیربنای امنیت تبدیل شده اند. این پژوهش نیز به تشریح یکی از راهکارهای هوش محاسباتی، سیستم های ایمنی مصنوعی، در تشخیص نفوذ می پردازد. پس از بررسی تعاریف مقدماتی و مفاهیم پایه مطرح در تشخیص نفوذ و سیستم های ایمنی مصنوعی دریافتیم که الگوریتم های انتخاب غیرخودی از جمله مهمترین شاخه های موجود در این سیستم ها در مباحث تشخیص نفوذ به شمار می روند و ما نیز مطالعات خود را روی این حوزه متمرکز نموده و برآن شدیم تا راهکار هایی را برای تولید هرچه بهتر تشخیص دهنده ها یعنی مجموعه تشخیص دهنده هایی با تعداد کم و میزان پوشش هرچه بیشتر و بهتر فضای غیرخودی، در الگوریتم های انتخاب غیرخودی ارائه دهیم؛ راهکار هایی که در فضاهای با ابعاد بالا و پایین از قابلیت های تشخیص خوبی برخوردار باشند. بدین ترتیب در این پژوهش دو راهکار برای تولید تشخیص دهنده ها در الگوریتم های انتخاب غیرخودی ارائه نمودیم. الگوریتم اول مبتنی بر بکارگیری شبکه-های عصبی rce است و الگوریتم دوم از مفاهیم دست یابی به حداکثرگونه گونی و الگوریتم های جستجوی پراکندگی استفاده می کند تا تشخیص دهنده هایی با حداکثر میزان تشخیص و حداکثر میزان پوشش فضای غیرخودی را تولید کند. هم چنین درصدد برآمدیم تا الگوریتمی برای کاهش میزان هم پوشانی تشخیص دهنده های تولید شده در مدل مبتنی بر rce ارائه دهیم و به این ترتیب با صرف نظر از کاهش بخشی از دقت تشخیص توانستیم میزان قابل توجهی از هم پوشانی تشخیص دهنده ها را کاهش دهیم. نهایتا ما تنها به تشخیص خودی/غیرخودی نمونه های ورودی اکتفا نکرده و با ترکیب ایده های الگوریتم های انتخاب نسل در الگوریتم-های ژنتیک، مدلی برای دسته بندی نمونه های غیرخودی به یکی از چهار کلاس اصلی موجود در حملات ارائه نمودیم.
ساناز گلشن پور نظامی رضا عزمی
یکی از آخرین مفاهیم استفاده شده برای حفظ امنیت اطلاعات، مدیریت امنیت اطلاعات است و آخرین رویکردی که برای مدیریت امنیت اطلاعات استفاده شده است، رویکردهای کل نگری هستند که در حوزه های مختلفی ایجاد شده اند. در این تحقیق قصد داریم به بررسی مدیریت امنیت اطلاعات در سیستم خدمات آموزش بپردازیم؛ به این منظور، با بررسی بسیاری از رویکردها و مدل های امنیت اطلاعات، متدی را برای پیاده سازی مدیریت امنیت ارائه شده است. این متد برمبنای یکی از چارچوب های معماری سازمانی ومتد آن است. بررسی این متد و ارائه آن با توجه به اجزا و ویژگی های سیستم خدمات آموزش دانشگاه صورت گرفته است. این متد با توجه به ابزارها و تئوری های مورد استفاده، کل نگر است و دیدگاه ها و ابعاد متفاوتی را پشتیبانی می کند. در استفاده از مراحل مختلف آن، رویکردها و مدل های پیشین نیز پیشنهاد می شود. علاوه بر استفاده از مدل ها، استانداردها و چارچوب های پیشین امنیت اطلاعات، برای تشریح مشکلات رویکردهای قبلی، از ویژگی های آنها و الزامات جدید نیز برای مقایسه و انتخاب چارچوب مورد نظر از بین چارچوب ها و متدهای معماری سازمانی به منظور ایجاد متد مدیریت امنیت اطلاعات استفاده شده است. این مقایسه در ماتریسی بدین منظور ارائه شده است. مبنای متد ارائه شده در این پایان نامه، سیکل مدیریت بحران است از چهار مرحله اصلی تشکیل می شود. همچنین برای پیاده سازی ویژگی های لازم در مدیریت امنیت اطلاعات و حرفه مورد نظر که در اینجا سیستم خدمات آموزش است، و درنهایت ایجاد کل نگری، از چارچوب معماری سازمانی گسترده و متد آن استفاده شده است. برای تکمیل این متد از تعریف فرآیندهای بررسی وضعیت موجود، مطلوب و گذار بر روی چهار مرحله سیکل مدیریت بحران بهره برده شد ه است.
مریم باحجب ایمانی محمد رضا کیوان پور
محبوبیت وب و حجم زیاد مستندات متنیِ الکترونیکی موجود، باعث افزایش نیاز به جستجو برای استخراج دانش نهان از مجموعه ی مستندات متنی شده است. بنابراین، امروزه مسئله ی متن کاوی در زمینه های متعددی از جمله پزشکی، زیست-فناوری، اقتصاد و فناوری اطلاعات مورد توجه قرار گرفته است. متن کاوی قادر است پردازش هایی مانند طبقه بندی، خوشه بندی، خلاصه سازی و استخراج اطلاعات متنی را پوشش دهد. طبقه بندی متون به شیوه ا ی مناسب با میزان خطای کم و تعمیم پذیری بالا یکی از موضوعات مهم در حوزه ی متن کاوی است. یکی از مهم ترین چالش ها در طبقه بندی متون، حجم زیاد مشخصه های مستخرج از اطلاعات متنی می باشد. یادگیری از داده هایی که مشخصه های زیادی دارند نه تنها باعث افزایش هزینه های محاسباتی می شود، بلکه کارایی یادگیری را نیز کاهش می دهد. بر این اساس استفاده از روش های مناسب انتخاب مشخصه از اهمیت ویژه ای در این حوزه برخوردار می باشد. در این راستا، در پژوهش انجام شده یک روش انتخاب مشخصه های توکار برای حل این چالش پیشنهاد شده است که نتایج بهتری را نسبت به روش های رایج می دهد. بهره گیری از روش های یادگیری با نظارت، که از مثال های آموزشی بر چسب دار استفاده می کنند، به عنوان یکی از رویکردهای سنتی جهت طبقه بندی متون مطرح است. برای انجام این نوع یادگیری با دقتی منطقی، وجود تعداد کافی از مثال های آموزشی برچسب دار ضروری است. بدین منظور به فردی خبره نیاز است که به هر سند برچسبی نسبت دهد؛ که این کار فرآیندی خسته کننده، زمانبر و پر هزینه می باشد. بنابراین تأمین تعداد کافی از مثال های آموزشی برچسب دار عملی غیر ممکن است. در مقابل، اسناد بدون برچسب اغلب در حجم زیاد قابل دسترس هستند. بنابراین، رویکرد موثر و عملی دیگر در یادگیری استفاده از اسناد برچسب دار به همراه اسناد بدون برچسب در زمان یادگیری می باشد، این ایده مبنای اصلی رویکرد یادگیری نیمه نظارتی را تشکیل می دهد. در این حالت، الگوریتم های یادگیری می توانند از داده های بدون برچسب استفاده کنند، که اغلب منتهی به تابع طبقه بندی دقیق تری می شود. در این پژوهش، روشی مبتنی بر یادگیری تجمیعی و رویکرد خودآموزی برای انجام یادگیری نیمه نظارتی پیشنهاد شده است که بر اساس آزمون های انجام شده موجب بهبود کارایی یادگیری نیمه نظارتی در زمینه ی طبقه بندی متون شده است.
نرجس جان نثاری رضا عزمی
شهرداریها به عنوان متولیان اداره امور شهری نیازمند تغییر در فرایندها، سیستمهای اطلاعاتی و ارتباطی خود هستند، این سیستمها برای ارائه خدمات موثر و امن نیازمند همکاری ویکپارچگی هستند. به منظور پیاده سازی یکپارچگی نیاز به یک معماری همبند مناسبی از معماریهای موجود، ارتباط بین آنها و مولفه های آنها بر مبنای سرویسگرایی می شود، سرویسگرایی متمرکز روی کشف داده ها، اطلاعات، هماهنگی ویکپارچگی خدمات دانه بندی شده است و در تسهیل و به اشتراک گذاری اطلاعات و مشارکت بین سیستمهای شهرداری و شهروندان موثر است. اما تمام سطوح سازمانی را پوشش نمی دهد، پیش نیاز طراحی و پیاده سازی شهرداری الکترونیکی نیاز به معماری سازمانی دارد و ما با یک رویکرد تلفیقی، یک مدل معماری سازمانی سرویسگرا برای شهرداری الکترونیک ارائه دادیم، معماری سازمانی سرویسگرا بر پایه سرویسهای وبی است و دارای ویژگیهایی مانند اتصال سست، تعامل پذیری و قابلیت استفاده مجدد می باشد، اما همین ویژگیها چالشهایی از جمله امنیت را پیش روی این فناوری قرار داده است، با وجود چنین مسائلی، نیاز به یک مدل امنیتی در این زمینه ضروری به نظر می رسد، بعد از بررسی مدلهای امنیتی موجود در معماری سرویسگرا، و با استفاده از مدلهای تهدید در معماری سرویسگرا تهدیدات، سرویسها و استانداردهای امنیتی، شناسایی شدند، سپس یک مدل امنیتی سه بعدی در راستای توسعه مدل اولیه پیشنهاد شد، سپس منظور بررسی قابلیت تحقق، روی یکی از خدمات الکترونیکی شهرداری الکترونیک با استفاده از الگوریتم ژنتیک تحلیل موردی انجام شد ومراحل بهینه سازی(برای کاهش هزینه های امنیتی، میزان ریسک تهدیدات و ارزش سرویسهای امنیتی) روی خدمت انتخاب شده، انجام شد. کلید واژه:معماری سرویسگرا،معماری سازمانی سرویسگرا،شهرداری الکترونیک،امنیت،الگوریتم ژنتیک
معصومه کردیان رضا عزمی
در این پژوهش، یک مدل پرداخت سیار اعتماد شمول امن ارائه شده است که در آن اعتماد با توجه به سه موجودیت کالا، فروشنده و خریدار در معاملات، به چهار صورت، اعتماد به کالا، اعتماد به خریدار، اعتماد به فروشنده ی وابسته به کالا و، اعتماد به فروشنده ی مستقل از کالا محاسبه می شود. محاسبه ی مقدار هر کدام از این چهار صورت اعتماد براساس چهار نوع داده ی، تجربیات مستقیم، اطلاعات شاهدان، روابط میان عامل ها و، امتیازات و گواهی نامه ها است. همچنین، پایایی مقدار اعتماد بدست آمده از هر نوع داده، محاسبه می شود که در محاسبه ی نهایی اعتماد نیز موثر است. در این مدل پیشنهادی جنبه های مختلفی برای ارزیابی، کالا، خریدار و فروشنده پیشنهاد شده و به جهت مقابله با حملات بدخواهان پارامترهایی چون، فاکتورهای زمینه ای تراکنش، زمان و ضریب نمره منفی، در محاسبات اعتماد لحاظ گردیده است. به علاوه آستانه ی پذیرش تراکنش نیز براساس اهمیت، سودمندی و ریسک تراکنش پیش رو تغییر می کند و اطلاعات بدست آمده از شاهدان با توجه به میزان تجربه ی عامل محاسبه کننده ی اعتماد، اعتبار گذاری می شود. به همراه این مدل پیشنهادی که stmpayment نامگذاری شده است، پروتکل stmpayment نیز ارائه شده است که امکان ذخیره سازی، بازیابی و انتقال امن اطلاعات در بستر پرداخت سیار را فراهم می کند. مدل stmpayment به همراه پروتکل آن در هر دو شبکه ی غیر ساختار یافته و ساختار یافته ی مبتنی بر dht براساس ویژگی های هر کدام، ارائه شده است. در نهایت نیز مدل stmpayment در نرم افزار matlab شبیه سازی و با مدل peertrust مقایسه شده که نتایج ارزیابی ها، نشان دهنده ی سرعت بالاتر همگرایی مدل stmpayment به مقادیر واقعی، دقت بیشتر اعتماد محاسبه شده و کارایی بهتر مدل stmpayment است که در نتیجه، درصد معاملات سودآور بالاتر رفته و مقدارسود متوسط عامل ها افزایش یافته است.
زهرا بهمنی کوخدان رضا عزمی
با افزایش کتابخانه های دیجیتال و برای برای دستیابی به هدف ادارات بدون کاغذ تعداد زیادی از کپی ها به دیجیتال تبدیل شده و در سیستم مدیریت اسناد ذخیره شده است. همچنین در حال حاضر میلیون ها سند دیجیتال دائماً بر روی اینترنت از یک نقطه به نقطه ی دیگر منتقل می شوند. اگر چه تکنولوژی پردازش تصویر اسناد می تواند برای تبدیل اتوماتیک تصاویر دیجیتال این اسناد به فرمت متن قابل خواندن به وسیله کامپیوتر با استفاده از بازشناسی کارکتر نوری استفاده شود ولی این روش برای حجم عظیمی از اسناد بهینه و کارا نیست. با توجه به این شرایط یافتن راه حل بازیابی اسناد پرینت شده به روشی که نیاز به برگرداندن این اسناد به نسخه ی متنی نداشته باشد ضروری به نظر می آید. روش های بازیابی و بازشناسی به دو دسته اصلی تقسیم می شوند. دسته اول بازیابی را بر اساس توصیف شکل کلی کلمات یا زیرکلمات انجام می دهند. دسته دوم کلمه را به حروف می شکنند و از هر تصویر حرف ویژگی استخراج می کنند. در روشهای مبتنی بر جداسازی علاوه بر مشکلاتی مانند وجود نقاط و علائم و تنوع قلمها، مشکل جداسازی حروف نیز وجود دارد. در این پژوهش ما از روشی برای استخراج ویژگی های کلمات استفاده کرده ایم که نیاز به تخمین نقاط جداسازی ندارد. برای این منظور از شناسایی اتصال دهنده های عناصر اصلی حروف استفاده شده است. با شناسایی این اتصال دهنده ها و حذف آنها عناصر اصلی که در این پژوهش با نام زیرحروف نامگذاری شده اند استخراج شده است. در این پژوهش از سه روش زیر برای تشخیص زیرحروف استفاده شده است. در روش اول زیرحروف با استفاده از درخت تصمیم و به کمک ویژگی های شکلی زیرحروف مانند ارتفاع، عرض، حفره ها، گودال ها، دره ها، فرورفتگی ها و موقعیت عنصر نسبت به خط زیمینه تشخیص داده شده اند. دقت تشخیص در این روش برای زیرحروف بین 80 نا 100 در صد بوده است. در روش دوم از ترکیبی از درخت تصمیم نخ کشی شده و شبکه عصبی rbf برای تشخیص زیرحروف استفاده شده است. در این روش علاوه بر ویژگی های شکلی کلمه، ویژگی نمایه ها در چهار جهت بکار برده شده است. نتایج روش دوم برای زیرحروف بین 90 تا 100 ارزیابی شده است. سومین روش مورد استفاده شبکه عصبی چند سطحی می باشد. در این روش تشخیص تنها به وسیله ویژگی نمایه ها و در سه تا چهار سطح و با استفاده از شبکه عصبی انجام شده است. تشخیص در این روش برای اغلب زیرحرف ها بالای 95 درصد بوده است. در نهایت با کد کردن زیرحروف، زیرکلمات و کلمات موجود در تصویر سند کد شده و برای بازیابی کلمات کلیدی مورد نظر کاربر استفاده شده است. دقت سیستم برای کلمات با طول متغییر به طور متوسط بالای 90 درصد ارزیابی شده است.
بشری پیشگو رضا عزمی
یکی از چالش های اساسی در مبحث امنیت سیستم های کامپیوتری، تشخیص فعالیت های خرابکارانه و نفوذی به سیستم می باشد. به همین جهت تشخیص نفوذ بر پایه ی متدهای یادگیری، هم اکنون به یکی از رویکردهای فعال در تحقیقات امنیتی تبدیل شده است. این تحقیقات دارای دو چالش عمده می باشند. نخست جمع آوری امن اطلاعات و دوم ایجاد متدی دقیق برای تشخیص ناهنجاری ها. در اینجا ما از فراخوان های سیستمی و آرگومان های آنها، به عنوان الگویی برای توصیف رفتار فرایندهای سیستمی استفاده می نماییم. در کاربردهای امنیتی، الگوهای رفتاری می بایست به صورت کاملا امن و به دور از دستبرد و تغییر مهاجمان و روت کیت ها جمع آوری گردند. به همین منظور، در این پژوهش، سیستمی نوین با عنوان shadudt ارائه می دهیم. این سیستم در حقیقت نوعی معماری امن و مبتنی بر ناظر است که از یک سو با بکارگیری مولفه ای تحت عنوان رویدادنگار امن (shadudt_sa ) به جمع آوری امن اطلاعات مرتبط با فراخوان های سیستمی در لایه ی مانیتور ماشین مجازی می پردازد و از سویی دیگر، رفتارهای هنجار و ناهنجار را از طریق متدی تحت عنوان shadudt_dm تفکیک می نماید. shadudt_dm الگوریتمی نوین در حوزه ی سیستم های ایمنی مصنوعی می باشد که از تئوری خطر به عنوان یکی از جدیدترین تئوری های ایمنی شناسی الهام می پذیرد و به شبیه سازی همزمان عملکردهای هر دو سیستم ایمنی طبیعی و انطباقی می پردازد. این پژوهش پس از ارائه ی معماری shadudt، به ارزیابی کارایی آن بر اساس معیارهای گوناگون و نیز مقایسه ی shadudt_dm با متدهای تشخیص نفوذ کلاسیک در حوزه ی سیستم های ایمنی مصنوعی می پردازد. آزمایشات صورت گرفته نشان می دهند که معماری امن ارائه شده با بهره گیری همزمان از مزایای سیستم های ایمنی مصنوعی و تکنولوژی ناظر، قادر است با تحمل میزان کمی سرباره ی زمانی و حافظه ای، به رشد قابل توجهی در دقت تشخیص دست یابد.
نرگس نوروزی رضا عزمی
کشف و بررسی دقیق تغییرات، در تصاویر متوالی ام.آر.آی، نقش بسیار مهمی را در پیشبینی، تشخیص و نظارت بر بیماری در طول درمان به عهده دارد. اما کشف و بررسی این تغییرات، توسط فرد خبره کاری بسیار زمانبر، سخت و گاهی غیر ممکن است. چرا که حجم دادههای مورد بررسی بسیار زیاد بوده و برخی از تغییرات به حدی کوچک و جزئی هستند که توسط فرد خبره، قابل مشاهده نیستند. از اینرو در این حوزه، استفاده از سامانههای خودکار مورد توجه قرار گرفته است. اما دامنهی وسیعی از ضایعات حاصل از تصویربرداری ام.آر.آی و تغییرشکلهای پیچیده، که باعث ایجاد تغییرات جعلی و ساختگی بسیاری در تصاویر میشوند، عملکرد سیستمهای خودکار را در کشف تغییرات اصلی تحت تاثیر قرار میدهند. علاوه بر آن، بسیاری از روشهای ارائه شده از کارایی لازم جهت بررسی کمّی تغییرات کشف شده، برخوردار نیستند. ما در این پژوهش، روشی خودکار به منظور رفع نقاط ضعف موجود ارائه کردهایم که از سه مرحلهی اصلی پیشپردازش، کشف و تفسیر تغییرات تشکیل شده است. در فاز نخست از مرحلهی پیشپردازش، جهت نرمالسازی مقادیر شدتروشنایی، روشی مبتنی بر انطباق سلسلهمراتبی هیستوگرام تصاویر پیشنهاد میشود، که نسبت به روشهای پیشین حساسیت کمتری نسبت به نویز دارد. در فاز دوم از این مرحله نیز، جهت تصحیح تغییرشکلهای ایجاد شده در تصویر، تابع انتقال آفین و روشی مبتنی بر توابع پایهای b-splines به کار برده میشود. آخرین فاز از مرحلهی پیشپردازش، شامل استفاده از روش پیشنهادی eroc مبتنی بر معیار شباهت میانگین مربعات فاصله و الگوریتم جستجوی تپهنوردی، جهت استخراج نواحی حاوی تغییرات اصلی است. در مرحلهی کشف، که مهمترین مرحله از روش پیشنهادی به شمار میرود، روشی مبتنی بر رشد ناحیه ارائه میشود، که به دلیل استفاده از روش پیشنهادی اطلاعات متقابل محلیوزندار جهت استخراج ویژگیها، تبعیت از اصل محلی بودن رخداد تغییرات و حذف عمل آستانهگیری از کارایی بالایی برخوردار است. در مرحلهی آخر از روش پیشنهادی نیز، الگوریتم mco_training که مبتنی بر یادگیری نیمهنظارتی است، به منظور تعیین نوع و تفسیر کمّی تغییرات ارائه میگردد. نتایج حاصل از ارزیابی روش پیشنهادی بر روی مجموعه دادههای واقعی و پیادهسازی شده، نشان از کارایی قابل توجه آن در کشف تغییرات در مقایسه با روش glrt دارد. با توجه به نتایج به دست آمده، این روش، به دلیل استخراج نواحی حاوی تغییرات، با کاهش ناچیزی در نرخ تشخیص صحیح ، کارایی سامانه را از نظر پیچیدگی محاسباتی به میزان 4/26 درصد بهبود میبخشد. علاوه بر آن روش پیشنهادی در مقایسه با فرد خبره نیز در کشف تغییرات کوچک برتری کامل داشته و قادر به تشخیص تغییرات غیرقابل مشاهده توسط فرد خبره است.
الهه جهانی رضا عزمی
یکی از راهکارهای مورد استفاده جهت ایجاد امنیت در شبکه های کامپیوتری استفاده از سیستم های تشخیص نفوذ می باشد. معماری های امروزی استفاده شده برای تشخیص تهاجم، طراحان سیستم های تشخیص تهاجم را در انتخاب نوع معماری کارایی که بتواند قابلیت اطمینان بیشتری در مورد تشخیص تهاجمات داشته باشد با دشواری هایی مواجه کرده است و آن ها مجبور به استفاده از طرح های پیچیده ای برای بالا بردن توانایی این سیستم ها برای تشخیص تهاجمات و مصون ماندن از حملات صورت گرفته بر علیه آن ها شده اند. اگر سیستم تشخیص نفوذ، از نوع سیستم تشخیص نفوذ سمت میزبان باشد دارای دید بسیار خوبی نسبت به اتفاقات روی داده در سیستم میزبان می باشد ولی به شدت در مقابل حملات انجام شده بر علیه آن آسیب پذیر می باشد . در این پایان نامه یک سیستم تشخیص نفود میزبان ارائه می گردد. الگوریتم تکاملی تقلیدی که از یک جستجوی محلی استفاده می کند معرفی می گردد تا مقاومت بهتری در برابر حملات خارجی ایجاد کند. در جستجوی محلی دو راهکار جهت انتخاب فرزندان ارائه گردیده است. این الگوریتم از کروموزوم های با طول متغیر استفاده می کند و برای هر ویژگی یک ماسک در نظر گرفته شده است. در ادامه به ازای هر ویژگی یک مقدار اعتماد تعریف می گردد تا در ریزجهش مورد استفاده قرار گیرد که موجب خواهد شد نرخ مثبت کاذب کاهش یابد. الگوریتم با استفاده از داده فراخوانی های سیستمی که در محیط لینوکس جمع آوری گردیده است مورد ارزیابی قرار گرفت و نتایج نشان دهنده دقت در سطح 98.9% می باشد. همان گونه که نشان داده شده است الگوریتم پیشنهادی دارای نرخ تشخیص صحیح بالا و نرخ مثبت کاذب پایین می باشد.
الهام جودی مریم اسمعیلی
معماری سرویس گرا، به عنوان یک معماری نرم افزاری، با ویژگی هایی چون سست اتصالی، پنهان سازی پیاده سازی داخلی، خودمختاری، قابلیت ترکیب پذیری و استفاده ی مجدد سرویس ها، مزایایی چون ارتقاء تعامل پذیری، کاهش هزینه های فناوری اطلاعات و افزایش سرعت و چابکی سازمان ها را به همراه داشته است. به گونه ای که این معماری را به معماری غالب، در عرضه ی خدمات وب تبدیل کرده است. اما در دسترس قرار دادن گستره ی وسیعی از خدمات، در قالب معماری سرویس گرا مشکلات امنیتی را برجسته تر نموده است. هم اکنون مسئله ی امنیت، به عنوان چالش برانگیزترین دغدغه های این معماری مطرح است. این پایان نامه، به ارائه ی مدل امنیتی برای معماری سرویس گرا می پردازد. به نحوی که شناسایی و دسته بندی تهدیدات آن را مقدور می سازد. سپس راهکارهای مقابله با تهدیدات را در قالب جدولی، شامل سرویس ها، مکانیزم ها و استانداردهای امنیتی مربوط به هر تهدید نگاشت می نماید. در ادامه به معیارهای امنیتی تأثیرگذار در انتخاب راهکارهای مقابله با تهدیدات پرداخته شده است. در این خصوص معیارهای ارزش، هزینه، ریسک و اعتماد مورد توجه قرار گرفته اند. سپس، سه رویکرد امنیتی درخت حمله، فرآیند سلسله مراتبی و هوش مصنوعی جهت انتخاب راهکارهای امنیتی مناسب پیشنهاد شده است. در نهایت مطالعات انجام شده، در فرآیند انتقال وجه اینترنتی مورد بررسی قرار گرفته است. یافته های این تحقیق نشان می دهد، هرچند رویکردهای پیشنهاد شده در ارتقاء امنیت معماری سرویس گرا مفید واقع می شوند؛ رویکرد امنیتی هوش مصنوعی رویکرد مناسب تری در انتخاب سرویس های امنیتی بهینه است.
معصومه راجی ولی درهمی
در این پژوهش، یک الگوریتم مقاوم و کارا در به نام hidais برای تشخیص نفوذ داده های دسترسی وب ارائه شده است. کاربردی که سیستم پیشنهادی برای آن طراحی شده است بسیار چالش برانگیز است زیرا سایز وب (منبع داده) بسیار بزرگ است و نویز در اطلاعات وب بسیار زیاد و مفاهیم در حال تغییرند. الگوریتم پیشنهادی سیستمی بدیع که از سیستم ایمنی طبیعی الهام گرفته است و بر اساس اصول این سیستم عمل می کند و قادر است رفتارهای نرمال و غیر نرمال کاربر را دنبال کند و به خاطر بسپارد. به طور کلی نتایج این پایان نامه حاکی از قابلیت مناسب سیستم های ایمنی مصنوعی در تشخیص نفوذ می باشد. بخش مهمی از قابلیت آن عملکرد خوب آن در محیط پویا همچون وب است. از دیگر مزیت های سیستم تشخیص نفوذ ارائه شده در کنار هم آوردن دو مفهوم سیستم ایمنی ذاتی و وفق پذیر است. با ترکیب دو روش تئوری خطر (ایمنی ذاتی) و شبکه ایمنی (ایمنی وفق پذیر) مانند سیستم ایمنی طبیعی که از هر دو ایمنی بهره گرفته است توانسته این مفهوم طبیعی را شفاف تر در سیستم تشخیص نفوذ جای دهد. همانطور که در سیستم ایمنی طبیعی، سیستم ایمنی ذاتی اولین لایه دفاعی بدن در مقابل مهاجمان خارجی است. در الگوریتم پیشنهادی هم تئوری خطر به عنوان اولین لایه دفاعی جای گذاری شده است و شبکه ایمنی به عنوان سیستم وفق پذیر در لایه بعدی قرار گرفته است. نکته مهم دیگر در طراحی الگوریتم، استخراج اطلاعات با یک بار عرضه داده های ورودی است. دقیقاً مانند سیستم ایمنی طبیعی که در یک دوره زیستی موجودات طبیعی، برای مبارزه با آنتی ژن ها وفق پیدا می کند. معنی یک بار عبور از داده ها در الگوریتم ارائه شده این است که حلقه تکرار روی داده های ورودی وجود ندارد و با یک بار برخورد با یک داده ورودی الگوریتم می تواند اطلاعات درون داده را خلاصه و در خود حفظ کند. بنابراین الگوریتم زمان اجرای مناسبی برای کاربردهای بلادرنگ دارد که اکثر قریب به اتفاق کاربردهای موجود که از اطلاعات خروجی الگوریتم ارائه شده استفاده می کنند، کاربردهای بلادرنگ هستند.نحوه نمایش جدید دیتا و تابع شباهت انتخاب شده موجب شده که الگوریتم دارای سرعت اجرای قابل قبولی باشد. در شبکه ایمنی (ایمنی وفق پذیر) سلول هایb شبکه یک نسخه ی خلاصه شده از آنتی ژن هایی هستند که به شبکه ارائه شده اند. همچنین آن ها توانایی تطبیق با آنتی ژن جدید در هر زمان را دارند. نتایج به دست آمده بیانگر توانایی سیستم مصنوعی در یادگیری و وفق پذیری را نشان می دهد و سیستم تشخیص نفوذ پیشنهادی قادر به شناخت حملات ناشناخته و جدید می باشد و رفتار غیر عادی را می تواند به صورت بلادرنگ شناسایی کند. این سیستم می تواند به عنوان کلاس بند عام برای طبقه بندی و گروه بندی استفاده شود.
سمیرا نعمتی محمد علی صنیعی منفرد
شبکه های حسگر بیسیم از تعداد زیادی گره های حسگر تشکیل شده اند که در یک منطقه برای نظارت و کنترل پدیده های فیزیکی مانند رطوبت، دما، حرکت و صوت مستقر شده و به ارسال داده های جمع شده به گره ی مقصد می پردازند. شبکه های حسگر بدلیل کاربردهای فراوان در محیط زیست، بهداشت و درمان، کشاورزی، هواشناسی و صنعت بسیار محبوب شده اند. از آنجائیکه حسگرها با باطری کار می کنند و شارژ مجدد آنها دشوار و در بعضی مواقع غیرممکن است، مدیریت مصرف انرژی در این شبکه ها از اهمیت ویژه ای برخوردار است. این پژوهش در صدد است تا روشی برای کاهش مصرف انرژی در شبکه های حسگر ارائه دهد. روش های متفاوتی برای بهینه سازی مصرف انرژی وجود دارد، از جمله این روشها کاهش حجم داده ی ارسالی در شبکه است. عوامل مختلفی در این مسئله تأثیرگذار است، عواملی که در این تحقیق مورد توجه قرار گرفته استفاده از همبستگی های موجود در شبکه های حسگر است. تراکم بالای گره های حسگر باعث می شود که داده های زائد یا داده هایی که همبستگی بالایی دارند توسط حسگرها تولید شوند. در این حالت گره هایی که به هم نزدیک هستند اطلاعات مشابهی را دریافت میکنند. بنابراین با استفاده از همبستگی بین این گره ها می توان مصرف انرژی را با کاهش ارتباطات در شبکه به حداقل رساند. در این پژوهش ابتدا همکاری بین حسگرها در شبکه با استفاده از سیستم ایمنی مصنوعی مدل شده و پارامترهای مورد نیاز محاسبه می شود. سپس با استفاده از الگوریتم تبرید شبیه-سازی شده، مناسب ترین حسگرها برای ارسال اطلاعات به گره ی مقصد تعیین می شوند. بنابراین با کم کردن ارتباطات و کاهش حجم داده ی ارسالی بهبود قابل توجهی در مصرف انرژی حاصل می شود. نتایج شبیه سازی نشان دهنده ی کاهش مصرف انرژی در شبکه است، علاوه بر این، الگوریتم مذکور در شرایطی دشوار مانند از کار افتادن تعداد زیادی از حسگرها، دارای عملکرد بسیار خوبی خواهد بود و در این شرایط بحرانی نیز مصرف انرژی شبکه را به حداقل می رساند.
سمیرا یگانه رضا عزمی
با پیشرفت سریع سامانههای هوشمند و افزایش حضور رایانهها در زندگی مدرن، تشخیص خودکار حرکات و حالتهای غیر کلامی کاربر مورد توجه زیادی قرار گرفته است. هدف از انجام این پژوهش، توسعه یک سامانه تشخیص حالت چهره است که قادر به تشخیص حالتهای احساسی پایه از روی تصاویر ساکن و از روی فریمهای متوالی باشد. یک سامانه آنالیز حالت چهره از سه بخش اصلی: آشکارسازی چهره، استخراج ویژگی چهره و تشخیص حالت چهره تشکیل میشود. در این پژوهش، محوریت با مرحله استخراج ویژگی بوده و برای بهبود روشهای موجود، سه تلاش مجزا صورت میگیرد. در استخراج ویژگیهای چهره، تاکید اصلی بر ترکیب کلی چهره و ویژگیهای مبتنی بر ظاهر است. یکی از ویژگیهای مبتنی بر ظاهر متداول، ویژگیهای گابور است که استخراج آن نیازمند محاسبات سنگینی میباشد. برای کاهش محاسبات در مرحله استخراج ویژگیهای گابور، روش rgfs برای انتخاب ناحیهای فیلترهای گابور ارائه میشود. این روش نسبت به روشهای پیشین که نگاهی سراسری به چهره دارند، از کارایی بالاتری برخوردار است. در تلاشی دیگر، برای تشخیص حالت چهره از روی تصاویری که بخشی از آنها پوشیده شده، سه نوع ویژگی مبتنی بر ظاهر گابور، الگوهای دودویی محلی (lbp) و الگوهای دودویی گابور محلی (lgbp) مورد ارزیابی قرار میگیرند. نتایج حاصل از ارزیابی، دقت و مقاومت بالای روش lgbp را تحت شرایط متنوع پوشیدگی نشان میدهد. بطوریکه میانگین دقت تشخیص در شرایط پوشیدگی گوناگون بر روی تصاویر پایگاه داده ck+ با استفاده از ویژگیهای گابور، lbp و lgbp به ترتیب برابر با 41/73%، 43/75% و 23/83% است و بر روی تصاویر پایگاه داده jaffe به ترتیب برابر با 49/78%، 85/84% و 22/90% است. البته این روش پیچیدگی محاسباتی بالایی دارد اما با استفاده از فیلترهای ناحیهای انتخاب شده توسط روش rgfs، پیچیدگی محاسباتی آن نیز کاهش یافته و به روشی کارا جهت استخراج ویژگی از روی تصاویر پوشیده تبدیل میگردد. در تلاشی دیگر، برای استخراج ویژگیهای حرکتی از روی رشته فریمهای کلیدی حالت چهره، روش تعقیب حرکات چهره بر اساس شار نوری متراکم بکار گرفته شده است. یکی از ایرادهای سیستمهای آنالیز قبلی این است که بردارهای حرکت حاصل از تعقیب پیکسلهای تصویر را به صورت مستقیم مورد استفاده قرار میدهند، در صورتیکه میتوان با ارائه توصیف سطح بالاتری از حرکت استخراج شده، اطلاعات شاخصتری را به عنوان ورودی در اختیار دستهبند قرار داد. بدین دلیل، در این پژوهش روش جدید الگوهای دودویی حرکت محلی (lmbp) برای استخراج الگوهای حرکتی از روی فریمهای متوالی ارائه میگردد. در روش lmbp، اندازه و زاویه حرکت بر اساس تصاویر خاکستری بصریسازی شده و سپس از عملگر lbp برای استخراج الگوهای حرکتی از سطح این تصاویر استفاده میشود. نتایج حاصل از ارزیابی این روش بر روی رشته فریمهای پایگاه داده ck+، کارایی این روش را بخوبی نشان میدهد. بطوریکه دقت تشخیص حالت چهره با استفاده از روش lmbp در مقایسه با روش gpt که در آن اندازه و زاویه حرکت حاصل از تعقیب یک شبکه از نقاط به عنوان ویژگی در نظر گرفته میشود و دقت آن 79/89% است، 37/4% افزایش مییابد.
مریم قیومی محمدی رضا عزمی
موضوع تجزیه و تحلیل یا محاسبات بر روی تصاویر دیجیتال که در مورد استخراج اطلاعات مورد نیاز از داده های تصویری است، بسیاری از پژوهشگران را در زمینه های گوناگون، مجذوب خود ساخته است. یکی از اعمال زیر بنایی که برای تجزیه و تحلیل تصاویر پزشکی صورت می گیرد، انجام قطعه بندی بر روی این گونه تصاویر می باشد. در فرآیند قطعه بندی تصاویر پزشکی، اشیا مورد نظر از درون تصاویر موجود استخراج می شوند تا پزشکان بتوانند ویژگی های آن ها را مورد بررسی قرار دهند. تبدیل جنگل سازی تصویر (ift)، چارچوبی برای قطعه بندی تصاویر به خصوص به صورت تعاملی است. مطالعات گسترده ای نشان داده اند که ift قادر به تولید قطعه بندی هایی با کیفیت بالا در طیف گسترده ای از زمینه ها می باشد. برای یک تصویر مفروض، با توجه به مجموعه کوچکی از عناصر تصویر (مجموعه دانه) که دارای برچسب های صحیحی هستند، ift، فرآیند برچسب گذاری برای سایر عناصر تصویر را با محاسبه مسیر هایی با کمترین هزینه از تمام عناصر تصویر به عناصر مجموعه دانه، کامل می کند. سپس به هر عنصر تصویر، برچسبی معادل برچسب نزدیک ترین نقطه دانه تعلق می گیرد. با این حال، در تصاویری با مرز های ضعیف و یا مفقود، استفاده از الگوریتم ift برای انجام عملیات قطعه بندی، منجر به تولید قطعه هایی با مرز های نامنظم می شود. در الگوریتم ift ملایم سازی شده، این نقطه ضعف ift برای تصاویر دو بعدی مورد توجه قرار گرفته است. در این پژوهش، الگوریتم ift ملایم سازی شده برای قطعه بندی تصاویر سه بعدی mri مغزی که حاوی نویز بوده و بنابراین دارای لبه های ضعیفی هستند، توسعه داده شده است. نتایج حاصل از اجرای آن بر روی دو مجموعه داده استاندارد brainweb و ibsr مربوط به تصاویر سه بعدی mri مغزی، به صورت کمی مورد ارزیابی قرار گرفته و نشان می دهد که روش ift ملایم سازی شده برای تصاویر سه بعدی، در حضور نویز، نتایج بهتری نسبت به الگوریتم ift با توجه به معیار های شباهت و دقت قطعه بندی، ارائه می کند.
ندا ناصری رضا عزمی
رشد نمایی تولید تصاویر، نیاز به تولید ابزارهای نو برای مدیریت، بازیابی و نمایش دادن آنها را برای کاربردهای مختلف ایجاب می کند. متدهای جست وجوی مبتنی بر متن که به طور گسترده ای به کار می روند، به خوبی جواب گوی مقاصد بازیابی نیستند بلکه تحقق این خواسته، متدهای دسترسی ای را می طلبد که پرس وجوهایی فراتر از پرس وجوهای مبتنی بر متن ساده یا تقاضاهایی فراتر از تطابق دقیق فیلدهای پایگاه داده را فراهم کند. بازیابی تصویر مبتنی بر محتوا یک شاخه ی تحقیقی از بینایی ماشین است که در چند دهه ی اخیر بدین منظور توسعه یافته است. در حوزه ی پزشکی تصاویر و به ویژه تصاویر دیجیتال در حجم رو به رشدی تولید می شوند و در تشخیص و درمان به کار می روند. مدیریت و دسترسی به این انبار تصویر بزرگ رفته رفته پیچیده تر می شود که پژوهش های خاص نیازمندیهای این حوزه را می طلبد. در این پروژه ترکیبی از ضرایب موجک و ویژگی های lbp برای استخراج بردار ویژگی استفاده شده است. برای بهبود شباهت معنایی از بازخورد ارتباط کاربر استفاده شده است. برای بدست آوردن متد بازیابی بهینه ترکیبی از چند روش یادگیری ماشین به کار رفته است. قابل ذکر است که این روش ها به جای معیار فاصله ی ساده که در الگوریتم های کلاسیک به کار می رفت ارائه شده است. روش پیشنهادی بر روی تصاویر ماموگرافی پایگاه داده ی mias پیاده سازی شده است.
مهدیه عباسی بهروز قلی زاده
یک دسته از رویکردها برای تخمین حالت ? بعدی بدن انسان، رویکرد تمایزی است که با یادگیری مدلی، حالت ? بعدی را از ویژگی های تصویر ورودی تخمین می زند. به دلیل نبود اطلاعات عمق در تصویر، این رویکرد با چالش ابهام در عمق روبرو شده است. برای حل این چالش که یکی از اساسی ترین چالش های مساله تخمین حالت ? بعدی است، روش های نظارتی متعددی ارایه شده است. اما این روش ها به داده ها ی آموزشی بسیار زیادی (بیش از هزاران) نیاز دارند. بنابراین در سال های اخیر به منظور کاهش این نیاز، روش های نیمه نظارتی برای حل چالش ابهام در عمق مورد توجه قرار گرفتند. یک دسته از روش های نیمه نظارتی، روش های مبتنی بر گراف است که برای تخمین برچسب داده ها از گراف که تخمینی از منیفولد داده ها است، استفاده می کنند. یکی از مولفه های اصلی این روش ها، ساخت گراف همسایگی است به طوری که این گراف همسایگی از داده های بدون برچسب و برچسب دار ساخته می شود. بهبود کیفیت ساخت گراف تاثیر به سزایی در کارایی و دقت این روش ها دارد. اما به دلیل استفاده از فاصله ی اقلیدسی در ساخت گراف، گراف ساخته شده شامل یال های میان بر می باشد. این یال های میان بر، داده ها با برچسب های متفاوت را به یکدیگر متصل می نمایند. در این پایان نامه روشی نیمه نظارتی مبتنی بر گراف جهت تخمین حالت ?بعدی از دنباله ای از سیاه نماها ارایه شده است. اما به دلیل استفاده از فاصله ی اقلیدسی و چالش ابهام در عمق، گراف ساخته شده شامل یال های میان بر است. با بهره گیری از پنجره های زمانی لغزنده و مقایسه شباهت بین پنجره های زمانی، یال های میان بر در گراف همسایگی را کشف و حذف می نماییم. علاوه بر رفع چالش ابهام در عمق، به واسطه استفاده از رابطه ی بین داده های بدون برچسب و برچسب دار چالش نیاز به داده ی آموزشی زیاد نیز مرتفع می شود. روش پیشنهادی را بر روی فعالیت های گوناگونی آزمایش کردیم و نتایج حاصل از آن را با چند روش های نیمه نظارتی اخیر مقایسه نمودیم. کاهش میانگین مربع خطا (mse) روش پیشنهادی نسبت به روش های اخیر و همچنین گراف اولیه نشان دهنده ی بهبود عملکرد روش پیشنهادی است.
محمد قربیان رضا عزمی
?کنترل دسترسی اجباری نقش مبنا روشی است که در طراحی سیستم های نرم افزاری با امنیت بالا از? ?طریق کنترل دسترسی کاربر و پروسه ها، مورد استفاده می گیرد. پیاده سازی مدلهای مختلف کنترل? ?دسترسی اجباری نقش مبنا با استفاده از روش شیءگرایی در سیستم های مقیاس متوسط به بالا باعث? ?کاهش قابلیت استفاده مجدد، تحمیل پیچیدگی زیاد، کاهش قابلیت نگهداری، کاهش میزان? ?پیمانه بندی کد منبع و کاهش درک و فهم کد منبع می شود. جنبه گرایی رهیافتی است که عمل? ?جداسازی دغدغههای مورد نظر برنامه نویس را به بهترین شکل ممکن انجام می دهد که برای? ?پیاده سازی مدل های کنترل دسترسی مورد توجه ویژه قرار گرفته است. کارهایی که تاکنون در این? ?زمینه انجام شده است، روش های کنترل دسترسی مبتنی بر تاریخچه، کنترل دسترسی مبتنی بر پشته،??کنترل دسترسی مبتنی بر خواندن و نوشتن و چند مدل از کنترل دسترسی اجباری نقش مبنا می باشند،? ?که برخی به طور کامل ازبرنامه نویسی جنبه گرا استفاده نکرده اند و برخی هم فقط تحت چارچوب? ?خاص و مد نظرتوسعه دهنده، بحث و بررسی شده اند یا مدل طراحی خاصی را ارائه داده اند، که جای? ?یک الگوی طراحی و پیاده سازی مستقل از چارچوب خاص برای پیاده سازی در این زمینه خالی? ?است. هدف اصلی در این تحقیق، ارائه راهکار در پیاده سازی کنترل دسترسی اجباری نقش مبنا با? ?رویکرد جنبه گرایی می باشد که دغدغه هایی نظیر جایگزینی متد احراز هویت مبتنی بر کنترل دسترسی? ?اجباری نقش مبنا، کنترل پیغام های خروجی، سهولت در طراحی و پیاده سازی کدهای منبع و استقلال? ?کامل از کد منبع اصلی، قابلیت استفاده مجدد از کد منبع و انطباق ساده آن با دیگر کدهای منبع،? ?کاهش پیچیدگی طراحی و بهبود درک و فهم سیستم مد نظر قرار گرفت. راهکار پیشنهادی با استفاده? ?از شاخص های جداسازی دغدغه ها، اتصالات قطعات کد و اندازه کد منبع مورد ارزیابی قرار گرفت و? ?مزایا و معایب این راهکار در مقایسه با روش شیءگرا تشریح شده است.? ?کلمات کلیدی: کنترل دسترسی اجباری، کنترل دسترسی اجباری نقشم بنا، جنبه گرایی، برنامه نویسی? ?جنبه گرا، ? ،aspectj?جاوا.?
شادی نوروزی فر رضا عزمی
تشخیص چهره، توانــایی تشخـــیص یک افـــراد با توجه به ویژگی های چهر? آنها است. تشخیص چهره، یک موضوع مهم در کاربردهایی همچون سیستم های امنیتی، کنترل کارت اعتباری و شناسایی مجرمان محسوب می شود. استفاده از تصاویر ویدیویی موجب می شود که محدودیت تصاویر ثابت از بین رفته و بتوان تحت هر شرایطی تصویر کاربر را دریافت کرد و تشخیص چهره انجام شود. در این سیستم ها چالش هایی وجود دارد: تغییرات ژست فرد، تغییرات نور، پوشیدگی چهره، کفیت پایین تصاویر ویدیویی و تغییرات ویژگی های شخصی در هریک از فریم ها. برای انجام کار تشخیص چهره با استفاده از تصاویر ویدیویی نیاز به سه فاز وجود دارد: آشکارسازی، دنبال کردن کردن تصویر چهره در فریم ها و تشخیص چهره. هدف اصلی در این پروژه نوآوری در فاز تشخیص چهره می باشد. در این پژوهش با استفاده از روش های مبتنی بر الگوی باینری محلی به حل چالش های موجود در سیستم های تشخیص چهره پرداختیم. به همین منظور از رویکرد همسایگی نامتقارن در الگوهای باینری محلی استفاده شده است. با تعریف همسایگی نامتقارن در تصویر اطلاعات مفید تصاویر چهره که قدرت تمایز بیشتری در تصاویر چهره را دارا هستند، استخراج می شوند. این روش با استفاده از یک نمون? آموزشی به ازای هر کلاس و توسط یادگیری نیمه نظارتی ارزیابی شده است. دقت تشخیص این روش روی پایگاه داده های mobo، honda/ucsd و essex به ترتیب برابر 93.4، 85.5 و 96.2 است. این رویکرد در الگوهای باینری محلی حجمی که در تصاویر ویدیویی و با بعد زمان کار می کند، استفاده شده است. به این منظور از شبک? عصبی خودسازمانده برای پیدا کردن نقاط کلیدی در یک همسایگی استفاده می شود. با استفاده از الگوی بهینه شده توسط شبک? عصبی خودسازمانده در این ناحیه، الگوهای باینری محلی حجمی به محاسب? ویژگی های کلیدی تصویر می پردازد و عملکرد الگوهای باینری محلی حجمی بهبود پیدا می کند. دقت تشخیص این روش روی پایگاه داده های mobo، honda/ucsd و essex به ترتیب برابر 96.9، 85.8 و 98.4 است. از دیگر رویکردهایی که برای بهبود الگوهای باینری محلی حجمی استفاده شده است، استخراج ویژگی های متمایز کنند? تصویر چهره بر اساس آنتروپی می باشد. با استفاده از آنتروپی محلی تصویر، نواحی حائز اهمیت در تصاویر الگوی چهره استخراج می شوند و به این ترتیب نواحی با اهمیت برای تمایز تصاویر چهره استفاده می شوند. دقت تشخیص این روش روی پایگاه داده های mobo، honda/ucsd و essex به ترتیب برابر 98.4، 91.1 و 99.1 است. با استفاده از الگوریتم pso می توان به استخراج نواحی مهم با توجه به شرایط محلی و سراسری پرداخت و دقت تشخیص به دست آمده با استفاده از این روش روی پایگاه داده های mobo، honda/ucsd و essex به ترتیب برابر 99.0، 92.8 و 99.8 است. با استفاده از نقاط کلیدی که توسط روش sift استخراج می شود، همسایگی نواحی مهم تصویر استخراج می شود و با محاسب? الگوی باینری محلی حجمی به ازای هریک از نواحی استخراج شده، می توان به طور چشمگیری عملکرد الگوهای باینری محلی حجمی را بهبود بخشید. دقت تشخیص این روش روی پایگاه داده های mobo، honda/ucsd و essex به ترتیب برابر 99.5، 95.3 و 99.6 است.
مریم روشنی مقدم رضا عزمی
با گسترش وب و ازدیاد داده ها و اطلاعات موجود در آن، حضور سیستم های هوشمند که بتوانند برای کاربران اطلاعات مورد نیازشان را فراهم کنند، ضروری به نظر می رسد. عرضه ی داده های به روز به کاربران بر اساس علایق آن ها در این بین بسیار پر اهمیت می باشد. برای رسیدن به این هدف، تکنیک های وب کاوی نقش قابل توجهی دارند. وب کاوی بکارگیری تکنیک های داده کاوی برای کشف و استخراج خودکار اطلاعات و الگوها از اسناد و داده های کاربرد وب می باشد. واضح است که مدل هایی که برای کاوش اطلاعات وب طراحی می شوند باید دارای قابلیت تطابق پذیری با زمان، مقاومت و کارایی در مقیاس های بزرگ باشند. مهم ترین عیب سیستم های کاوش کاربرد وب، ناتوانی آن ها در یادگیری پیوسته الگوها است. هم چنین در بسیاری از رویکردهای کاوش کاربرد وب، ماهیت ترتیبی الگوهای وبی در نظر گرفته نمی شود. سیستم ایمنی مصنوعی دارای ویژگی هایی است که برای کاوش وب بسیار مناسب است. مهم ترین ویژگی این سیستم، ذات پویای آن است که بسیار مشابه ذات پویای کاوش داده های وب است. هم چنین ویژگی های دیگری از جمله شناسایی، تنوع، حافظه، خود تنظیمی و یادگیری مواردی هستند که استفاده از سیستم ایمنی مصنوعی را در مسائل کاوش وب لازم می دارند. در این پایان نامه یک معیار جدید به عنوان معیار شباهت نشست های وب برای بررسی داده های فایل های دسترسی وب ارائه شده است. در این معیار شباهت علاوه بر در نظر داشتن ترتیب دسترسی به صفحات و هم چنین مدت زمان صرف شده بر روی هر صفحه و بر روی هر دنباله 2 تایی از صفحات وب، تعداد دفعاتی که یک کاربر صفحه ای را در یک نشست ملاقات می کند و هم چنین تعداد دفعاتی که یک دنباله 2 تایی از صفحات توسط کاربر مورد دسترسی قرار می گیرد، در نظر گرفته می شود. سپس با اعمال تغییراتی در سیستم ایمنی مصنوعی داده ها را خوشه بندی می کنیم. هم چنین در این جا از یک روش جدید برای جهش غیر تصادفی داده ها در بدنه سیستم ایمنی مصنوعی استفاده شده است. نتایج حاصل از الگوریتم ارائه شده، نشان دهنده درستی پیش بینی های انجام شده در مورد تناسب انتخاب سیستم ایمنی مصنوعی به عنوان الگویی برای یافتن پروفایل ها و خوشه ها است.
زهرا سادات مرتضوی طباطبایی بهروز قلی زاده
بازشناسی متون چاپی، از جمله زمینه های پرکاربرد بازشناسی الگو است. تاکنون تحقیقات متعددی در زمینه ی بازشناسی متون چاپی فارسی و عربی صورت گرفته است اما این تحقیقات، غالبا با محدودیت های فراوانی به ویژه در حوزه ی عملیاتی شدن، همراه بوده اند. کلیه ی تحقیقات انجام شده در این حوزه را می توان در قالب سه رویکرد مبتنی بر جداسازی حروف، رویکرد مبتنی بر بازشناسی شکل کلی زیرکلمات و رویکرد ترکیبی، تقسیم بندی نمود. در این پژوهش سعی شده است تا دو راهکار در زمینه ی رویکرد بازشناسی مبتنی بر شکل کلی کلمات و رویکرد ترکیبی ارائه شود. در راهکار نخست که مبتنی بر رویکرد شکل کلی کلمات می باشد، ابتدا به ارائه ی الگوی باینری محلی هرمی، به عنوان یک روش استخراج ویژگی مستقل از چرخش و کارا در حوزه ی تشخیص زیرکلمات چاپی پرداخته شده و سپس با بهره گیری از خوشه بندی فازی و شبکه های عصبی توابع پایه شعاعی، عملیات بازشناسی انجام می پذیرد. آزمایشات صورت گرفته حاکی از آن است که راهکار پیشنهادی با دقتی در حدود 97.81 درصد، قادر به تفکیک و تشخیص زیرکلمات چاپی می باشد. در راهکار دوم که مبتنی بر رویکرد ترکیبی است، نخست، گروهی از حروف ابتدا، میانه و انتهای کلمات، که با دقت بالایی قابل جداسازی و بازشناسی می باشند، به عنوان حروف شاخص مشخص می شوند و سپس با بهره گیری از الگوریتم ژنتیک و عملگرهای مورفولوژی، مجموعه ای ازعملگرهای مورفولوژی به همراه عناصر ساختاری بهینه که قادر به توصیف مناسب هر یک از گروه ها هستند مشخص شده و زیر کلمات هر یک از گروه ها بر اساس این حروف شاخص، کدگذاری می شوند. سپس یک دیکشنری تصویری، بر اساس زیرکلمات کد شده، ایجاد شده و در نهایت، عملیات بازشناسی زیرکلمات از طریق یک شبکه عصبی توابع پایه شعاعی و به کارگیری ویژگی موجک صورت پذیرفته است، صورت می پذیرد. در پایان این پژوهش نیز به منظور بکارگیری اطلاعات معنایی زمینه، به بررسی بهره گیری از مدل زبانی srilm در سطح کلمه و زیرکلمه بر روی یک سیستم پیشنهادی، پرداخته شده است. کلمات کلیدی بازشناسی متون، خوشه بندی فازی، شبکه عصبی توابع پایه شعاعی، الگوریتم ژنتیک، مدل زبانی
فرزانه سرافراز محمدابراهیم شیری
هدف از این پروژه استفاده از پیکره ی متنی وبلاگ های فارسی برای استخراج اطلاعات زبان شناختی و یافتن مدلی برای تولید خودکار متن فارسی است. مهم ترین ابزار مورد نیاز برای حل مسایل مختلف به روش تجربی در حیطه ی پردازش زبان طبیعی وجود پیکره ی زبانی بزرگ و متعادل است در زبان فارسی با رشد کمی وبلاگ های فارسی در سال های اخیر چنین پیکره ی متنی بزرگی در وجود دارد. این پیکره با اینکه خصوصیات یک پیکره ی متعادل را ندارد. اما ویژگی هایی دارد که آن را برای تحلیل زبان شناختی مناسب می کند. برای اینکه پیکره ی بسیار ناهمگن وبلاگ های فارسی را که در زمان ها و موقعیت های مختلف نوشته شده و نویسنده های متعدد دارد. تبدیل به پیکره ی مناسبی برای پردازش ماشینی کنیم روی آن انواعی از پیش پردازش ها انجام می دهیم و سپس با روش های مختلف آماری ویژگی های زبان شناختی آن را بررسی می کنیم. در پایان مدلی برای تولید خودکار متن مشابه پیشنهاد می کنیم و نتایج حاصل از تولید خودکار متن را ارزیابی می کنیم
فاطمه حیدری سامان هراتی زاده
امروزه سیستمهای اطلاعاتی بسیار گسترده و پیچیده شدهاند و نگهداری از آن مسئله ی پراهمیتی به شمار می رود که تحت عنوان تشخیص نفوذ قرار دارد. تشخیص سوء استفاده و ناهنجاری ، دو رویکرد گسترده برای مواجهه با این مسئله هستند. در این پژوهش یک سیستم وفق پذیر و ترکیبی از این رویکردهای تشخیص سوء استفاده و تشخیص ناهنجاری جهت بهره بردن از مزایای آنها ارائه شده است. برای نیل به این هدف در مرحله ی اول یک سیستم ایمنی مصنوعی با استفاده از ماشین آتاماتای یادگیر مبتنی بر پراکندگی حداکثر برای تولید پروفایل نرمال و تشخیص دهنده های ناهنجاری به صورت وفق پذیر ارائه شده است تا رفتار غیرنرمال سیستم تشخیص داده شود. علاوه براین به دلیل اینکه اغلب سیستم های تشخیص ناهنجاری، اطلاعات سطح بالایی در مورد حملات جدیدی که سیستم را هدف قرار می دهند، به مدیر امنیتی ارائه نمی کنند و به گزارش فعالیت غیرنرمال به سادگی بسنده می کنند، در این پژوهش راهکاری برای فراهم آوردن چنین اطلاعات سطح بالایی پیشنهاد شده است. بدین منظور پس از مرحله ی نخست، یک مدل یادگیری تقویتی مبتنی بر نظریه ی تشدید انطباقی فازی پیشنهاد شده است تا نمونه های غیرنرمال حاصل از مرحله ی اول را در رسته ایی طبقه بندی کند که مشخصات مشابهی را به اشتراک می گذارند. بدین ترتیب اطلاعاتی در مورد نوع حمله ی احتمالی بدست می آورد. شبیه سازی ها انجام شده برای آزمایش رویکرد پیشنهادی در این پژوهش روی مجموعه داده های kdd99 و nsl-kdd با استفاده از روش آزمون k-fold و k برابر 5 صورت گرفته است. نتایج بدست آمده نشان دهنده ی موثر واقع شدن مدل پیشنهادی در تشخیص حملات علی الخصوص روی حملات u2r و r2l به میزان %50 و %89 بوده است.
نرگس حیدری مجتبی مظفری
پیدا کردن خطاهای بافت پارچه، یکی از مسایلی است که در سالهای اخیر بسیار مورد مطالعه قرار گرفته است براحی حل این مساله از روشهای متفاوت پردازش تصویر استفاده شده است. در این پایان نامه، فیلترهای موجک برای حل این مساله مورد استفاده قرار گرفته است. و با تعیین ضرایب این فیلتر، خطاهای موجود در بافت را پیدا می کنیم این ضرایب بستگی به بافت پارچه دارند و توسط آن خطای بافت کشف می شود. در این پایان نامه سعی شده که برای هر بافت پارچه یک فیلتر موجک با ضرایب مشخص به دست آید. برای بهینه سازی فیلتر موجک از الگوریتم های ژنتیک استفاده شده است سعی بر این است که این الگوریتم در هر مرحله، با توجه با تابع ارزیابی مشخص شده، فیلتر موجک را بهینه کند که با توجه به توابع ارزیابی متفاوتی که استفاده شد، در نهایت تابع ارزیابی شانون از بقیه بهتر شناخته شد. پس از این مرحله، یک الگوریتم آستانه گیری نیاز است تا تصویر فیلتر شده به یک تصویر دودویی تبدیل شود تا خطاها واضح تر شوند. پس از آستانه گیری، پیکسلهای کوچکی باقی می مانند که به عنوان نویز در نظر گرفته می شوند. این پیکسلها به عنوان خطا در نظر گرفته می شوند در حالی که خطانیستند. بنابراین الگوریتمی برای حذف نویز پیشنهاد شده است. برای امتحان نتایج به دست آمده، از دو دسته نمونه بافت استفاده شده است. بافتهای tilda و brodatz برای 300 تصویر 64*64 از نمونه های brodatz میانگین خطایایی 92،67./. و برای برای 60 تصویر 64*64 از نمونه های tilda، میانگین 8 و 94./. به دست آمد که نتایج قابل قبولی می باشد.
آذردخت امیرزادی رضا عزمی
مراحل کاری این سیستم ها شامل بهبود کیفیت تصویر، قطعه بندی نواحی آسیب دیده، استخراج ویژگی از این نواحی و در نهایت طبقه بندی آن ها به دسته های خوش خیم و بدخیم می باشد. رویکرد طبقه بندی توده ها براساس ویژگی ها به دو دسته تقسیم می شود که اولی بر اساس ویژگی های بافتی ناحیه ی توده و دیگری براساس ویژگی های شکلی و مرز منحنی توده می باشد. در راستای بهبود کیفیت تصاویر ماموگرافی در این پژوهش، با استفاده از عملیات ریخت شناسی و معرفی جزء ساختاری مبتنی بر کرنل گوسین گامی در جهت بهبود ویژگی های ساختاری این تصاویر برداشته شد. عملیات ریخت شناسی از جمله روش های بهبود ویژگی های هندسی تصویر می باشد. این عملیات بر روی پایگاه داده ddsm اجرا و ویژگی الگوی باینری محلی از تصاویر بهبود یافته استخراج شد. امر طبقه بندی توده ها به دسته های خوش خیم و بدخیم با استفاده از طبقه بند svm انجام شد و سطح زیر نمودار roc به میزان 0.9321 بدست آمد. در رویه دوم پیشنهادی به منظور استخراج ویژگی های شکلی و مرزی، قطعه بندی توده ها با استفاده از الگوریتم قطعه بندی مجموع سطح و به کارگیری موجک هرمی راندنی و تابعی هیوریستیک انجام شد. تابع پایه موجک هرمی راندنی مشتقی است که در جهات و مقیاس های مختلف اعمال می شود و اطلاعات محلی تصویر را آشکار می کند. به منظور طبقه بندی توده ها به دسته های خوش خیم و بدخیم، گشتاور زرنیک از کانتورهای توده استخراج شد که این گشتاور توصیفگر رفتاری مرز منحنی توده می باشد. این رویه ها بر روی پایگاه داده mias اعمال شد که دقت قطعه بندی به 90.77% رسید و سطح زیر نمودار roc در طبقه بندی توده ها به میزان 0.9722 بدست آمد.
لیلا صالحی رضا عزمی
بررسی و آنالیز دقیق تصاویر mri پستان نقش بسیار مهمی در پیش بینی و تشخیص زودهنگام ناهنجاری های پستان بر عهده دارد. اما آنالیز تصاویر mri پستان با دو چالش اصلی، بالا بودن میزان نرخ تشخیص نادرست(fp) و پیچیدگی پردازش حجم عظیمی از تصاویر حاصل از تزریق ماده ی حاجب روبرو است .در نتیجه، تفسیر تصاویر mri برای رادیولوژیست امری بسیار زمان بر، پیچیده و گاهی غیر ممکن می گردد. . در سال های اخیر سیستم های تجاری تشخیص به کمک کامپیوتر(cad) بسیاری برای کمک به رادیولوژیست توسعه یافته اند. با وجود اینکه این سیستم ها تا حدی در تعیین محل ضایعات و طبقه بندی آنها به صورت خودکار موفق بوده اند، ولی کارایی این سیستم های cad روی تصاویر mri پستان همچنان بعنوان مسئله ای چالش برانگیز مطرح می باشد. در این پژوهش، روشی خودکار به منظور رفع نقاط ضعف فوق الذکر ارائه شده که شامل دو مرحله ی اصلی استخراج roi و قطعه بندی ناحیه ی تومور است. در فاز نخست، روشی خودکار برای استخراج نواحی مشکوک به تومور مبتنی بر رشد و ادغام ناحیه و ویژگی های lbp و ماشین یادگیر ارائه شده است. مرز های دقیق نواحی مشکوک حاصل از مرحله ی اول با استفاده از روش قطعه بندی آب پخشان در فاز دوم استخراج می شود. جهت مرتفع ساختن نقطه ضعف بیش تقطیع ، در روش قطعه بندی ارائه شده از فیلتر انتشار ناهمسانگرد استفاده شده و نشانگر ها توسط عملگر های مورفولوژیکی انتخاب می شوند. نتایج حاصل از ارزیابی روش پیشنهادی بر روی مجموعه داده ها، دقت 43/89%، صحت 12/94% و spc برابر 45/96% را نشان می دهد.نتایج نشان از افزایش میانگین دقت 5% و 17% درصد در کشف و قطعه بندی ناهنجاری های پستان در مقایسه با روش های rbac و قطعه بندی مبتنی بر طبقه بندی دارد.
ملیحه احمدی بهروز قلی زاده
یکی از موضوعات مطرح در حوزه ی پردازش تصویر و ویدئو در دهه گذشته، ردیابی و تشخیص نوع رفتار اشیا متحرک می باشد. توانایی استخراج اشیا متحرک و ردیابی آن در یک دنباله ی ویدئو، اولین گام در تحلیل ویدئوهای نظارتی است. روش های زیادی در خصوص اشیا متحرک و ردیابی آن ها مطرح شده است. روش رایج تشخیص اشیا متحرک، تفاضل پس زمینه است. از چالش های مطرح در حوزه ی ردیابی، می توان وجود اشیا مشابه در پنجره ی جستجو، تغییر شکل و تغییرات روشنایی محیط و یافتن مدل پس زمینه ای دقیق برای تشخیص درست اشیا پیش زمینه را نام برد. در این پژوهش برای مدل کردن پس زمینه روش میان گیری فریم ها بکار گرفته شده است و جهت ردیابی وسایل نقلیه دو روش پیشنهاد شده است.که در روش اول از عملگر الگوی باینری محلی چند مقیاسه سلسله مراتبی و الگوریتم ژنتیک جهت ردیابی وسایل نقلیه استفاده شده است و در روش دوم الگوریتم تطبیق الگو و تانژانت فاصله به همراه فیلترکالمن بکارگرفته شده است. مزیت استفاده از فیلتر کالمن در این است که اگر اشیای مشابه در ناحیه ی جستجو وجود داشته باشد، فیلتر کالمن این مسئله را مدیریت می کند و تانژانت فاصله زمان جستجو را تا حد زیادی کاهش می دهد. مقایسه زمان جستجوی دو روش نشان می دهد که متوسط زمان جستجوی یافتن موقعیت شی در هر فریم برای روش اول 5 ثانیه و برای روش دوم 0.06 ثانیه می باشد. خروجی سیستم تشخیص و ردیابی که همانا دنباله مسیر اشیا مورد ردیابی می باشند، بعنوان ورودی در پردازش های مرتبه بالاتر مانند تشخیص نوع رفتار بکار می روند. جهت تشخیص رفتارهای نرمال و غیرنرمال وسایل نقلیه متحرک الگوریتم فازی ژنتیک که مبتنی بر الگوریتم های pittsburgh وmichigan می باشد را بکارگرفتیم. مقایسه این روش با روش efunn که شبکه عصبی فازی تکاملی می باشد، نشان دهنده ی این است که دقت الگوریتم فازی ژنتیک در کلاسه بندی رفتارها 96% و دقت شبکه ی عصبی فازی تکاملی برابر 92% است.
مریم حدادی بهروز قلی زاده
ندول های ریه ممکن است که دلالت بر سرطان ریه داشته باشند. پرتونگاری مقطعی کامپیوتری، دقیق ترین نوع تصویربرداری برای شناسایی ندول می باشد. توسعه یک سیستم تشخیص سرطان ریه به کمک کامپیوتر، از اهمیت درمانی بالایی در امر تشخیص و درمان زود هنگام سرطان ریه به منظور افزایش شانس بقای بیماران برخوردار است. رویکردهای موجود در شناسایی ندول به دو دسته کلی مبتنی بر چگالی و مبتنی بر مدل تقسیم می شوند. معمولاً روش های مبتنی بر چگالی خطای مثبت بالایی داشته و وابسته به شرایط تصویربرداری می باشند. سیستم پیشنهاد شده رویکردی مبتنی بر مدل و مابین روش های دوبعدی و سه بعدی است که به شناسایی انواع ندول های ریه می پردازد. سیستم اشاره شده شامل 5 مرحله اصلی است: مرحله اول استخراج ریه ها از قفسه سینه و قطعه بندی ساختار داخلی ریه ها با استفاده از روش آستانه گذاری و برچسب گذاری مولفه های متصل است، مرحله دوم به حذف اشیای لوله ای شکل مانند رگ ها می پردازد، در مرحله سوم شناسایی ندول های کاندید با الگوریتم شناسایی حرکت جریان نوری در 3 اسلایس پشت سرهم را خواهیم داشت. مرحله چهارم، شامل بریدن ندول های کاندید در هر تصویر و استخراج ویژگی های الگوهای باینری محلی که نوعی ویژگی بافتی محسوب می شود، در 3 صفحه عمود بر هم در 8 دنباله از اسلایس های متوالی است. در نهایت مرحله پنجم کاهش خطای مثبت با استفاده از الگوریتم مدل مخفی مارکوف از طریق ایجاد 11 مدل متفاوت به منظور آموزش 11 کلاس از 65 دنباله ندول های جمع آوری شده از پایگاه داده lidc است. برای آزمایش سیستم، ما از مجموعه داده های جمع آوری شده از 10 بیمار شامل بیش از 2000 اسلایس از 120 ندول مختلف، استفاده شده است. سیستم ارائه شده حساسیت 98.87 % با میزان خطای مثبت 1.9 در هر اسلایس را نتیجه می دهد. این نتایج دلالت بر این دارد که روش پیشنهادی نتایج قابل مقایسه ای با توجه به نظر فرد خبره دارد و کارایی تشخیص قابل رضایت می باشد.
سارا نمازی محمد ابراهیم شیری
امروزه امنیت اطلاعات در سیستم های کامپیوتری به عنوان یکی از مسایل مهم و حیاتی است بگونه ای که سازمان ها از تکنیک های امنیتی مختلفی برای حفاظت از اطلاعاتشان استفاده می نمایند. رشد سریع و متناوب هجوم نفوذها و ویروس های کامپیوتری یکی از دلایل اصلی آن است که نشان می دهد تکنیکهای مختلف ضد ویروس به تنهایی کارایی لازم برای حفاظت از سیستمهای کامپیوتری را ندارند. لذا نیاز به سیستم های هوشمند که بتوانند در مواجه با یک حمله جدید به موقع عکس العمل نشان دهند راه حل مناسبی به نظر می رسد. هدف این پژوهش این است که کامپیوترها بتوانند از خودشان مستقلا دفاع کنند بدون آنکه نیاز به اضافه کردن ابزارهای اضافی مانند ضد ویروس ها و دیوارهای آتش و...داشته باشند. لذا ضمن معرفی سیستم تشخیص نفوذ و ارایه مفاهیم رایج امنیت و مسیله ی امنیت در سیستم عامل و شرح حملات کامپیوتری به ارایه راه حلی هوشمند برای حفاظت فایل سیستم مجازی می پردازیم. ایده ی اصلی این پژوهش ارایه یک سیستم تشخیص نفوذ هوشمند برای بخش خاصی از هسته ی سیستم عامل لینوکس نسخه ی 2.6.20، به نام فایل سیستم مجازی می باشد، که در سه مرحله انجام میشود. فاز اول شامل تغییرات اعمال شده در متن هسته سیستم عامل لینوکس به منظور استخراج داده های مورد نیاز درlog فایل هایی که خودمان نام و مسیر آنها را تعیین کردیم می باشد. در سیستم عامل لینوکس daemonهای مختلفی وجود دارد که با کمک آنها می توان logفایل ها را استخراج کرد، ولی از آنجا که در این مقاله هدف بررسی یک سری خاص از فراخوان های سیستمی بود، نتوانستیم منحصراً از daemonهای موجود استفاده کرده و مجبور به تغییر متن هسته سیستم عامل شدیم. فاز دوم مربوط بهbash scripting برای فیلتر کردن اطلاعات logفایل ها می باشد. خروجی مرحله ی فیلترینگ شامل ترتیب اجرای فراخوان های سیستمی و تعداد آنها می باشد. در فاز سوم با بررسی فایل های خروجی فاز دوم و مقایسه ی آنها با یکدیگر برای رفتارهای نرمال و غیر نرمال یک مجموعه ی 58 تایی از مهم ترین فراخوان های سیستمی را که نقش کلیدی در تعیین نوع رفتار دارند، را استخراج می کنیم واز الگوریتم های هوشمند موجود در نرم افزار wekaبرای طبقه بندی وتچزیه تحلیل آنها استفاده می کنیم.
حکیمه تیموری نوشین ریاحی
در دنیای کنونی، رایانش ابر به عنوان پنجمین سرویس همگانی (بعد از آب، برق، گاز و تلفن) مطرح شده است. مزایای قابل توجهی که سرویس های ابر از نظر هزینه و کارائی در اختیار استفاده کنندگان قرار می دهند، باعث گسترش روز افزون آن شده است. این سرویس ها در هنگام اجرا به زیر ساخت سخت افزاری وابستگی بسیار کمی داشته و به آسانی منابع موجود را به اشتراک می گذارند. از این رو اساسی ترین نقش در رایانش ابر را تکنولوژی های مجازی سازی و انتقال زنده بر عهده دارند. در تحقیق حاضر، موضوع تعدیل بار بین منابع موجود در زیرساخت مرکز داده رایانش ابر، با استفاده از تکنولوژی های مذکور مورد بررسی قرار گرفته است. برای نیل به چنین هدفی، موضوع کاهش مصرف توان زیر ساخت مرکز داده مجازی سازی شده رایانش ابر بررسی گردیده و الگوریتم هایی ارائه شد. این الگوریتم ها با در نظر گرفتن میزان بهره وری هر کدام از میزبان های سرویس دهنده که داخل مرکز داده هستند و همچنین مقایسه آن ها با بهره-وری، مصرف توان و آستانه تعدیل بار را عملیاتی تر می کنند. در این تحقیق با استفاده از الگوریتم معیار عدم تعادل ایستا به جای الگوریتم تعدیل بار دینامیک، از خطر از کار افتادگی مرکز داده که با افزایش تعداد درخواست ها به وجود می آید، جلوگیری به عمل آمد. سپس با اضافه کردن هزینه مصرفی پارامترهای منابع سیستم، این الگوریتم گسترش یافت. آنگونه که بهترین میزبان از نظر هزینه مصرفی از میان میزبان های قابل انتخاب، برگزیده شود. با ارائه الگوریتم معیار عدم تعادل پویا و با در نظر داشتن مقادیر متفاوت برای حد آستانه، با توجه به وضعیت سیستم، میزان مهاجرت ماشین های مجازی به صورت چشمگیری کاهش یافت. چنان که در مرحله اول، از مصرف انرژی تا 40% صرفه جویی شده و در مرحله دوم بهبود عملکرد، که از الگوریتم اصلاح شده مرحله اول استفاده شد، مصرف انرژی بیش از 75% کاهش را نشان داد.
فاطمه نوروزی هریس بهروز قلی زاده
در سالهای گذشته، تعدادی سیستمهای تجزیه و تحلیل تصویر به صورت خودکار، برای تشخیص، تجزیه و تحلیل و ردیابی اشیای متحرک در اماکن و کاربردهای گوناگون، توسعه داده شده اند. این موضوع یکی از مسائل مهم و در حال توسعه در پردازش تصویر و بینایی ماشین، است. ردیابی اشیاء، نمایش تغییرات موقعیت یک شیء و دنبال کردن آن در یک دنباله از تصاویر ویدئویی، با هدفی خاص است که باید با دقت مطلوبی انجام شود. اگرچه سابقه ایجاد پدیده ردیابی اشیاء به مسائل نظامی برمی گردد ولی امروزه به دلیل کاربردهای بسیار گسترده ی ردیابی اشیاء در زمینه های مختلف، مثلاً کنترل ترافیک و تشخیص حرکات غیرمعمول، این مقوله و جوانب مختلف آن مورد توجه ویژه ای قرار گرفته است. از جمله مسائلی که همواره عملکرد الگوریتم های ردیابی را با مشکل مواجه ساخته است، تعامل آنها با روش های تشخیص هدف، ظاهر متغیر اهداف و همچنین ردیابی همزمان چند هدف است. در این پژوهش، یک روش با بهره وری بالاتر و دقیق تر از روش های قبل برای ردیابی اشیاء با استفاده از تصویر برداری با دوربین ثابت معرفی می گردد. در این سیستم تصاویر ویدئویی گرفته شده از محل مورد نظر، پردازش شده و اشیای متحرک آن شناسایی و استخراج می گردند. الگوریتم پیشنهادی در چندین مرحله عمل می کند. ابتدا پس زمینه ی ثابت را شناسایی و نویز را از آن حذف می کند. این پس زمینه برای تفریق شدن از اشیا ی متحرک به کار می رود. پس از آن طی یک مرحله ی فیلتر کردن تصویر، سایه ها و نویزهای تصویر فیلمبرداری شده حذف و در نهایت با استفاده از روش مسیریابی حباب شی متحرک یا اشیا ی متحرک تفکیک، شناسایی و ردیابی می شوند. آزمایش این سیستم، بر روی تصاویری از یک فرد در حیاط منزل و جاده های شهری انجام شد. نتایج تجربی نشان می دهد که مدل پیشنهادی برای تشخیص اشیاء متحرک و ردیابی آنها، به خوبی کار می کند و می تواند تخمین حرکت و مسیر حرکت اشیاء را از نظر سرعت و دقت تا حد مطلوبی بهبود دهد. این بهبود از نظر دقت نسبت به روش های گذشته به 10 درصد نیز می رسد.
ندا افضلی سرشت رضا عزمی
در حال حاضر معماری سیستم های تشخیص نفوذ مطابق با معماری سیستم ها، از حالت مرکزی به سمت توزیع شدگی پیش رفته است. لذا این سیستم ها نیازمند روش هایی منطبق با معماری توزیع شده می باشند. در بیشتر معماری های توزیع شده از عامل های هوشمند به عنوان سازوکار قدرتمند استفاده شده است. در این پژوهش سیستم تشخیص نفوذ توزیع شده مبتنی بر عامل های هوشمند با استفاده از الگوریتم های ایمنی مصنوعی پیشنهاد گردیده است. الگوریتم های ایمنی مصنوعی الگوهای موفقی در سیستم های نفوذ تشخیص ناهنجاری به شمار می آیند. این الگوریتم ها از سیستم قدرتمند ایمنی بدن انسان الهام گرفته اند، بنابراین گزینه های مناسب و تضمین شده ای برای سیستم های تشخیص نفوذ ناهنجاری محسوب می شوند. در این پژوهش از عامل های هوشمند در دو ماشین مجازی بهره گرفته شده است. این عامل های هوشمند جهت قدرت تشخیص بالا و میزان هشدار اشتباه اندک با یکدیگر همکاری داشته و با استفاده از الگوریتم های ایمنی مصنوعی این اهداف را دنبال می کنند. عامل های پیشنهادی شامل «عامل های کشف» جهت تشخیص نفوذهای موجود، «عامل های آنتی ژن» جهت کمک به تشخیص بهتر عامل های کشف و به عنوان نفوذ و «عامل ارکسترا» جهت مدیریت و هماهنگی فعالیت های عامل ها و کنترل تعامل های آنها می باشند. عامل های کشف و عامل های آنتی ژن در فضای ویژگی ها کره هایی با شعاع مشخص تعریف می شوند. نحوه تشخیص نفوذها توسط عامل های کشف در این پژوهش براساس تطبیق می باشد؛عامل های آنتی ژنی که در شعاع عامل های کشف قرار بگیرند، به عنوان نفوذ تلقی می گردند. بنابراین تعیین شعاع کشف بهینه امری مهم تلقی می گردد. مقالههای بسیاری با استفاده از اتوماتای یادگیری و الگوریتم خنک سازی براساس شعاع های مختلف آنتی ژن و مستقل از آن ها، برای بهینه سازی این شعاع کشف ارائه شده است. عامل های ایمنی هوشمند پیشنهادی در این پژوهش قابلیت یادگیری، تطبیق پذیری، تحرک، خودگردانی و همکاری را دارند. در این پژوهش معماری سیستم پیشنهادی با استفاده از ناظر kvm و بهره گیری از قابلیت های مجازی سازی نیز ارائه شده است. نتایج آزمایش های صورت گرفته روی سیستم پیشنهادی نقش همکاری عوامل را در افزایش میزان دقت و کاهش میزان هشدار اشتباه نسبت به الگوریتم svm نشان می دهد.
راضیه گنجی بهروز قلی زاده
دیابت¬رتینوپاتی یکی از شایعترین عوارض دیابت و از مهم¬ترین دلایل ضعف بینایی است. این در حالی است که تشخیص زود هنگام این بیماری از نابینایی فرد جلوگیری می¬کند. از طرفی اولین علامت این بیماری میکروآنوریسم¬ها هستند. لذا در این پژوهش به تشخیص این ضایعه پرداخته¬ شده است. بر اساس پژوهش¬های پیشین، روش¬های تشخیص میکروآنوریسم دارای دو مرحله اصلیِ قطعه¬بندی عروق و تشخیص نواحی کاندید ضایعه می¬باشند. یکی از چالش¬های مهم در قطعه-بندی عروق شبکیه، استخراج عروق در تصاویر پاتولوژیک شبکیه می¬باشد. جهت بهبود این چالش، رویکردی جدید ارائه نمودیم، که شامل دو مرحله می¬باشد¬، ا- قطعه¬بندی اولیه عروق بر اساس ویژگی¬های سطح پایین، 2- حذف ساختار¬های غیررگ بر اساس ویژگی¬های سطح بالای پیشنهادی. از چالش¬های تشخیص نواحی کاندید، تشخیص میکروآنوریسم¬های با وضوح پایین می¬باشد. لذا در این پژوهش روشی جدید مبتنی بر اعمال مدل میدان تصادفی مارکوف جهت بهبود این چالش، پیشنهاد شده است .
سوده بهروزی نیا محسن افشارچی
یکی از چالش های مهم در مبحث امنیت سیستم های کامپیوتری، تشخیص نفوذ و فعالیت های نفوذی به سیستم می باشد. در همین راستا، سیستم عامل که به عنوان منبع مهم اجرای برنامه های کامپیوتری به حساب می آید، نقش مهمی در تامین امنیت اطلاعات ایفا می کند. سیستم های کامپیوتری به علت پیچیدگی و گستردگی، همیشه در معرض حملات و روت کیت ها قرار دارند. به همین جهت تشخیص نفوذ، هم اکنون به یکی از رویکردهای فعال در تحقیقات امنیتی تبدیل شده است. این تحقیقات دارای دو چالش عمده می باشند: نخست بستر جمع آوری امن اطلاعات و دوم ایجاد روشی دقیق و مبتنی بر رفتار روت کیت ها برای تشخیص نفوذ. در این پژوهش، به منظور تشخیص نفوذ و مقابله با حملات و روت کیت های سطح هسته، سیستم تشخیص نفوذی تحت عنوان klrtd ارائه شده است. این سیستم نوعی معماری امن و مبتنی بر ناظر دارد که از یک سو با بکارگیری ابزار طراحی شده ی kldg به جمع آوری داده های مورد نیاز از سطح هسته می پردازد و از سویی دیگر با بهره گیری از روشی الهام گرفته از تئوری خطر و خروجی سه ابزار طراحی شده ی klrtd_ic، klrtd_ad و klrtd_sb که به ترتیب از روش های کنترل جامعیت، تشخیص ناهنجاری و تشخیص مبتنی بر امضا برای تولید سیگنال های ورودی استفاده می کنند، حملات، روت کیت ها و ناهنجاری های سیستمی را تشخیص می دهد. نتایج حاصل از ارزیابی ها، حاکی از این است که سیستم klrtd به علت استفاده از یک روش ترکیبی از تکنیک های مختلف و رویکردی مبتنی بر ناظر، به خوبی روت کیت های سطح هسته را شناسایی کرده و قادر است هم ردیف سیستم های تشخیص نفوذ مبتنی بر میزبان و در مواقعی، بهتر از آن ها، به تشخیص روت کیت ها و بدافزارهای سطح هسته بپردازد.
محبوبه هاشم پوریان رضا عزمی
چکیده در سال های اخیر محاسبات ابری رشد چشمگیری یافته است بطوریکه در اکثر تحقیقات و آزمایش های علمی مورد استفاده قرار گرفته است. محاسبات ابری مجموعه ای از برنامه ها و سرویس هاست که در یک شبکه توزیع شده اجرا می شوند و از طریق منابع مجازی به منابع فیزیکی اصلی دسترسی دارند و همچنین از پروتکل های رایج اینترنت و استانداردهای شبکه استفاده می کنند. محاسبات ابری ساختاری شبیه یک توده ابر دارد که بواسطه آن کاربران میتوانند به برنامه های کاربردی از هر جایی از دنیا دسترسی داشته باشند. در چنین حالتی، کاربران سعی می کنند بر اساس نیازهایشان و بدون توجه به اینکه یک سرویس در کجا قرار دارد و یا چگونه تحویل داده میشود، به آن دسترسی یابند. کاربران مختلف به سرویس های مختلف با الزامات کیفیت سرویس متفاوت نیاز دارند. از طرفی که بسیاری از سرویس های ابری با خواص کارایی مشابه در محاسبات ابری وجود دارد حال برای رسیدن به کیفیت سرویس مورد نظر و خواسته ی کاربران باید از تکنیک هایی استفاده کرد که بهترین روش، زمان بندی می باشد. در این پایان نامه چگونگی زمان بندی سرویس های ابر مطابق با کیفیت سرویس کاربر بحث خواهد شد. در اینجا یک الگوریتم مبتنی بر اولویت پویا و بلیط به نام dpcbts ارائه می شود که دارای توازن بار نیز می باشد. در نهایت به وسیله ی شبیه ساز کلودسیم نشان داده شده که روش پیشنهادی نسبت به سایر روش های مورد مقایسه و استاندارد از نظر معیارهایی چون زمان پاسخ، زمان اجرا، بهره وری مؤثر منابع بهبود داشته است. واژه های کلیدی: محاسبات ابری، کیفیت سرویس، زمان بندی وظیفه، اولویت پویا، زمان بندی دو سطحی، بلیط، توازن بار.
مینا کاظمی نوشین ریاحی
شبکه های حسگر بی سیم به بخش جدایی ناپذیر زندگی بشر تبدیل شده اند. که از آنها در بسیاری از صنایع، کشاورزی، هواشناسی و بهداشت و درمان استفاده می شود. با پیشرفت شبکه های حسگر، استفاده از این سیستم ها در بهداشت و درمان بسیار گسترش یافته است. در هر محیطی، کاربران مایل به حفظ حریم خصوصی خود هستند. محیط در نظر گرفته شده در این تحقیق یک بیمارستان با بخش های مختلف می باشد. در شبکه هایی با چند سینک، به دلیل جدید بودن این نوع شبکه ها مسیریابی های مشکلی که در این شبکه ها وجود دارد کاری در زمینه امنیت انجام نشده است. به طوری که در حال حاضر و در سال های اخیر تحقیقات بر روی مسیریابی در این نوع شبکه ها ادامه دارد. در این پژوهش ما از الگوریتم dcarps در شبکه تک سینکی استفاده نموده ایم و پس از بهبود آن، از آن برای ایجاد گمنامی در شبکه های چند سینکی استفاده نموده ایم و برای داشتن دید کلی شبکه نیز از الگوریتم ntdp استفاده شده است. در ابتدا هر سینک با توجه به نودهای اطراف خود و با توجه به اینکه چه نودهایی باید در زیر شاخه این سینک قرار گیرند و با استفاده از الگوریتم ارائه شده خوشه خود را ایجاد می کند. سپس به توزیع کلیدها، برچسب ها و di ها در خوشه خود می پردازد. کلیدهای متعلق به دیگر خوشه ها نیز در نودها بارگذاری می شوند. برای ایجاد امنیت از برچسب گذاری و رمز نگاری های تو در تو استفاده می شود. به این صورت که هر نود پس از دریافت یک بسته برچسب ورودی بسته را با برچسب خروجی خود جایگزین کرده، بسته دوباره در شبکه ارسال می گردد تا به سینک برسد. هیچ نودی محل سینک را نمی داند. برای رمزنگاری در شبکه از دو روش رمز نگاری ترکیبی و یا رمزنگاری چند جمله ای استفاده می شود. برای ارتباط بین خوشه ها نیز از چهار مدل استفاده می شود. مدل یک: هر سینک خود را فرزند یکی از نودهای خوشه های دیگر می نماید و اگر بسته دریافتی متعلق به خودش نبود بسته را ارسال می دارد. مدل دو: یک سینک مادر وجود دارد. چنانچه هر سینک بسته ای دریافت کند که متعلق به خودش نباشد آن را به سینک مادر ارسال می دارد. مدل سه: اگر بسته ای به سینکی رسید و بسته متعلق به او نبود. او این بسته را به صورت همه پخشی ارسال می دارد. و نودهای مجاور نیز تا تعداد دفعات مشخصی بسته را ارسال می دارند. مدل چهار: از درگاه ها برای ارتباط خوشه ها با یکدیگر استفاده شده است. الگوریتم پیشنهادی علاوه بر این که تحلیل آماری شده، در ns2 نیز شبیه سازی شده است، و از طریق ملاک های انرژی مصرفی، تاخیر، آنتروپی و گذردهی ارزیابی شده است.
فهیمه سلطانی نژاد نوشین ریاحی
قابلیت اطمینان یکی از مسایل بسیار مهم در سیستم های کامپیوتری است. بیشتر کد هسته سیستم عامل ها را گرداننده های ابزار تشکیل می دهند که منبع بسیاری از خطاها و اشتباهات و خرابی های سیستمی هستند. از اینرو، بهبود قابلیت اطمینان آن ها یکی از موضوعات بسیار مهم و کلیدیست و تحقیقات بسیار زیادی را به خود اختصاص داده است. طرح پیشنهادی در این پژوهش، بهبود قابلیت اطمینان گرداننده های ابزار از طریق رویدادنگاری اجرای آن هاست. این طرح از چارچوب granary استفاده می کند. granary چارچوبیست که امکان تحلیل دودویی ماژول های درون هسته (شامل گرداننده ها) را فراهم می کند. با استفاده از granary می توان از اجرای گرداننده ها رویدادنگاری هایی کرد. این رویدادنگاری ها حاوی اطلاعاتی همچون نام توابع اجرا شده در حین اجرای یک گرداننده، روابط فراخوانی بین این توابع و تعداد دفعات اجرایشان هستند. با استفاده از این اطلاعات می توان رفتار گرداننده ها را تحلیل کرد. در این طرح از دسته بندی کننده حداقل فاصله برای تحلیل رفتار گرداننده ها و تشخیص رفتار ناهنجار از هنجار استفاده می شود. برای ارزیابی طرح پیشنهادی، از رفتار گرداننده شبکه r8168 در دو حالت هنجار و ناهنجار کار با یک سرورftp، 80 رویدادنگاری تهیه شد، سپس رویدادنگاری های به دست آمده تحلیل شد و از دسته بندی کننده حداقل فاصله برای دسته بندی آن ها و از روش leave one out برای اعتبارسنجی نتایج استفاده شد. بررسی ها نشان می دهد که این دسته بندی کننده می تواند با دقت 95% رویدادهای ناهنجار را از هنجار تشخیص دهد.
زینب آقاهادی رضا عزمی
چکیده یکی از چالش های اساسی در مبحث امنیت سیستم های کامپیوتری، تشخیص فعالیت-های خرابکارانه و نفوذی به سیستم می باشد. در این راستا، تاکنون سیستم های تشخیص نفوذ فراوانی توسعه یافته اند.یکی از راه های مقابله با تهدید ها، حفظ جامعیت هسته سیستم عامل در مقابل هجوم پسوند های غیرقابل اعتماد می باشد. تابع هسته با پسوند هایی گسترش یافته است که این گسترش می تواند به خراب کاری های مهاجمان نیز کمک کند. مثلاً مهاجمان می توانند پسوند های مخربی را به عنوان روت کیت هسته نصب کنند که فعالیت هایشان را پنهان کند. می خواهیم به منظور شناسایی روت کیت هایی که داده های هسته را تغییر می دهند، نامتغیر های ساختار داده را به طور خودکار استنتاج کنیم. ایده اصلی این است که مقادیر ساختار داده ها در حین فاز تعلیم مانیتور شوند و نامتغیر هایی که از این ساختار داده ها بدست آورده شده اند به صورت فرضیه مطرح شوند. این نامتغیر ها شامل ویژگی های ساختار داده هستند که به عنوان مشخصات جامعیت ساختار داده مطرح می شوند. سیستم ما داده های موجود در هسته ی سیستم را مشاهده کرده و این مقادیر برای استنباط به ابزار تولید کننده نامتغیر داده می شود. این ابزار با به کارگیری روش های برنامه نویسی ژنتیک نامتغیرها را تولید می کند. هرگونه نقض این نامتغیر ها نشان دهنده ی حضور یک رفتار غیر نرمال خواهد بود. سیستم ما در صورت مشاهده ی خطا که همان نقض نامتغیرها می باشد متوجه خطر شده و خطای مربوط را گزارش می دهد. نتیجه ی این پژوهش سیستم تشخیص نفوذی می باشد که از جامعیت داده های هسته به منظور شناخت رفتارهای نرمال و غیرنرمال استفاده می کند.
سمیرا نصرابادی سامان هراتی زاده
امروزه در پزشکی مدرن استفاده از تصاویر mri برای جداسازی و سه بعدی سازی اجزای مغز در جهت آنالیز کمی بافت های مغزی مورد توجه قرار گرفته است آنالیز مربوطه منجر به بهبود تشخیص صحیح بیماری و در نتیجه درمان موثر آن می گردد. بیماری آلزایمر از جمله بیماری هایی است که با کمک آنالیز بافت های مغز بخصوص هیپوکمپوس قابل شناسایی است. هیپوکمپوس بخشی از سیستم لیمبیک مغز است که در برخی از بیماری های مغزی دچار تغییرات حجمی و ساختاری می شود. از سال 1995 تحقیقات زیادی در جهت قطعه بندی هیپوکمپوس انجام شده است. اخیراً سعی شده است که با کمک روش های آنالیز حجم و شکل (مانند استفاده از توابع موجک و هارمونیک کروی) و تعیین نقصان هیپوکمپوس برای تشخیص بیماری هایی مانند آلزایمر، صرع، شیزوفرنی و مانند آن استفاده شود. بیماری آلزایمر از جمله بیماری هایی است که منجر به کاهش حجم و تغییر شکل هیپوکمپوس در مراحل مختلف بیماری می شود. کاهش نامحسوس حجم هیپوکمپوس یکی از مشکلات پیش رو در تشخیص این بیماری در مراحل اولیه آن است که این مشکل با استفاده از پایش تغییرات شکل هیپوکمپوس مرتفع می گردد. بنابراین در این تحقیق، روشی توسعه یافته جهت مدل سازی شکل هیپوکمپوس بر اساس ضرایب توابع موجک کروی و استفاده از این ضرایب برای سیستم های دسته بندی مختلف مانند ماشین بردار پشتیبان و شبکه عصبی پِرسپترون، ارائه می شود. روش پیشنهادی مشتمل بر چندین مرحله است. در مرحله اول جداسازی هیپوکمپوس از تصاویر مختلف انجام می شود. سپس، در مرحله ی دوم، با مشبندی هیپوکمپوس ها و یکسان سازی و اصلاح آن ها به توزیع یکنواخت گره ها بر روی مش ها پرداخته می شود. در مرحله ی سوم، مشبندی مجدد و تراز کردن شکل ها در جهت تحقق به یک شکل میانگین صورت می پذیرد. در ادامه، با اعمال توابع موجک بر روی شکل میانگین و استفاده از ضرایب موجک بدست آمده به عنوان ورودی های ماشین بردار پشتیبان و شبکه عصبی پرسپترون، جدا سازی افراد بیمار از سالم صورت می گیرد. درنهایت بهبود دقت روش پیشنهادی در مقایسه با روش های متداول پیشین مورد بررسی قرار گرفته است.
میترا حسینی جعفری بهروز قلی زاده
تشخیص پوسیدگی دندان یکی از مبنایی ترین مهارت هایی است که متخصصان حوزه ی بهداشت دهان و دندان باید یاد بگیرند و در عین حال، یکی از سخت ترین مهارت هایی است که این متخصصان کسب می کنند، چرا که فرد خبره باید بتواند با اطمینان بالا مکان و مقدار پوسیدگی را تشخیص دهد. بهره گیری از تکنولوژی روز و ابزارهای گوناگون، خصوصاً سیستم های کامپیوتری که در زمان نسبتاً کوتاهی، جای خود را در همه ی علوم به وضوح باز کرده اند، در اینجا نیز همانند سایر حوزه های پزشکی، کارگشا بوده و امری اجتناب ناپذیر است. در همین راستا، یک سیستم پیشنهادی برای تشخیص پوسیدگی دندان از روی تصاویر رادیوگرافی پری اپیکال ارائه شده است که در پیدا کردن مکان پوسیدگی به دندانپزشک کمک خواهد کرد. در سیستم پیشنهادی، ابتدا تصاویر رادیوگرافی پری اپیکال به منظور کاهش نویز پیش پردازش می شوند، سپس طی دو مرحله استفاده از روش قطعه بندی اکتیوکانتور بدون لبه که زیرمجموعه ای از روش های level set است، تک دندان ها از تصویر استخراج شده و پس زمینه ی آنها حذف می گردد. در نهایت تعدادی ویژگی از تصاویر استخراج می گردد و مبتنی بر این ویژگی ها، دندان هایی که دارای پوسیدگی هستند، از دندان های فاقد پوسیدگی جدا می گردند. با توجه به تفاوت های انواع مختلف تصاویر دندانپزشکی که نیاز به استفاده از روش های مختلف پردازش را ایجاد می کند، سیستم پیشنهادی این پژوهش، نخستین سیستم یکپارچه ی ارائه شده به منظور پردازش تصاویر رادیوگرافی پری اپیکال است و می تواند به عنوان پایه ی پژوهش های آتی در این زمینه قرار گیرد.
ندا درویش زاده محمدابراهیم شیری
از منظر امنیت کامپیوتر، می توان موفقیت سیستم های زیستی در حفظ بقاء و پایداری را بعنوان الگوی مناسبی در نظر گرفت. ابزارها و روشهای متداولی که برای تولید سیستم های محاسباتی قوی استفاده می شوند نمی توانند حتی کوچکترین شکل حیات را به شکل مناسب پیاده سازی نمایند، در حالیکه سیستم های زیستی در طول زمان متکامل شده تا در محیط های گوناگون و در مقابل هجومهای مختلف، زنده بمانند و تکثیر شوند. در این پایان نامه سعی شده است تا با الهام گرفتن از سازوکار هومئوستازیس مشابه موجودات زنده راه حل نوینی برای سیستم های تشخیص نفوذ هوشمند ارایه شود. در این روش, نفوذ به عنوان رفتار غیرعادی برنامه ها شناسایی می شود و کامپیوترها - مانند سیستم های زیستی- بدون نیاز به ابزارهایی از قبیل ضدویروسها، دیواره های آتش و غیره می توانند از خودشان دفاع کنند. این سیستم ها چون قابلیت یادگیری و تشخیص حملات جدید را دارا هستند, نیازمند به روزآوری نمی باشند. سیستم ارایه شده، یک سیستم متمرکز تشخیص نابهنجاری نفوذ مبتنی بر میزبان و تحت سیستم عامل لینوکس است. الگوی رفتاری برنامه را بصورت دنباله ای پنجاه تایی از امضاهای ارایه شده برای توابع فراخوان سیستم تعریف کرده ایم بگونه ای که هر امضاء شامل هشت فیلد شماره فراخوانی سیستمی، نتیجه فراخوانی سیستمی، شناسه کاربری، شناسه گروه، euid، egid، suid، sgid است. داده های مربوط به الگوهای رفتاری، از گزارش های حاصل از زیر سیستم ممیزی سیستم عامل لینوکس استخراج شده اند. در سیستم پیشنهادی ابتدا با استفاده از شبکه عصبی المن، برنامه ها با رفتار غیرعادی، از برنامه های عادی تفکیک شده و سپس الگوی رفتاری برنامه غیرعادی به شبکه عصبی کوهنن داده می شود تا نوع نفوذ را تشخیص دهد.
سمانه السادات شیرازی محمدابراهیم شیری
در سالهای اخیر شناسایی نوری نویسه به عنوان یکی از حوزه های فعال در مبحث شناسایی الگو است. اگرچه تحقیقات بر روی کلمات دستنویس فارسی (عربی) در سالهای گذشته پیشرفت بسزایی کرده است، اما در مقایسه با کلمات لاتین جای پیشرفت دارد. البته کارهای انجام شده در این زمینه حاوی اطلاعات مفید برای بالا بردن ضریب اطمینان است. در این پایان نامه سعی بر این است که در حوزه شناسایی نوری نویسه و به خصوص کلمات دستنویس بتوان روشی برای بهبود دقت در شناسایی و بازیابی کلمات ارائه کرد. با توجه به این حقیقت که شناسایی یک تصویر به وسیله انسان ها بر اساس مشاهده صورت می گیرد، تمایز تصاویر گوناگون وابسته به قدرت بینایی انسان است. تحقیقات نشان داده است که درصد تشخیص و شناسایی یک شی در کامپیوتر با استفاده از تبدیل آن به فرکانس، برتر از شناسایی بر اساس ویژگی های ساختاری و ظاهری تصویر شئ می باشد. به همین منظور و در راستای شناسایی و بازیابی تصاویر دستنویس، از تبدیل موجک گسسته استفاده کرده و ویژگی های بدست آمده از این تبدیل را به عنوان معیار شناسایی و در نهایت بازیابی قرار داده ایم. سیستم شناسایی بر اساس شبکه های عصبی برنامه ریزی شده است. علت استفاده از شبکه عصبی، داشتن قابلیت دسته بندی کردن و تفکیک الگوها بر اساس ویژگی های مدنظر می باشد. مجموعه داده ها شامل 42 کلمه می باشد که توسط 100 نفر با درجه تحصیلات متفاوت جمع آوری شده است. نیمی از داده ها را به عنوان داده های آموزش و نیمی دیگر را به عنوان داده های آزمایشی در نظر گرفته ایم. سیستم شناسایی، داده های آموزشی را با دقت 95.71% و داد های آزمایشی را با دقت 72.85% شناسایی می کند. در بخش بازیابی تصاویر در مجموعه داده ها، سیستم پیشنهادی بطور متوسط برای 42 کلمه مفروض با دقت 97.80% به بازیابی می پردازد. به علت اینکه در داده های جمع آوری شده یک کلمه را به صورت پیوسته در نظر گرفته ایم و به شناسایی حروف به طور مجزا پرداخته نشده است، نتایج بدست آمده از آزمایش سیستم پیشنهادی نشان دهنده توانایی سیستم در بازیابی و همچنین شناسایی برون خط کلمات دستنویس فارسی دارد.
سمیرا الهامی مقدم مهران شرقی
با توجه به رشد سریع داده ها در سال های اخیر به تکنیکی برای مدیریت این داده ها نیاز داریم. بنابراین شرکت های مختلف چارچوب هایی را برای این منظور پشنهاد داده اند. چارچوب های mapreduceو apache spark از این دست هستند. این چارجوب ها پیچیدگی های برنامه نویسی موازی همانند توزیع داده ها و زمانبندی را رفع می کنند. در این میان پرس و جو این حجم از داده ها نیز اهمیت بسیاری دارد. بنابراین در این پژوهش روشی برای بهبود کارایی و سرعت پرس وجو در داده های عظیم پیشنهاد دادیم.
فهیمه السادات صالح رضا عزمی
تشخیص زود هنگام ضایعه پوستی سرطانی، برای درمان موفق، بسیار مهم است. به عنوان مثال، در ملانوم بدخیم که مرگبارترین شکل سرطان پوست است، در صورتی که در مراحل اولیه، بیماری تشخیص داده شود، شانس درمان بالای 95% خواهد بود و به میزان قابل توجهی مرگ و میر ناشی از این سرطان را کاهش میدهد. قطعه بندی ضایعات پوستی یکی از مهمترین گامها برای تشخیص زودهنگام سرطان پوست می باشد، چرا که دقت و صحت مراحل بعدی به طور قابل توجهی به این مرحله بستگی دارد. در این پژوهش یک رویکرد دو مرحله ای براساس الگوریتم های انتقال میانگین و تقسیم بندی گرافی طیفی در یک فضای رنگ یکنواخت ارائه شده است. روش ارائه شده نه تنها مرز ضایعات پوستی را به طور موثر استخراج می کند، بلکه توانایی استخراج مناطق معنادار در ضایعات چندالگویی را دارد که تاکنون در روش های ارائه شده ی قبلی به آنها پرداخته نشده است. در این روش، در مرحله اول، تصویر ضایعه با استفاده از انتقال میانگین قطعه بندی می شود و در مرحله دوم، با استفاده از یک بازنمایی مبتنی برگراف، ساختار بین مناطق و روابط بین آنها استخراج شده و سپس با استفاده از خوشه بندی طیفی خود تنظیم شونده و با توجه به سیستم همسایگی استخراج شده از مرحله قبل و تجزیه و تحلیل فاصله رنگ و بافت بین مناطق، عملیات ادغام مناطق و قطعه بندی نهایی انجام می شود. روش ارائه شده بر روی 170 تصویر ضایعات پوستی اعمال و با استفاده از نتایج حاصل از مرزبندی یک متخصص پوست با چهار معیار مختلف مورد ارزیابی قرارگرفته است. نتایج حاصل از مقایسه این روش با 4 روش شناخته شده نشان می دهد که، ویژگی های چالش برانگیز ضایعات پوستی مانند مرزهای ضعیف و مبهم و عدم تقارن در شکل و رنگ مدیریت می شود، به علاوه ضایعات چندبخشی که با افت شدید شدت رنگ در چند بخش روبرو می شوند نیز به خوبی تشخیص داده شده و مرزبندی می گردند.
منصوره عبایی شوشتری بهروز قلی زاده
گاهی روند پیشرفت این بیماری های پوستی به قدری تند است که درمان آن به سختی صورت می گیرد لذا پزشکان به دنبال روشی جهت پیش بینی زودهنگام روند پیشرفت/ بهبود بیماری هستند. هر زخم شامل فاکتورهای قابل اندازه گیری مختلفی است که با بررسی آن ها می توان روند پیشرفت/بهبود بیماری را تعیین کرد. از مهم ترین آن ها می توان به سطح، بافت، رنگ و عمق اشاره کرد. در حال حاضر بررسی فاکتورهای بیان شده توسط پزشکان به صورت حضوری، پر مشقت، طی مراقبت های طولانی مدت، پر هزینه و با دقت بالا صورت می گیرد. با توجه به نیازمندی پزشکان و سهولت در بررسی این روند، الگوریتمی پیشنهاد شده که با استفاده از تکنیک های پردازش تصاویر رنگی موجود در بازه های زمانی مختلف، این فاکتورها را بررسی کرده و با استفاده از الگوریتم های هوشمند، بهبود/پیشرفت آن را تعیین می کند.
سارا خسروی مهران شرقی
سیستم های ذخیره سازی مقیاس پذیر که قادر اند به صورت خطی رشد کنند و کارایی بالایی را برای محیط های محاسباتی بزرگ فراهم کنند، می توانند پاسخ مناسبی به چالش های مربوط به انواع بارهای کاری که در ارتباط با داده های عظیم هستند، بدهند. در هنگام بررسی سیستم های ذخیره سازی ابتدا باید نوع بار کاری را تشخیص دهیم و تحلیل کنیم و متناسب با آن، انواع تکنیک های مرتبط با قابلیت اطمینان، بازیابی اطلاعات، خاصیت تحمل خطا، امنیت و مقیاس پذیری را بکار گیریم. در این پژوهش چالش های اساسی و امنیتی فایل سیستم های خوشه ای در ارتباط با مسائل و نیاز های زیر ساخت های ابری و داده ای عظیم، بررسی شده است، سپس در جهت پاسخ گویی به این چالش ها معماری امنی ارائه شده که قادر به حفظ محرمانگی و جامعیت داده های ذخیره شده در ابر است
فروغ فروغی نوشین ریاحی
در این پژوهش با استفاده از تکنیک ضرب داخلی و تعریف جدیدی از بار کاری به صورت هایپرگراف، روشی برای افزایش سرعت پردازش و به تبع آن بهبود کارایی سیستم پردازشی هادوپ ارائه دهیم. با اضافه کردن الگوریتم سریع تقسیم بندی هایپرگراف و در نظر گرفتن توازن بار و تکنیک جایگذاری داده به صورت غیرتصادفی، داده های مشابه به صورت خودکار در فایل سیستم توزیع شده در کنار هم جایگذاری می شوند. به علاوه برای کم کردن سربار در تعداد فایل های بالا، داده ها ابتدا به دسته های کوچکتر تقسیم و سپس به هایپرگراف تبدیل می شوند. با ارزیابی سیستم پیشنهادی بر روی کلاستر ec2 آمازون نشان می دهیم، مشابهت داده ها سبب کاهش تعداد عملیات پردازشی در سطح کلاستر و شبکه شده و در نتیجه سرعت پردازش، با احتساب سربار حدود 5 درصد و بدون احتساب آن تقریبا 14 درصد افزایش پیدا می کند. این روش برای برنامه های مربوط به پردازش لاگ، کاربردی و پیاده سازی شده است.
هستی خسروی مهران شرقی
شبکه های حسگر بی سیم از گره های ثابت با منابع محدود از لحاظ قدرت باتری، سرعت پردازنده، حافظه و برد رادیویی تشکیل شده است. ایجاد یک شبکه حسگر امن به دلیل رسانه ی بی سیم و این واقعیت که شبکه حسگر بی سیم به صورت فیزیکی محافظت نمی شود، آن را با چالش هایی روبه رو کرده است. ازاین رو، روش های تشخیص نفوذ جهت تشخیص برخی از خطرناک ترین حملات باید طراحی شود. علاوه بر این، این روش ها با توجه به ماهیت محدودیت منابع شبکه حسگر بی سیم باید بسیار سبک باشد.ما بر روی پیشنهاد یک سیستم تشخیص نفوذ سبک و وفقی مبتنی بر همسایه برای تشخیص دو حمله سلام سیل آسا و ارسال انتخابی تمرکز کرده ایم. در سیستم تشخیص نفوذ پیشنهادی فرض کرده ایم که یک عامل ids بر روی هر گره اجرا می شود و تشخیص نفوذ به صورت محلی انجام می شود. در این معماری به منظور صرفه جویی در مصرف انرژی هیچ گونه همکاری بین عامل های ids وجود ندارد. گره های حسگر داده های ممیزی در مورد همسایه ها را جمع آوری کرده و تجزیه وتحلیل لازم را بر روی آن ها انجام می دهند. روش پیشنهادی با استفاده از فیلترینگ الفا-بتا خود را با تغییرات پویای شبکه وفق می دهد و قادر به تشخیص حمله تبانی در سلام سیل آسا و ارسال انتخابی است. در تشخیص حمله سلام سیل آسا برای افزایش دقت تشخیص و کاهش نرخ مثبت کاذب از دو روش تشخیص استفاده شده است. به منظور تصمیم گیری نهایی در مورد نرمال یا مخرب بودن گره ها به هر روش ضریب اعتمادی داده و با هم ترکیب می شوند.
راضیه حسینی مظاهر رضا عزمی
امروزه تحلیل شبکه های اجتماعی نقش مهمی در تحقیقات دارد، از نظر ساختاری، اجزای اجتماعات و گروهها در شبکه های اجتماعی شامل گروه های اجتماعی هستند که شناسایی اجتماعات، یافتن ساختارهای اجتماعی که در آنها افراد دارای ویژگی های مشابهی هستند از چالش های مهم است. از نظر رفتاری، چگونگی انتشار گونه های مختلف اطلاعاتی در شبکه و بیشینه سازی انتشار با استفاده ازمجموعه کوچکی از نودهای انتشار دهنده از چالش های مهم در مطالعه پدیده گسترش انتشار در شبکه های اجتماعی است. با توجه به اهمیت موارد مذکور، در این پایان نامه، در ابتدا سه روش برای شناسایی اجتماعات در شبکه های اجتماعی پیشنهاد شده است. در روش اول الگوریتمی با استفاده از عنصر حافظه تحت عنوان mlpa پیشنهاد شده است. در روش دوم، با استفاده از چندین شاخص مشابهت ساختاری میان نودهای شبکه تحت عنوان ilpa برای بهبود الگوریتم انتشار برچسب پیشنهاد شده است. روش سوم بر مبنای ترکیبی از دو روش قبلی است که استفاده از الگوریتم بهینه سازی کلونی مورچگان برای یافتن اجتماعات براساس بیشینه سازی ماژولاریتی تحت عنوان antlpa پیشنهاد شده است. در بخش آخر، با توجه به این ویژگی که اکثر شبکه های دنیای واقعی دارای ساختارهای گروهی هستند، استفاده از شناسایی ساختار اجتماعات توسط الگوریتم های پیشنهادی مذکور و سپس گسترش انتشار از طریق مجموعه کوچکی از نودهای اولیه در اجتماعات مختلف پیشنهاد شده است. همچنین برای انتخاب نودهای تاثیرگذار اولیه نیز الگوریتمی مبتنی بر پیمایش مورچگان در شبکه پیشنهاد شده است. در پایان، به منظور ارزیابی روش های پیشنهادی، شبیه سازی هایی بر روی دادگان محک استاندارد واقعی شبکه های اجتماعی و ساختگی lfr انجام شده است. الگوریتم های پیشنهادی برای شناسایی اجتماعات در مقایسه با سایر الگوریتم ها از نظر معیارهایی چون ماژولاریتی، nmi و همچنین معنادار بودن اختلاف نتایج از نظر آزمون آماری-تی مورد بررسی قرار گرفته است. همچنین آزمایشاتی نیز برای بررسی الگوریتم پیشنهادی انتخاب نودهای تاثیرگذار اولیه و رویکرد پیشنهادی برای انتشار از طریق نودهای اولیه در اجتماعات مختلف نیز در مقایسه با سایر روش های انتخاب نود اولیه تحت مدل انتشار آستانه خطی و براساس آزمون آماری-تی صورت قرار گرفته است. کلمات کلیدی: شبکه پیچیده، شبکه های اجتماعی، شناسایی اجتماعات، گسترش انتشار، بهینه سازی کلونی مورچه.
رضا عزمی احسان الله کبیر
برای بازشناسی کلمات سه رویکرد مبتنی بر جداسازی، مبتنی بر بازشناسی کلمه یک الگوی واحد و رویکرد ترکیبی مطرح است . در این رساله یک سیستم برای بازشناسی متون چاپی فارسی با استفاده از رویکرد ترکیبی ارائه شده است . یک الگوریتم جدید برای جداسازی حروف در کلمات چاپی بدون توجه به نوع قلم ارائه شده است . مراحل مختلف الگوریتم شامل تعیین نوار زمینه، تصحیح آن و جداسازی حروف است . در تعیین نوار زمینه روش جدیدی براساس منحنی پیرامونی زیر کلمات ارائه شده است . نقاط جداسازی با اعمال قواعدی در قالب یک دیاگرام حالت روی منحنی پیرامونی کلمات تعیین می شوند. در یک آزمون روی چند صفحه متن چاپی شامل حدود 11 هزار حرف با قلمهای مختلف حدود 99 درصد از حروف بدرستی جداسازی شده اند. برای بازشناسی حروف با قلمهای گوناگون دو الگوریتم مختلف ارائه شده است . الگوریتم اول از کدهای فریمن کانتور حروف به عنوان ویژگی و از یک اتوماتون آماری برای طبقه بندی استفاده می کند. الگوریتم دوم از تبدیل هاف که برای اولین بار در این رساله با روش فازی محاسبه شده است در مرحله استخراج ویژگی و از یک شبکه عصبی پس انتشار خطا در مرحله طبقه بندی استفاده می کند. الگوریتم های فوق روی مجموعه ای از حروف شامل 11500 نمونه از دو قلم مختلف آزموده شده است و میزان بازشناسی به ترتیب 97ˆ13 و 98ˆ32 درصد بوده است . در این تحقیق برای بکارگیری شکل کلی زیر کلمات در بازشناسی آنها، از دیکشنری تصویری استفاده شده است . به این منظور سه دیکشنری مختلف با استفاده از ویژگیهای مکان مشخصه، توصیف کننده های فوریه و بر چسب های کانتور بالایی طراحی شده و آزمایش های مختلفی روی آنها انجام گرفته است . در مرحله نهایی این تحقیق سیستمی برای بازشناسی زیر کلمات فارسی با یک رویکرد ترکیبی ارائه شده است . در این سیستم با جداسازی و بازشناسی حروف شاخص زیر کلمه رویکرد مبتنی بر جداسازی و با در نظر گرفتن یک دیکشنری تصویری برای بدنه زیر کلمات رویکرد بازشناسی کلمه بعنوان یک الگوی واحد در نظر گرفته شده است . نوع و موقعیت نقاط و علائم نیز در بازشناسی زیر کلمات بکار گرفته شده اند. اطلاعات آماری درباره احتمال رخداد متوالی حروف شاخص و امتیاز حاصل از بازشناسی آنها به کمک مدل مخفی مارکوف و یک الگوریتم ویتربی تغییر یافته برای بازشناسی زیر کلمات بکار گرفته شده اند. سیستم ترکیبی نهایی روی یک متن با چهار قلم مختلف آزموده شده و نتایج با جزئیات مختلف ارائه شده است .