نام پژوهشگر: رضا بوستانی
مریم صالحی رضا بوستانی
با توجه به اینکه پیش بینی درست مصرف گاز، کمک زیادی به تصمیم گیران در سطوح بالای سیاسی و اقتصادی کشور می کند، تلاش برای افزایش دقت پیش بینی همچنان یک موضوع قابل پژوهش و ضروری است. این مقاله از یک شبکه عصبی مصنوعی که توسط الگوریتم ژنتیک مقداردهی اولیه شده برای پیش بینی مصرف گاز ایران تا 12 ماه آینده به کمک داده سالهای 1384 تا 1391، استفاده می کند. رویکرد پیشنهادی از ورودی های کل مصرف گاز، مصرف گاز دربخش خانگی و تجاری و دما، برای پیش بینی استفاده می کند. مشارکت اصلی این تحقیق آماده سازی اولیه وزن های شبکه های عصبی به کمک الگوریتم ژنتیک می باشد که دلیل آن محدب نبودن تابع و فضای جستجوی شبکه عصبی می باشد و برای حصول نتیجه مناسب، بهتر است که وزن های آماده سازی شده تا حد ممکن نزدیک به بهینه سراسری یا حداقل به یک کمینه محلی مناسب باشد. به منظور مقایسه کارایی الگوریتم پیشنهادی، این رویکرد با سیستم استنتاج فازی عصبی تطبیقی، شبکه عصبی مصنوعی و ترکیب شبکه عصبی با الگوریتم ژنتیک متداول با استفاده از معیارهایmape، rmseو mseمقایسه می شود. نتایج حاصله حاکی از قدرت همگرایی بالا و دقت بالای پیش بینی رویکرد پیشنهادی در مقایسه با سایر الگوریتمها دارد. از آنجاییکه روش پیشنهادی به خوبی می تواند از عهده پیچیدگی، غیرخطی بودن و عدم قطعیت موجود در داده ها (به دلیل خطای اندازه گیری و پاسخ های غیرقابل پیش بینی) برآید، این رویکرد می تواند به عنوان ابزار مناسبی برای پیش بینی مصرف گاز در اختیار تصمیم گیران قرار بگیرد.
محمد بصیری منصور ذوالقدر جهرمی
استفاده از کاربران مصنوعی بهترین راه حل بررسی وب سایت ها بوده که علوم شناختی و معماری های شناخت کمک شایانی در این زمینه ارائه می دهند. در این تحقیق معماری شناخت act-r مورد ارزیابی قرار گرفته است و با استفاده از تئوری جستجوی اطلاعات مدلی برای به دست آوردن اطلاعات با معماری act-r تهیه شده است. از دو کلمه با هر کدام چهار ترکیب چینش پاراگراف ها برای انجام مصاحبة اولّیه استفاده شده و از اعداد به دست آمده به عنوان شاخصی برای کالیبراسیون مدل استفاده گردیده است. از دوکلمة جدیدبرای بررسی عملکرد مدل استفاده شده و کلمات در اختیار مدل و کاربران قرار گرفته اند و عملکرد آنها در زمان و محل تشخیص پاسخ صحیح با یکدیگر مقایسه گردیده است.
فاطمه علیمردانی رضا بوستانی
در سال های اخیر، کاراتر سازی روش های انتخاب خصیصه به صورت رو به رشد مورد توجه بوده اند. تحقیقات انجام شده به منظور کاهش هزینه ی محاسبات و همچنین کاهش ریسک تطابق بیش از حد مطالعه شده اند. در راستای کاهش بعد خصیصه ها از بین همه ی الگوریتم -ها روش های پیشرونده به دلیل هزینه ی محاسباتی کم بسیار کارا هستند. در این رساله دو الگوریتم پیشرونده ی جدید بر اساس مقدار افزایش اطلاعاتی که با حضور هر خصیصه خواهیم داشت ارائه شده است. این الگوریتم ها سعی دارند خصیصه های حاوی بیشترین اطلاعات را یافته و انتخاب کنند. از طرف دیگر با غلبه بر محدودیت های الگوریتم های ترتیبی پیشرونده و پسرونده سعی می کنند زیرمجموعه ای را انتخاب کنند که خصیصه های آن بیشترین استقلال را داشته باشند. برای بررسی میزان خوبی خصیصه هایی که انتخاب می شوند از طبقه بندی کننده ی نزدیکترین همسایه استفاده شده است. این طبقه بند وابسته به معیار فاصله ای که برای یافتن نزدیکترین همسایه به کار می برد می باشد. در همین راستا یک نسخه ی تصحیحی برای حذف این وابستگی پیشنهاد شده است که از رای گیری بین سه فاصله نتیجه ی خود را برای نمونه ی آزمایشی اعلام می کند. نتایج، بهبود قابل توجه صحت طبقه بندی نسبت به روش های شناخته شده راروی داده های uci نشان می دهند. دلیل این بهبود، کارایی الگوریتم های جدید معرفی شده است و از سویی دیگر طبقه بند پیشنهادی تصمیم پایدارتر و ثابت تری در انتخاب کلاس نمونه ی آموزشی نسبت به نسخه ی استاندارد آن می گیرد. در یک آزمایش دیگر روش های پیشنهادی در تشخیص دو دسته بیماری روانی ( دو قطبی و اسکیزوفرنی) که در پزشکی تشخیص کمّی روی آن ها وجود ندارد به کار برده شده است.این مطالعه آماری روی این دو بیماری برای اولین بار ارائه شده است.
سمیرا خنشا محمدهادی صدرالدینی
امروزه کاربران وب با مسأله فزونی اطلاعات و سر درگمی به خاطر رشد سریع و تصاعدی حجم اطلاعات و تعداد کاربران، مواجه هستند. در نتیجه، چگونگی ارائه دقیق تر اطلاعات مورد نیاز کاربران وب به یک بحث مهم درکاربردهای مبتنی بر وب، تبدیل شده است. هدف ما در این رساله بهبود کارایی سیستم های شخصی سازی وب با به کارگیری تکنیک های وب کاوی می باشد. وب کاوی به پروسه کشف ارتباطات جالب میان داده های وب از طریق به کارگیری تکنیک-های داده کاوی گفته می شود، داده هایی که به شکل متن، لینک یا اطلاعات استفاده کاربران بیان شده است. به طور دقیق، ما با تغییر در پروسه پیش پردازش و ارائه روشی دقیق تر برای تشخیص ربات ها، الگوهای استفاده وب را با استفاده از کشف قوانین وابستگی وزن دار استخراج می کنیم و با ترکیب آنها با داده های محتوا و ساختار وب، محتوای شخصی شده ای را از طریق سفارشات به کاربران وب ارائه می دهیم. نتایج حاصل از آزمایشات بهبود دقت و پوشش سیستم شخصی سازی ارائه شده را نشان می دهد.
سید خدیجه سادات نژاد رضا بوستانی
بیماران پیش فعال و دو قطبی بویژه در بین کودکان علائم بالینی مشابه از خود بروز می دهند، از این رو برای روانپزشکان بسیار حائز اهمیت می باشد که با استفاده از یک معیار کمی این دو بیماری از یکدیگر تشخیص داده شوند. در این رساله یک طبقه بندی کننده قابل اعمال بر ویژگیهای مستخرج از سیگنالهای مغزی با هدف افزایش دقت بازشناسی بیماران پیش فعال و دوقطبی از یکدیگر ارائه گردیده است. داده های استخراج شده از دو گروه بیماران از همپوشانی بالایی برخوردارند. بعلاوه پخشش داده ها در فضای ویژگیها چند قطبی می باشد. نظر به این ویژگیهای داده ها و عمومیت و کارایی طبقه بندی کننده های خطی بر ویژگیهای حاصل از سیگنالهای مغزی، یک طبقه بندی کننده تکه ای خطی به منظور افزایش اجتناب از مشکل انطباق بر داده های یادگیری می تواند مفید واقع شود. در این راستا سیستم های طبقه بندی کننده توسعه یافته که به منظور تخمین توابع به کار می رود (xcsf) با به کاربردن عملگرهای ژنتیک تطبیقی تغییریافته است. یک نرخ جهش تطبیقی که متناسب با محتوای جنوتیپیکی افراد و کارایی آنها در هر نسل می باشد با هدف حفظ پراکندگی در بین طبقه بندی کننده های جمعیت و اجتناب از همگرایی زودرس ارائه گردید. در این بررسی 43 بیمار مشتمل بر 21 بیمار مبتلا به پیش فعالی و 22 بیمار دوقطبی مشارکت داشته اند. سیگنال مغزی بیماران از طریق 22 الکترود و در دو حالت چشم باز و چشم بسته ثبت گردید. چندین ویژگی حاوی اطلاعات از کانالهای سیگنالهای ثبت شده تولید می گردند. به منظور یک مقایسه منصفانه دیگر طبقه بندی کننده های متدوال روی سیگنالهای مغزی از قبیل lda، svm، bjdlda، nn1 و xcsf روی مجموعه داده مورد بررسی قرار گرفتند. نتایج تجربی برتری روش پیشنهادی در قیاس با طبقه بندی کننده های مقایسه شده را نشان می دهد که در آن وِیژگیهای سیگنالهای مغزی بیماران adhd و bmd با دقت 88% از یکدیگر جدا شدند. برای نشان دادن پایداری این روش نویز سفید با دامنه های متفاوت به سیگنال افزوده شد و میزان حساسیت روش ارائه شده با روشهای سنتی مقایسه شد و نتایج مقاوم بودن روش ارائه شده نسبت به غالب روشهای پیشین را نشان داد.
زهرا پرتو مهران یزدی
با توجه به گسترش تجارت الکترونیک در کشور ما ،تعداد زیادی شرکتها و تولید کنندگان تمایل دارند تا عملیات قراردادهای مرتبط با خرید و فروش را از طریق اینترنت انجام دهند. یکی از مباحث مورد توجه در دهکده جهانی ،حفظ امنیت اسناد تجارت الکترونیک حین انجام این عملیات از طریق اینترنت است به گونه ای که عدم نسخه برداری از این اسناد تایید شود و در ضمن هویت خریدار و فروشنده قابل تشخیص و ردیابی باشد. نهان نگاری دیجیتال به عنوان یک راه موثر برای محافظت از اسناد تجارت الکترونیک وحفظ امنیت این اسناد بر روی وب پیشنهاد شده است. در دهه های اخیر تبدیل موجک یک تاثیر مهم در بسیاری از زمینه ها به سبب ترکیب موفقیت های عملی با تئوری داشته است از جمله این زمینه ها می توانیم به نهان نگاری ، فشرده سازی و حذف نویز اشاره کنیم. با استفاده از تبدیل موجک گسسته می توان به نهان نگاری اطلاعات پایه در سند تجارت الکترونیک پرداخت و امنیت آن را تامین کرد.
مهدی بی غم مهران یزدی
با توجه به گسترش رقابت در بازار های جهانی یکی از دغدغه های شرکت ها حفظ جایگاه خود در اقتصاد جهانی و در یافت سهمی مناسب از سود این تجارت می باشد .برنامه ریزی و پیش بینی طرح های آینده بسیار در این امر سهیم می باشد .خوشه بندی یکی از مقوله هایی می باشد که مراکز تجاری را در این امر یاری می رساند .در این تحقیق بر آن شدیم که با استفاده از کلونی حشرات و به خصوص کلونی زنبور عسل و مورچگان ،نوعی خوشه بندی را پیشنهاد دهیم که مناسب و کاربردی برای محیط های تجاری فعال یا پویا و متغیر باشد .در این راه با تلفیق کلونی زنبور عسل و مورچگان با شیوه های برخورد با محیط های پویا، سعی نموده که داده های پویا را خوشه بندی کنیم و در هر لحظه این خوشه بندی به روز رسانی شود و تغییرات محیطی در خوشه بندی اعمال شود .نتایج اعمال روش مذکور روی دو دسته الگوریتم خوشه بندی یعنی زنبوران عسل و مورچگان ،مناسب بودن روش مذکور برای برخورد با محیط های پویا را نشان می دهد. کلمات کلیدی : داده کاوی ،خوشه بندی ،کلونی زنبور عسل ،کلونی مورچگان ،محیط پویا
مینا بهروان رضا بوستانی
مبحث "بافت" در سال های اخیر برای کاربردهای عملی حوزه بینایی ماشین مورد توجه بسیاری قرار گرفته است. یکی از مهم ترین زمینه های تحقیقاتی این حوزه طراحی سیستم های ارزیابی بصری اتوماتیک محصولاتی است که دارای سطح بافتی یکنواخت هستند. از جمله این محصولات، تولیدات صنایع نساجی است. تاکنون بدین منظور روش های مختلفی با تکیه بر ویژگی های گوناگون استخراج شده از نواحی معیوب ارائه شده است که به علل متعدد از دقت رضایت بخشی برخوردار نبوده اند. در این پژوهش یک طبقه بندی کننده جدید مبتنی بر تکستون ها به منظور آشکارسازی و تشخیص انواع مختلف عیوب بافتی پارچه های طرح دار و بدون طرح ارائه شده است که می کوشد ویژگی های سودمندی را از ساختارهای میکروسکوپی بافت با استفاده از مجموعه ای از فیلترها حاصل کند. در اولین روش ارائه شده، در ابتدا نواحی معیوب تصویر با استفاده از عملگر الگوهای باینری محلی بهبود یافته شناسایی شده و سپس توسط الگوریتم جدید، نوع عیب آنها تشخیص داده می شود. در دومین روش، عمل مکان یابی و تشخیص نوع آنها به صورت همزمان با استفاده از الگوریتم پیشنهادی انجام خواهد شد. در آزمایش انجام شده، این روش توانسته است تمام نواحی معیوب را به صورت کامل از یکدیگر تشخیص دهد. دو معیار حساسیت و صحت که به ترتیب 9412/0 و 9702/0 محاسبه شده است دقت بالای روش را نشان می دهد.
عباس خسروانی ستار هاشمی
کاوش در جریان داده فرایندی است که منجر به استخراج دانش از جریانی سریع از داده های پیوسته می شود. در سالهای اخیر، به دلیل اهمیت کاربردهای آن و پیشرفت در تکنولوژی سخت افزاری بسیار مورد توجه قرار گرفته شده است. در بسیاری از زمینه های کاربردی مانند شبکه های کامپیوتری، بازارهای مالی و مبادلات ارزی، مکالمات تلفنی، کارت های اعتباری، مراکز داده و سرورها، تصاویر ویدئویی، شبکه حسگرها، رادارها، ماهواره ها و ...، حجم جریان های داده به قدری زیاد است که ذخیره آن تقریبا غیر ممکن است. بعلاوه، حتی اگر ذخیره داده ها ممکن باشد، نرخ داده های ورودی بقدری زیاد است که انجام عملیات بیش از یک بار بر روی هر داده امکان پذیر نمی باشد. از طرفی در بسیاری از موارد توزیع داده ها متأثر از عوامل بیرونی، پیوسته با زمان تغییر میکند. در نتیجه طراحی الگوریتم های برخط و کارا به منظور کاوش در ساختار متغیر جریان های داده ضرورت می یابد. روش های غیر خطی بر پایه آنالیز مولفه های اصلی کرنلی (kpca) در داده کاوی به منظور استخراج ساختار های غیر خطی از داده ها بسیار مورد استفاده قرار گرفته شده و کارایی بالایی نسبت به روش های خطی از خود نشان داده اند. اما پیاده سازی این روش ها که بر پایه تجزیه مقدار تکین کرنلی (ksvd) دسته ای ماتریس داده ها است، مناسب کاربرد هایی که نیازمند پردازش برخط می باشند، نمی باشد. در این پایان نامه ما sksvd را که یک الگوریتم جدید به روز رسانی ksvd می باشد را به منظور یافتن کارای الگوهای غیر خطی از داده های جریانی ارائه کرده ایم. الگوریتم ارائه شده به کمک ایده توابع کرنل ، یک انتقال متعامد خطی را از داده های اخیر در فضایی با ابعاد بسیار بالاتر ( شاید بی نهایت) که به آن فضای ویژگی یا فضای کرنل می گویند، یاد می گیرد و هرگاه داده ی جدیدی تولید شود این الگوریتم آن را به صورت غیر خطی به آن فضا نگاشت کرده و بعد از استخراج الگوهای آن، انتقال متعامد را به صورت افزایشی و با کمترین میزان مصرف منابع به روز می کند. از آنجا که فضای اولیه و فضای ویژگی به صورت غیر خطی به هم وابسته هستند، الگوهای بدست آمده غیر خطی خواهند بود. الگوهای بدست آمده را سپس می توان به منظور کشف تغییر در مفهوم و توزیع داده ها و یا شناسایی ناهنجاری مورد استفاده قرار داد. نتایج حاصل از آزمایش هایی گوناگون بر روی داده های واقعی و ساختگی تاثیر گذاری و کارایی روش ما را نشان میدهد.
محمد حمید درودچی فریبرز سبحان منش
بازشناسی گوینده به تشخیص افراد مختلف از طریق صدای آن ها گفته می شود. سامانه هایی بازشناسی گوینده طی سه مرحله استخراج ویژگی، محاسبه امتیاز مدل و تصمیم گیری بر اساس امتیاز حاصل، گوینده های متفاوت را از یکدیگر جدا می کنند. مهمترین چالش چنین سامانه هایی تغییر شرایط ضبط گوینده می باشد که به مسأله متغیر بودن کانال مشهور است. روش های متفاوتی برای غلبه بر مشکل تغییر کانال در هر سه مرحله ارائه شده است. اخیرا استفاده از ماشین بردار پشتیبان در قسمت مدل سامانه های بازشناسی گوینده موجب افزایش کارایی آنها نسبت به مدل مرکب گاوسی گردیده است. در این پایان نامه از پارامترهای یک نگاشت خطی که احتمال قطعه گفتار گوینده را در یک مدل کلی و عمومی افزایش می دهد، استفاده می گردد. این پارامترها با معیار حداکثر احتمال پسین (map) و الگوریتم بیشینه سازی امید (em) مورد تخمین واقع می شوند. سپس پارامترهای این نگاشت به عنوان نمایشی از کل قاب های(frame) استخراج شده از قطعه گفتار گوینده در نظر گرفته می شوند و می توانند به عنوان ویژگی های جداساز ملاحظه شوند. سپس svm از بردارهای حاصله از این ویژگیهای مفید به منظور بازشناسی گوینده استفاده می کند. آنالیز و نتایج حاصل از بکار بردن مدل پیشنهادی بر روی مجموعه داده farsdat بیانگر تاثیر سازنده ویژگی های استخراج شده است.
حمید اقبال زاده فریبرز سبحان منش
یکی از موثرترین راه های افزایش دقت سیستم های بازشناسی گفتار کلمات مجزا، به کارگیری اطلاعات آوایی (به صورت آماری ) می باشد. بازشناسی گفتار در سامانه های تلفنی در حالت کلی به دلیل دامنه فرکانسی پایین تر، نویز بیشتر و افزایش پیچیدگی و انواع نویز های موجود، پیچیدگی و چالش های بیشتری دارد . برای کاربردهای بازشناسی گفتار روش های مختلفی بر اساس مدل های آوایی متنوع پیشنهاد شده اند که هر یک سعی می کنند بخشی از سطوح اطلاعات آوایی را پوشش دهند . هرچند مدل های آوایی تا حدود زیادی قادرند ساختارهای موجود در آوا را مدل سازی کنند ولی هرکدام از آن ها فقط پدیده های خاصی را پوشش می دهند . هیچ کدام از این مدل های آوایی به تنه ایی قادر نیستند همه پدیده های آوایی را به طور هم زمان در چارچوب یک مدل احتمالاتی بگنجانند . یکی از مهمترین فاکتورهای یک مدل آوایی، دادگان آموزشی آن می باشد که بر اساس دامنه، مدل آوایی، بوسیله آنها آموزش می بیند . در این پژوهش برآنیم تا ترکیبی از مدل های آوای ی مختلفی را با روش های مطرح که کاربرد فراوانی در بازشناسی گفتار دارد، آموزش داده و بر اساس تفاوت در دادگان آموزشی، به عنوان یک فاکتور مهم مورد تحقیق قرار دهیم . هدف از این کار، قرار دادن اطلاعات و پیچیدگی های خطوط انتقالی مخابراتی و نویز های مربوطه در داخل مدل و یاد دادن این پیچیدگی ها به مدل آوایی، و سپس بررسی افزایش دقت مورد نظر می باشد . بدین ترتیب که بر فرض صحیح بودن روش بازشناسی در این دامنه و ثابت ماندن آن، تغییرات دادگان آموزشی چه تغییری می تواند ایجاد کند. در ادامه، به ارائه ایده ای خواهیم پرداخت که ا ز طریق آن، از روی تشخیص روشن -خاموش بودن حالت مدل بهینه مربوط به آنرا بارگزاری می نمائیم.
امین فصحتی فرشاد خون جوش
امروزه از کارت های گرافیک (gpus) همچون پردازنده های چند هسته ای، پردازش گرهای سیگنال دیجیتال (dsps) و آرایه های دروازه ای برنامه پذیر درمحل (fpgas) برای تسریع کارایی برنامه های کاربردی پردازش سیگنال استفاده می شود. یکی از برنامه های کاربردی موجود در این زمینه، جداسازی سیگنال های منابع متفاوت از بین مجموعه ای از سیگنال های دریافت شده می باشد. دراین تحقیق رویکرد آنالیز اجزای مستقل و به طور خاص الگوریتم jade به عنوان هسته اصلی این نوع برنامه های کاربردی مورد توجه قرار گرفته است. ویرایشی موازی از این الگوریتم بر روی کارت گرافیک پیاده سازی شده است. برای ارزیابی پیاده سازی موازی خود از چهار نوع داده تست واقعی که شامل سیگنال های نوار قلب و مغز می باشند، استفاده کردیم که در بهترین حالت تسریعی برابر با 33.71 برای 23 کانال ورودی به دست آمده است. همچنین با استفاده از قانون امدال، کران بالای تسریع الگوریتم را که با 38.76 برابر است، محاسبه کردیم. در انتها برای اطمینان از دقت و کارایی پیاده سازی، با روش مونت کارلو پیاده سازی ارائه شده آزمایش گردیده است. نتایج بدست آمده حاکی از دقت و سرعت قابل قبولی برای این پیاده سازی می باشد.
رضا آموزگاران ستار هاشمی
بطور معمول، یک شبکه حسگر بیسیم برای مانیتورینگ خط لوله آب، نفت، و گاز بکار می رود. هنگامی که یک گره حسگر شرایطی مانند فشار، دما، و نشتی در نقطه ای از خطوط لوله را اندازه گیری کند، باید این داده را به صورت تعدادی بسته به ایستگاه مرکزی بفرستد. بسته هایی که از گره ها به یک ایستگاه فرستاده می شوند، می توانند در بین راه درنتیجه خرابی های خط لوله و یا رخدادهای طبیعی از بین بروند. رساندن درست این بسته ها از مکان اندازه گیری به ایستگاه در یک سیستم مانیتورینگ خط لوله بسیار مهم است. ما در این پژوهش یک پروتکل برای گردآوری داده در شبکه حسگر خط لوله به نام psnc پیشنهاد می دهیم. این پروتکل تلاش می کند که با افزایش redundancy در شبکه، قابلیت اطمینان (احتمال گم نشدن بسته ها) را افزایش دهد. برای افزایش redundancy چند کپی از بسته را از مسیرهای گوناگون به سمت ایستگاه می-فرستیم. کپی گرفتن از بسته را به کمک تکنیک network coding انجام می دهیم که توانایی کاهش تعداد کپی های موردنیاز را دارد. پروتکل psnc تلاش می کند که سربار ترافیک و انرژی مصرفی در شبکه بیش از اندازه بالا نرود. نتیجه شبیه-سازی های ما در یک شبکه که درصدی از خطای بیتی در آن وجود دارد، نشان می دهد که پروتکل psnc در مقایسه با حالتی که این پروتکل در شبکه بکار نرود، قابلیت اطمینان را بخوبی افزایش می دهد درحالیکه انرژی مصرفی آن پذیرفتنی است. برای آنکه پروتکل پیشنهادی در برابر دستکاری بسته ها نیز پایدارتر شود، با تغییر کوچکی در پروتکل psnc، یک پروتکل به نام spsnc طراحی می کنیم. روتکل spsnc روند کدگذاری بسته ها را به عنوان رمز کردن آنها بکار می برد. سربار ترافیک و انرژی مصرفی پروتکل spsnc همانند پروتکل psnc است.
آزاده جمشیدی رضا بوستانی
خدمات فوریت های پزشکی از جمله خدمات پر مخاطره و بسیار سخت می باشد، چرا که خطای در تصمیم گیری برای تعیین روش درمانی بیماران اورژانسی تبعات جبران ناپذیری در پی خواهد داشت. همچنین تصمیمات اتخاذ شده در فضایی پرتنش و بر مبنای عدم قطعیت صورت می پذیرد. اخیراً متخصصان اورژانس متوجه شده اند که فرایند تصمیم گیری عنوان شده با در نظر گرفتن وضعیت عدم وجود اطلاعات دقیق، از دقت مطلوبی برخوردار نمی باشد. از این رو در این پایان نامه، یک مدل کمک تصمیم گیرنده ارائه شده تا حتی در شرایط عدم قطعیت و اطلاعات ناقص، بتوان با دقت بالایی روش درمانی مطلوب را تعیین نمود. از این رو با بکارگیری روش فازی و مقایسه آن با معروف ترین الگوریتم های یادگیری ماشین این امر محقق شده است. مجموعه داده استفاده شده در این جا، با همکاری مرکز مدیریت و فوریت های پزشکی استان فارس جمع آوری گردیده و شامل 227 مورد مربوط به گروه بیماران اورژانسی قلبی است. از تعداد 51 ویژگی استخراج شده، تعداد 47 عدد، بولین، تعداد 4 مورد، حقیقی که برای 16 روش درمانی بیماران اورژانسی قلبی تعیین شده است. در روش فازی استفاده شده، با ارائه راه حلی، امکان بکارگیری آن برای انواع داده های اسمی و بولین فراهم گردید. نتایج به دست آمده و ارزیابی صورت گرفته، نشان می دهد که راه حل ارائه شده از کارایی بالایی برخوردار می باشد.
راضیه زارعی محمود ابادی رضا بوستانی
تمرکز این تحقیق بر روی یکی از قابلیت های اساسی مدیریت تغییرات یعنی پشتیبانی مدیریت تغییرات می باشد. برای اجرای درخواست یک تغییر ابتدا باید تمام آیتم های مرتبط با تغییر ردیابی شود، و سپس مدیریت تغییرات به نحوه ی اعمال تغییرات، کاهش هزینه ها و سهولت ردیابی تغییرات کمک کند.
داود فتاحی رضا بوستانی
سیستم های واسط مغزی-کامپیوتری سیستم هایی هستند که می توانند سیگنال های الکتریکی مرتبط با تصورات مغز انسان را به صورت دستورات کامپیوتری ترجمه کنند. در صورتی که این تصورات مربوط به حرکت اندام های بدن باشد این قابلیت می تواند در حل مشکل بسیاری از بیماران حسی-حرکتی همچون مبتلایان به als مفید واقع شود. بسیاری از روش های بکار گرفته شده در این سیستم ها همچون csp و مشتقات آن با بدست آوردن فیلترهای مکانی- فرکانسی تحت شرایطی خاص، سیگنال منابع را تخمین زده و انرژی آن را به عنوان یک ویژگی جدا کننده در نظر می گیرند. امّا بیشتر این گونه روش ها از مشکلاتی همچون عدم هماهنگی با طبقه بندی کننده، عدم هماهنگی در تخمین فیلترها و هزینه محاسباتی بالا رنج می برند. از طرفی در هیچ یک از آن ها از مختصات سه بعدی مکان منابع برای استخراج ویژگی استفاده نشده است. این در حالی است که بر طبق یافته های آناتومی و فیزیولوژی می دانیم که مکان تصورات مختلف در مغز متفاوت است. در این تحقیق ابتدا روش های تخمین سیگنال منابع مورد بررسی قرار گرفته و سعی شده روشی کارا برای یافتن فیلترهای مکانی-فرکانسی ارائه گردد، به طوری که نقاط ضعف روش های پیشین را برطرف کند. الگوریتم پیشنهاد شده و چند الگوریتم مشابه بر روی دو مجموعه داده معروف bci پیاده سازی شده است و نتایج آن افزایش دقت طبقه بندی و کاهش نسبی زمان پردازش را در مقایسه با روش های مشابه نشان می دهد. در مرحله دوم این پایان نامه، الگوریتم دیگری برای یافتن توزیع گسترده مکانی منابع تصورات مغزی پیشنهاد گردیده که از فیلترهای مکانی- فرکانسی بدست آمده در قسمت قبل استفاده می کند. در نهایت سعی گردیده است تا از نتایج این مکان یابی منابع در طبقه بندی تصورات مغزی استفاده شود. نتایج شبیه سازی روش پیشنهاد شده، گویای موفقیت آن در یافتن توزیع مکانی قابل توجیه برای تصورات مغزی و هم چنین توانایی طبقه بندی آن ها بر اساس مکان منابع می باشد.
علی عادلی زهره عظیمی فر
یکی از مسائل مهم در بینایی ماشین، ردیابی اهداف در تصویر می باشد. تخمین وضعیت تعدادی نامعلوم از اهداف به منظور ردیابی اهداف چندگانه، بر مبنای مشاهدات دریافت شده در طول زمان انجام می شود. در بین مشاهدات دریافت شده، مشاهدات کاذب نیز وجود دارند. به منظور ردیابی اهداف در تصویر، معمولا از روش تخصیص مشاهدات به اهداف متناظر آنها به همراه یک فیلتر ردیاب اهداف استفاده می شود. از فیلتر کالمن به منظور ردیابی یک تک هدف در تصویر استفاده می شود. این در حالی است که ردیابی زمانی پیچیده می گردد که تعداد اهداف تصویری افزایش یافته و مشکلاتی مانند تصادم و ترسیم درست خط سیر اهداف به وجود می آیند. فیلتر های بسیاری به منظور ردیابی چندین هدف ارائه شده اند که هر کدام مشکلاتی مانند حفظ درست خط سیر اهداف، از دست رفتن خط سیر اهداف بعد از تصادم، پیچیدگی بالا، محدودیت در تعداد اهداف و غیره را شامل می شوند. یکی از جدیدترین روش های ارائه شده، استفاده از فیلتر probability hypothesis density (phd) می باشد که با داشتن پیچیدگی محاسباتی کمتر، توانایی بالایی در تخمین موقعیت اهداف و ردیابی همزمان آنها در شرایط نویزی دارد. یکی از مشکلات این فیلتر در زمان وجود ابهام و تصادم است. از دیگر مشکلات این فیلتر می توان به عدم تخصیص مشاهدات به اهداف در مرحله تخمین اشاره نمود. لذا در این روش، خط سیر اهداف تعیین نمی شود که این ضعف باعث می گردد که بعد از مرحله تخمین نیاز به استفاده از یک روش تخصیص تخمین به هدف درنظر گرفته شود. به منظور بهبود پیچیدگی محاسباتی این فیلتر، روش gaussian mixture phd (gm-phd) ارائه شد اما هنوز مشکل تخصیص مشاهدات به اهداف موجود بود. به همین منظور، یک روش تخصیص به نام gm-phd tracker پیشنهاد گردید که برای هر یک از اهداف، یک برچسب واحد تعیین می شود. کارایی این فیلتر در زمان تصادم به شدت کاهش می یابد. به بیان دیگر، اولین مشکل این فیلتر، معیار تشخیص تصادم آن است که این معیار زمانی تصادم را تشخیص می دهد که دو هدف کاملاً روی هم قرار گرفته باشند که در این صورت احتمال از دست رفتن مشاهدات هدف پشت سری افزایش یافته و در بسیاری از حالات تصادم تشخیص داده نمی شود و در این صورت خط سیر اهداف بعد از تصادم از بین می رود. علاوه بر این، تکنیک ارائه شده در این فیلتر به منظور تعیین برچسب اهداف در زمان تصادم عملکرد ضعیفی را نشان می دهد. در این پایان نامه معیار تشخیص تصادم بدین صورت بهبود یافته است که در هر زمان احتمال تصادم محاسبه می شود و به نسبت احتمال تصادم وزن هدف پشت سری افزایش می یابد که در این صورت مشاهده هدف پشت سری حفظ می شود. به منظور بهبود معیار تعیین برچسب در زمان تصادم، روش پیشنهادی بر مبنای استفاده از تاریخچه برچسب اهداف در گذشته ارائه شده است. علاوه بر این تکینیکی ارائه شده است که برچسب اهداف در زمان تصادم بر مبنای سرعت اهداف تعیین شود. نتایج آزمایشگاهی بر روی تعدادی داده تست واقعی و شبیه سازی نشان می دهد که روش پیشنهادی عملکرد بهتری نسبت به فیلترgm-phd tracker دارد و این روش قابل استفاده در کاربردهای نظارتی مانند کنترل عابرین پیاده، می باشد.
عادله دهقانی ناژوانی رضا بوستانی
بیماران دوقطبی (bmd) و پیش فعالی (adhd) دارای علائم بالینی مشابه به ویژه در سنین کودکی می باشند به همین سبب تشخیص دقیق این دو بیماری هنوز به صورت یک چالش در بین روانپزشکان باقی است، از این رو دست یابی به یک معیار کمی برای جداسازی این بیماری ها برای روانپزشکان حائز اهمیت می باشد. در این رساله ابتدا سعی بر استخراج پتانسیل برانگیخته از سیگنال های مغزی بیماران توسط روش wavelet denoising وsynchronous averaging شده است و سپس به استخراج ویژگی های متفاوت از این سیگنال ها به عنوان معیارهای جداکننده به منظورافزایش دقت بازشناسی بیماری های دوقطبی و پیش فعالی پرداخته ایم. در این بررسی 43 بیمار مشتمل بر 21 بیمار مبتلا به پیش فعالی و 22 بیمار دو قطبی مشارکت داشته اند. سیگنال های مغزی بیماران از طریق 22 الکترود و به روش استاندارد 20-10 ثبت گردید که در حین ثبت این سیگنال ها بیماران محرک بینایی به صورت فلش را در هر یک ثانیه از طریق دستگاه لیزر دریافت کردند. نتایج تجربی به دست آمده از اعمال طبقه کننده knn بر روی ویژگی های مستخرج نشان می دهد که دو ویژگی دامنه (amplitude) و تاخیر(latency) محرک های بینایی در سیگنال های پتانسیل برانگیخته بیماران دو قطبی و پیش فعالی قادر به جداسازی این بیماران با دقت 97% از یکدیگر می باشد. لازم به ذکر است که سایر ویژگی های مستخرج نیز دقت نسبتا خوبی را در این جداسازی نشان می دهند. هم چنین با توجه به نتایج به دست آمده می توان گفت که بیماران adhd و bmd تفاوت های قابل توجهی در پاسخ سیستم بینایی خود نسبت به محرک بینایی از خود نشان می دهند.
صدیقه راستی رضا جاویدان
با پیشرفت تکنولوژی یک تکامل منطقی در محیط تراکنش های مالی اتفاق افتاد. در ابتدا پرداخت ها بصورت رو در رو نقدا، توسط چک و یا کارتهای اعتباری انجام می شد. با گسترش شبکه های داده و اینترنت تراکنش های از راه دور، گسترش و محبوبیت بیشتری یافتند. با رشد و نفوذ تلفن همراه و توسعه تجارت سیار، پرداخت سیار یک نیاز اجتناب ناپذیر برای پرداخت هزینه کالاها خواهد بود. این امر مستلزم پیاده سازی پروتکل های بی سیمی است که بتواند مکانیزم های پرداخت از راه دور را به خوبی روش های رو در رو با استفاده از یک دستگاه واحد مدیریت نماید. در این پایان نامه با بیان روش های پرداخت سیار، معیارهایی از جمله: قابلیت اطمینان، سرعت، سهولت در استفاده، قابلیت پذیرش، دردسترس بودن و... را به عنوان عوامل تاثیر گذار در ارزیابی معرفی شده و سپس ضمن ارزیابی، روش nfc را بعنوان برترین روش در پرداخت خرد معرفی می شود. در ادامه با بکار گیری روش هایی سعی شده است تا فناوری nfc را امن تر نموده و آن را برای پرداخت های آنلاین یا بلادرنگ و همچنین پرداخت های کلان بهینه کند. سپس به شبیه سازی روش پیشنهادی پرداخته شده است و این نتیجه حاصل شد که این روش جز در یک حالت فروشنده واقعی ـ مشتری واقعی عمل پرداخت را ناموفق اعلام می کند. در نهایت به امکان سنجی پیاده سازی روش پیشنهادی پرداخته شده است.
فهیمه اسدی دزکی رضا بوستانی
به علت این که تست های روانشناسی اکثرا کیفی بوده و کمی نیستند، تشخیص ها خیلی دقیق نیست. به همین دلیل نویسندگان مقاله یک دیتابیس را در یک کلینیک تخصصی وسواس، طی مدت شش ماه تهیه نمودند که شامل نتایج تست روانشناسی بندرگشتالت از بیماران وسواس و افراد سالم می باشد. در این دیتابیس ویژگی های فشار، سرعت، زمان، اختلاف زاویه ای و زاویه قلم با صفحه، مربوط به اشکال، بصورت آنلاین ثبت شده اند. برای استفاده درست از این ویژگیها ی پویا، از مدلهای پویا و یک مدل آماری قوی استفاده کرده ایم. در این مقاله با استفاده از ترکیب تکنیک های مدل مخفی مارکوف و فازی به کمی سازی این تست روانشناسی جهت تشخیص بیماران مبتلا به وسواس از افراد سالم پرداخته شده است. این طبقه بندی کننده با توجه به عدم قطعیت موجود در این تصمیم گیری، انتخاب شده و با استفاده از مدل های استاتیک و دینامیک مانند شبکه عصبی تست شده و به دقت بالای 90% دست یافته است. در ابتدا طبقه بندی کننده hmm برای داده ها استفاده شده که به طور متوسط به دقت 94.5% دست یافته و سپس با استفاده از طبقه بندی کننده fuzzy hmm (fhmm) دقت به طور متوسط 95.2%است.
فهیمه گودرزی بهروز مینایی
چکیده به کارگیری تجزیه ماتریس در کاهش ابعاد داده نوع گراف: مورد کاوی داده ریز آرایه به کوشش: فهیمه گودرزی یکی از شاخه های مهم بیو انفوماتیک فناوری ریز آرایه dna است که امکان بررسی عبارت هزاران ژن را به طور هم زمان و در حداقل زمان ممکن می سازد که در سال های اخیر موجب تولید حجم انبوهی از داده های عبارت ژن شده است. تحلیل آماری این داده ها شامل نرمال سازی، خوشه بندی، طبقه بندی و ... غیره از جمله روش های مورد استفاده در تحلیل این نوع داده ها است. اما تکنیک های داده کاوی و یادگیری ماشین برای داده با ابعاد بالا موثر نمی باشند و دقت پرس و جو و بهره وری آن ها با افزایش ابعاد داده به سرعت تنزل می یابد. از اینرو در دهه اخیر با ظهور فناوری ریز آرایه، مرکز توجه جدیدی به مسائلی چون بازنمایی داده و کاهش ابعاد داده عبارت ژن معطوف گشته است و پژوهش های بسیاری بر روی بررسی تاثیر استفاده از تکنیک های کاهش ابعاد بر روی مدل های کاوش نظارت شده و یا بدون نظارت داده ریز آرایه انجام شده است. در این رساله روش کاهش ابعاد مبتنی بر تجزیه ماتریس غیر منفی ارایه می شود و عملکرد آن بر روی تجزیه و تحلیل خوشه بندی دو مجموعه داده leukemia و 9-tumors که کلاس نمونه ها در آن شناخته شده است، مورد بررسی قرار می گیرد. از نرم افزار matlab برای تحلیل داده ها استفاده می شود. با توجه به انطباق قابل توجه نتایج خوشه بندی با گروه بندی واقعی داده ها، که بر اساس عامل های کاهش یافته انجام می شود، می توان از این روش در خوشه بندی مواردی که اطلاع دقیقی از گروه بندی واقعی داده ها در دست نیست، استفاده کرد. کلمات کلیدی: بیو انفورماتیک، تجزیه ماتریس، کاهش ابعاد، ریز آرایه dna، داده عبارت ژن، خوشه بندی
مینا رضایی فرشاد تاجری پور
بیماری های قلبی عروقی از مهم ترین علل شایع مرگ و میر در جوامع صنعتی و رو به رشد می باشند. تصاویر پزشکی از مهم ترین ابزارهای در اختیار پزشک برای تشخیص بیماری و کنترل روند درمان هستند. با توسعه تصاویر ct,mri قلب این روش های تصویرگری به عنوان استاندارد طلایی برای مطالعات قلب و عروق مورد استفاده قرار می گیرند .در سال های اخیر توجه زیادی به این روش تصویرگری و روش های پردازش تصاویر شده است و روش های تصویرگری و پردازش تصاویر قلبی توسعه های زیادی پیدا کرده اند. مطالعات بالینی نشان می دهد که تحلیل هم زمان اطلاعات بطن راست و بطن چپ می تواند اطلاعات مفیدی در مورد کارکرد قلب در اختیار قرار دهد و چه در تشخیص زودهنگام بیماری و چه در روند درمان مفید واقع شود. در این پایان نامه، ابتدا ضرورت و اهداف تحقیق در مقدمه آورده شده است، روش های بخش بندی بطن راست و بطن چپ و پردازش تصاویر قلبی موجود در بخش 2 مرور شده اند. در ادامه روشی برای بخش بندی بطن راست و بطن چپ از تصاویر mri به دو صورت اتوماتیک و نیمه اتوماتیک پیشنهاد شده است. ما با تغییرفرمول بخش بندی پیمایش تصادفی به منظور افزودن دانش قبلی در فرم بخش بندی و تطبیق با استفاده از یک مدل استاندارد از تصویر بخش بندی شده توسط فرد خبره، الگوریتم پیمایش تصادفی را بهبود داده ایم. با استفاده از الگوریتم جنگل تصادفی توانستیم روش را بصورت اتوماتیک پیاده سازی کنیم. برای صحت مدل ارائه شده، متد را بر روی تعداد زیاد و متفاوت تصویرmri اعمال کردیم و نتایج قابل قبولی را از لحاظ کلینیکی و تکنیکی مشاهده نمودیم که در بخش 4 خصوصیات داده ها و نتایج آورده شده است.
نوشین محمودی زهرا افشاری
هدف این پژوهش بررسی میزان موفقیت یک مدل رشد نئوکلاسیک در توضیح چرخه های تجاری ایران است بدین منظور ابتدا با استفاده از داده های تحقق یافته فصلی تولید، مصرف، سرمایه گذاری و هزینه های دولت(1389:4-1367:1) شاخص های چرخه های تجاری ایران بدست آمده است، سپس با نتایج شبیه سازی شده مقایسه شد و نشان داد که مدل توانی بالایی در بازتولید سری های زمانی اقتصاد ایران را دارد. در این مدل نشان داده شده که 89/99 در صد از تغییرات تولید به دلیل شوک تکنولوژی و 02/0 درصد به دلیل شوک مخارج دولت بوجود آمده است. واژگان کلیدی: مدل رشد نئوکلاسیک، ادوار تجاری، شوک تکنولوژی، شوک مخارج دولت. jel: e13, e32, e17
حمید صالحی رضا بوستانی
گرید محاسباتی یک زیربنای سخت افزاری و نرم افزاری می باشد که دسترسی قابل اعتماد، پایدار، فراگیر و ارزان را به توانایی های محاسباتی دیگران فراهم می کند. فاصله های جغرافیایی زیاد منابع توزیع شده، معماری ها و سیستم عاملهای متفاوت ماشینهای مختلف، تفاوتها در روشهای دستیابی به هر یک از منابع، متغیر بودن محیط به لحاظ منابع در دسترس و در نهایت وجود سیاستهای مختلف در دسترسی به منابع، همگی جز مسائل پیچیده ای هستند که در یک محیط گرید وجود دارد. کاملا واضح است مدیریت موثر منابع، امری حیاتی در سیستم های گرید محسوب می شود. از آنجا که زمانبندی وظایف جزو مسائل بسیار سخت بحساب می آید بنابراین الگوریتمهای قطعی کارایی لازم را برای حل این مسئله نخواهند داشت. به همین خاطر تحقیقات زیادی بر روی الگوریتمهای اکتشافی صورت گرفته است که از جمله این الگوریتمها، الگوریتم ژنتیک میباشد. ولی از آنجایی که این الگوریتم، ذاتا الگوریتمی است که فضای مسئله را بصورت سراسری جستجو میکند و در جستجوی محلی کارایی چندان خوبی ندارد می توان با ترکیب آن با الگوریتم های جستجوی محلی، این نقطه ضعف را بهبود بخشید. در این پایان نامه، برای بهبود عمل زمانبندی از ترکیب الگوریتم ژنتیک(ga) و الگوریتم محلی جاذبه گرانشی(gels) برای حل مسئله زمانبندی استفاده شده است، و برای ارزیابی روش ارائه شده از شبیه سازی استفاده شده است و نتایج این شبیه سازی نشان می دهد که این الگوریتم کارایی بهتری نسبت به روش های دیگر دارد.
سارا عمرانیان رضا بوستانی
مغز انسان همواره یکی از عجیب ترین، پیچیده ترین و در عین حال جذاب ترین موضوعات از زمان های گذشته تا به حال برای بشر بوده است. توانایی به تصویر کشیدن فعالیت های مغزی انسان، بهترین وسیله کمکی برای تشخیص بیماری ها توسط پزشکان و محققان می باشد. روش های متعددی بدین منظور طراحی شده اند. برای مثال می توان به چند نمونه اشاره کرد:fmri، pet و spe . مرتبه زمانی تمام این روش ها در حد ده ها ثانیه می باشد. اما meg و eeg ما را قادر می سازند تا فعالیت های مغزی را با مرتبه زمانی در حدود چند میلی ثانیه به تصویر بکشیم. به همین دلیل ما به بررسی بیشتر سیگنال های meg و eeg می پردازیم و پس از مقایسه این دو سیگنال به دلیل بهتر بودن سیگنال meg، هدف اصلی این تحقیق را که مدل سازی هوشمند سیگنال meg می باشد را دنبال می کینم. لازم به ذکر است که در این پایان نامه ما از سیگنال های واقعی ثبت شده از افراد مختلف برای مقایسه با سیگنال شبیه سازی شده برای نشان دادن درستی روش پیشنهادی استفاده کرده ایم و نشان دادیم که این روش به جواب قابل قبولی می رسد.
فهیمه گرمسیریان ششده زهره عظیمی فر
تشخیص مرز صحیح اشیاء یکی از پیچیدهترین مسایل مرتبط با پردازش تصویر محسوب میگردد. در این میان قطعهبندی تصاویر پزشکی با پیشرفت روزافزون علم پزشکی، به دلیل افزایش قدرت تشخیص خودکار بیماریها و ... از اهمیت ویژهای برخوردار میباشد. تاکنون روشهای قطعهبندی مختلفی شامل انواع روشهای ساختاری ،آماری و ترکیبی برای قطعهبندی تصاویر معرفی شدهاند. از جمله استفاده از مدلهای قابل تغییر شکل جهت تشخیص مرز صحیح اشیاء یک موضوع در حال پیشرفت محسوب میگردد. در این رساله روشی بر مبنای یکی از قویترین روشهای جدید مدلهای قابل تغییر شکل برای قطعهبندی به نام کانتور فعال منفصل ارایه گردیده است که توانسته است در شرایط یکسان به نتایج با صحت بالاتر دست پیدا کند. در روش پیشنهادی، در ابتدا با استفاده از تشخیصدهندهی لبهی کانی، کانتور اولیه به طور اتوماتیک انتخاب میگردد. سپس مرز زیر_بهینه با استفاده از مدل مخفی مارکوف و یک جستجوی ویتربی استخراج میشود. در مرحلهی بعد با توجه به انحنای بخشهای مختلف مرز استخراج شده، نمونهبرداری بر اساس انحنا انجام شده و تزریق نقاط اضافه صورت میگیرد. گام بعدی شامل ادغام دادهی آماری با ترکیب دانش پیشین غیر ایستا و گرادیان تصویر میباشد. این روند تا رسیدن به مرز مطلوب در یک اسلایس ادامه مییابد. سپس، قطعهبندی به اسلایسهای مجاور توسعه یافته و در نهایت مرز مورد نظر سه بعدی استخراج میگردد.
طاهره نظام رضا بوستانی
درد به عنوان پدیده ای زیستی، روانی، اجتماعی با بسیاری از ابعاد روان شناختی، زمینه های فرهنگی، نژادی و وضعیت اقتصادی انسان، روابط پیچیده و چندگانه ای دارد[1] و ارائه راهبردهایی برای کاهش یا حذف آن، همواره تقاضای اغلب بیماران و خواسته بسیاری از پزشکان و درمانگران بوده است[2]. بررسی عوامل فیزیولوژیکی و سایکوفیزیولوژیکی که در کنترل دردهای حاد موثر می باشد، از جمله زمینه هایی است که در سال های اخیر مورد توجه قرار گرفته است. شناخت مراکز درگیر مغز در درد و نحوه تاثیر آن بر روی مغز، در شناخت و ارتقاء روش های درمانی بسیار مهم می باشد. روش های بکاررفته برای اندازه گیری درد، شامل گزارش های فردی، مشاهدات رفتاری و پاسخ های فیزیولوژیکی می باشد. تجربه پیچیده درد نشان می دهد که اندازه گیری با این روش ها همیشه هم نتایج مشابهی ندارد. به دلیل آنکه درد به شخص بستگی دارد، گزارش فرد، معتبرترین مقیاس اندازه گیری برای درد هر فرد می باشد[3]. روش های رفتاری هم اطلاعات مفیدی برای اندازه گیری درد ایجاد می کنند. تحقیقات مختلف نشان داده اند که گزارش فرد از درد با تغییرات الکتریکی ایجادشده در فعالیت مغز همخوانی دارند[3]. از این رو یک روش پیشنهاد شده برای اندازه گیری درد، بررسی تغییرات eeg در زمان درد می باشد. تعدادی از اندام های مغزی در روند پردازش اطلاعات عصبی دخالت دارند. تالاموس، نقش بسیار مهمی در دریافت و بازپخش اطلاعات عصبی دارد. زمانی که اطلاعات عصبی به نقاط مختلف قشری و زیرقشری انتقال می یابد، ممکن است باعث ایجاد تغییر در پتانسیل الکتریکی شود. به عنوان روشی غیرتهاجمی برای اندازه گیری فعالیت الکتریکی مغز، سیگنال های eeg می تواند دینامیک مغز را در هر میلی ثانیه به دقت انعکاس دهند. این مکانیزم فعالیت مغزی به وسیله طیف توان، همبستگی و وابستگی بین سطوح مختلف قشری و زیرقشری و پتانسیل های وابسته به موضوع، بررسی می گردد. مزیت استفاده از eeg به عنوان یک روش فیزیولوژیکی، این است که به فرد بستگی ندارد و فقط به موقعیتی که در آن درد اندازه گرفته می شود مربوط می شود و همچنین شامل به کار بردن لوازم گران قیمت و پرسنل آموزش دیده نمی باشد. فقط ممکن است با آرتیفکت های مختلف محیطی یا فردی آمیخته شود که کار تشخیص را مشکل می سازد[3]. بر اساس تحقیقات انجام شده در مورد درد انسان، گزارش فردی از درد بهترین مبنا برای اندازه-گیری می باشد[3]. به دلیل اینکه گزارش بیمار در موقعیت هایی که بیمار قادر به صحبت کردن نمی باشد، ممکن نیست، مطالعاتی که تحریکات استاندارد را بکار می برند برای ارزیابی میزان درد استفاده می شوند. دو روش برای کمـّی سازی درد حیوانات در سال های اخیر انجام شده است که باعث پیشرفت های مهمی در تکنیک های قبلی شده است. آنالیزهای کمی پاسخ الکتروانسفالوگرام به تحریکات قوی، در بسیاری از پستانداران بکار رفته است. مزیت این تکنیک این است که در بیهوشی هم می تواند به کار برود و بنابراین این قابلیت را دارد که بدون در معرض درد قرار دادن حیوانات، به انسان دید بدهد. در بیماران آگاه، کمی سازی رفتار در حین درد، باعث شناسایی رفتارهای مربوط به درد با درک بسیار بالاتر و دقت بیشتر نسبت به روش های قدیمی تر آنالیز رفتاری می شود[3]. 1-2 ضرورت انجام پروژه تا کنون تحقیقات فراوانی در زمینه درد و ارتباط آن با سیگنال های مغزی انجام شده است. در تمامی این تحقیقات، این ارتباط از دیدگاه آماری بررسی گردیده و گزارش های مختلفی از تفاوت عملکرد مغز در زمان درد گزارش شده است. با توجه به اینکه در بسیاری موارد و برخی بیماری ها ، شخص قادر به بیان میزان درد خود نمی باشد، ارائه روشی به منظور کمـّی سازی و مشخص نمودن درد فرد برای کمک به تجویز داروهای مسکن و آرام بخش می تواند بسیار مفید واقع شود. در این پایان نامه با استخراج ویژگی هایی که تاکنون کمتر در مورد درد استفاده شده است و از دیدگاه مهندسی به موضوع درد پرداخته شده است و پس از یافتن منابع اصلی درد، با استفاده از یک ساختار جدید طبقه بندی کننده، سطوح مختلف درد شامل 5 سطح طبقه بندی گردیده است.
لیلی ازقندی محسن کاهانی
در این پایان نامه پس از مروری اجمالی بر تعاریف مربوط به داده کاوی و همچنین کاربردها و تکنیک های آن، به بررسی مطالعاتی که تاکنون در خصوص کفایت دیالیز و همچنین کاربرد داده کاوی در زمینه تأثیر عوامل مختلف بر کفایت دیالیز بیماران همودیالیزی در سطح ایران و جهان انجام شده بود پرداختیم. در فصل چهارم این پایان نامه پس از آماده سازی داده ها و به منظور فراهم آوردن امکان ارائه قوانین و تفاسیر قابل درک، از تکنیک خوشه بندی داده ها استفاده نموده و با استفاده از دو الگوریتم k-means و twostep داده های هر فاکتور را در خوشه های مختلف خوشه بندی نمودیم. در ادامه در همین فصل با بهره گیری از روش های مختلف کلاسه بندی داده ها از جمله c&r tree ، chaid ، c5.0 ، شبکه عصبی، شبکه بیزین و انتخاب ویژگی به شناسایی فاکتورهایی که بیشترین تأثیر را در میزان اثربخشی و کفایت دیالیز بیماران همودیالیزی دارند پرداخته و نتایج حاصل از هر یک از الگوریتم ها را ارائه نمودیم. در انتهای این فصل الگوریتم rotboost به عنوان یکی از الگوریتم های قدرتمند در زمینه کلاسه بندی معرفی شده و با اعمال تغییراتی در تابع طبقه بند این الگوریتم، مجموعه داده های تحقیق را با استفاده از این الگوریتم نیز کلاسه بندی نموده و فاکتورهایی که بیشترین نقش را در اثربخشی دیالیز ایفا می کنند پیش بینی شدند. در فصل پنجم از پایان نامه به بررسی میزان دقت هر یک از مدل های فصل قبل پرداخته و نتایج حاصل از این مدل ها را با یکدیگر مقایسه نمودیم. طبق نتایج این تحقیق سطح کلسترول بیمار همودیالیزی یکی از عواملی است که در پیش بینی میزان اثربخشی و کفایت دیالیز بیمار نقش مهمی داشته و کنترل سطح کلسترول بیمار می تواند موجب بهبود کفایت دیالیز بیمار گردد. همچنین با مقایسه مدل های مختلف بررسی شده در این تحقیق می توان فاکتورهای کلسترول، کلسیم و سدیم را به عنوان سه پارامتری که اهمیت بیشتری در پیش بینی کفایت دیالیز دارند معرفی نمود. نکته دیگری که در یافته های این تحقیق حائز اهمیت می باشد، دقت مناسب الگوریتم rotboost در مقایسه با سایر الگوریتم های کلاسه بندی مورد استفاده در این تحقیق می باشد که اگر از j48 به جای c5.0 به عنوان طبقه بند adaboost در این الگوریتم استفاده کنیم می توانیم دقت این الگوریتم را تا سطح قابل قبولی نسبت به سایر الگوریتم های کلاسه بندی افزایش دهیم.
یوسف سایبانی علی فلاح
بیماری گلوکوم (آب سیاه) از بیماریهای شایع و خطرناک می باشد که عدم توجه کافی به وضعیت میدان بینایی و کنترل فشار داخل چشمی (iop) از اصلی ترین عوامل بروز آن به حساب می آید. عمده افراد مبتلا به این بیماری، دارای فشار داخل چشمی بالایی می باشند این بیماری در هر سنی ممکن است رخ دهد اما در میان بزرگسالان شایع تر می باشد در نتیجه این بیماری، میدان بینایی مختل شده و باعث وارد شدن صدماتی به لایه گانگلیون شبکیه و عصب بینایی می گردد. متأسفانه پس از مدتی و با از دست رفتن حدود 30 درصد سلولهای شبکیه بیمار به مشکل ایجاد شده پی می برد. که این مسیله ممکن است در نهایت منجر به از بین رفتن دید مرکزی و کوری کامل وی گردد. در ایالات متحده آمریکا، حدود 2 میلیون نفر به گلوکوم دچار بوده بی آنکه از بیماری خود آگاهی داشته باشند. شیوع این بیماری در مناطق گرمسیری و در بین آسیاییها و نژاد سپاه بیشتر می باشد. سابقه فامیلی و عوارض دیگری نیز برای بروز آن شناخته شده است. دستگاههای الکتروفیزیولوژی و آزمایشات مختلفی برای تشخیص زود هنگام این بیماری ایجاد شده که هر کدام از اهمیت بالایی برخوردار می باشد. در این پایان نامه در آغاز با استفاده از نتایج آزمون سنجش میدان بینایی (پریمتری) که از بیماران بخش گلوکوم در بیمارستان فارابی تهران و با دستگاههای موجود در بخش الکتروفیزیولوژی چشم بدست آمده، برنامه ای در محیط برنامه نویسی matlab نوشته شده است که بوسیله آن می توان میزان عمق ضایعه در میدان بینایی را توسط نمودار مورد نظر تعیین و همچنین مقادیر تقریبی md,psd را که معیارهای جهانیی برای تعیین میزان شدت بیماری گلوکوم می باشند را محاسبه نمود. دربخش بعدی با دریافت سیگنال پتانسیل برانگیخته بینایی vep از بیماران یاد شده، استخراج ویژگیها و پردازش آنها با استفاده از الگوریتم های شبکه عصبی، تفکیک موارد طبیعی و غیر طبیعی از نقطه نظر ابتلا به بیماری گلوکوم توسط شبکه عصبی تعلیم داده شده انجام گردید.ضمن آنکه مشاهده گردید که چه ویژگیها و یا ترکیباتی از آنها بهترین درصد بازشناسی را در طبقه بندی انجام می دهند. با مقایسه نتایج و همچنین وضعیت بالینی بیماران، ارزش تشخیصی این دو آزمون، بررسی شده تا نشان داده شود که پاسخ کدامیک از دو آزمون انجام شده با شرایط بالینی بیمار تطابق بهتری داشته است با افزایش تعداد جمعیت مورد مطالعه، دقت تشخیص و میزان صحت بازشناسی افزایش یافته و در حالت کلی می توان با تعلیم شبکه عصبی از منظر بیماریهای نورو آفتالمولوژی همچون ms و میگرن، و افزایش داده های این بانک اطلاعاتی به تشخیص بیماری ها و میزان شدت آنها با استفده از سیگنال vep فرد پی برد.با تعریف میزانهای مختلف آستانه ای برای md,psd متناظر با مراحل مختلف گلوکوم و تعلیم آن به شبکه عصبی، می توان میزان شدت بیماری را نیز تعیین نمود. روش خودکار تشخیص گلوکوم با استفاده از سیگنال vep بی تردید با توجه به ماهیت آزمایش که نیاز به همکاری فرد مورد آزمایش ندارد، از دقت و ارزش تشخیصی بالایی برخوردار است. گفتنی است که بیان وضعیت سیگنال vep با یک شاخص ویژه می تواند شرایط را برای مقایسه ارزش هرسیگنال آسانتر نماید که در این پایان نامه این شاخص محاسبه شده است یادآوری می شود که در تمام مراحل محاسباتی و تحلیل آسانتر نماید که در این پایان نامه این شاخص محاسبه شده است یادآوری می شود که در تمام مراحل محاسباتی و تحلیل پاسخها، ملاک و معیار سنجش نظریه چشم پزشک متخصص بوده است.
طاهره کمالی رضا بوستانی
شکل و صدای مربوط به پتانسیل های عمل استخراج شده از داخل سیگنال الکترومایوگرافی یکی از مهمترین منابع اطلاعاتی جهت تشخیص، درمان و مدیریت بیماری های عصبی عضلانی می باشد. متاسفانه در حال حاضر روش های خودکار تشخیص بیماری های عصبی عضلانی بر اساس اطلاعات استخراج شده از داخل پتانسیل های عمل نمی توانند نتایج کاملا قابل قبول و راضی کننده ای را برای متخصصان توانبخشی فراهم آورند. به شکل عمده ضعف مربوط به این روش ها را می توان ناشی از عدم انتخاب ویژگی های مناسب و همچنین ضعف در ساختار طبقه بند های استفاده شده دانست. هدف از این طبقه بندی تشخیص پتانسیل های عمل مربوط به بیماران میوپتی، نوروپتی و پتانسیل های عمل سالم می باشد. در این تحقیق یک روش جدید طبقه بندی و استفاده از ویژگی ها بر اساس مجموعه ای از طبقه بند های svm که نسبت به هم دارای یک معماری سریال و موازی هستند و هر کدام از مجموعه ویژگی های متفاوتی از حوزه های زمان و زمان-فرکانس استفاده می کنند ارائه شده است که با استفاده از این روش دقت طبقه بندی افزایش قابل توجه ای پیدا می کند. نمونه ای از ویژگی های انتخابی حوزه زمان عبارتند از : دامنه، ناحیه، مدت زمان و فاز و ویژگی های انتخابی حوزه زمان- فرکانس نیز ضرایب ویولت گسسته هستند. جهت بررسی روش های ارائه شده از سیگنال های واقعی emg استفاده نمودیم. این سیگنال ها از 23 فرد گرفته شده است که از بین آن ها 7 نفر بیماری میوپتی، 8 نفر بیماری نوروپتی و 8 نفر نیز سالم بوده اند. دقت طبقه بندی بدست آورده با استفاده از روش نوین ارائه شده 97% می باشد که نسبت به کارهای گذشته انجام شده 5% افزایش دقت داشتیم. با توجه به دقت بالای بدست آمده از این سیستم می توان در تشخیص های کلینیکی استفاده نمود.
ندا ازوجی زهره عظیمی فر
تحلیل خودکار ویدیو امروزه یکی از حوزه های بسیار فعال و چالش برانگیز در بینایی ماشین است. یکی از زمینه های مطرح شده در یادگیری ویدیو تحلیل حرکت انسان است. پردازش ویدیو محدودیت های بسیاری از قبیل بعد زیاد داده، زاویه ی دید متفاوت، روشنایی و پس زمینه ی ناهمگن دارد که در شناسایی عمل مسائل دیگری مانند تفاوت در نحوه ی انجام عمل توسط افراد که ناشی از تفاوت در خصوصیات ظاهری و ویژگی های حرکتی است، مطرح می شود. کارهای بسیاری در حوزه شناسایی خودکار عمل انسان انجام شده است. هدف اصلی اغلب آن ها یادگیری ویژگی های موثرتر از دنباله ها و افزایش دقت کلاس بندی عمل بوده است که به موفقیت های قابل توجهی نیز دست یافته اند. بیشتر روش های مطرح شده از کل دنباله ی ویدیوی برای این منظور بهره جسته اند. در این رساله، ما بر روی آماده سازی ویدیو به عنوان ورودی الگوریتم شناسایی عمل جهت استخراج موثرتر ویژگی های آموخته شده و کلاس بندی تمرکز کرده ایم. هدف از این عملیات برجسته سازی بخش هایی از ویدیو است که حاوی اطلاعات مفیدتر و تمیز دهنده تر هستند و همچنین حذف آن بخش هایی از دنباله ویدیوی که شامل اطلاعات غیرضروری یا تکراری اند. این کار می تواند با توجه به ماهیت داده ی ویدیوی منجر به تسریع یا افزایش دقت الگوریتم گردد.
مرضیه صفریان زهرا افشاری
هدف این تحقیق شبیه سازی یک مدل تعادل عمومی پویای تصادفی نیوکینزی برای تبیین نوسانات ادوار تجاری اقتصاد ایران است. مانند تمام مدل های تعادل عمومی پویای تصادفی نیوکینزی، در این مدل نیز انعطاف ناپذیری های اسمی وجود دارد و رقابت انحصاری حاکم است. سه شوک تکنولوژی، مخارج دولت و نرخ رشد پول به عنوان منبع نوسانات ادوار تجاری در مدل تعریف شده اند. نتایج حاصل از حل و مقداردهی مدل، حکایت از نزدیکی گشتاورهای متغیرهای حاضر در مدل و گشتاورهای داده های واقعی اقتصاد ایران دارد. همچنین تولید در برابر تمامی شوک ها افزایش می یابد و تورم در برابر شوک مخارج دولت و نرخ رشد پول افزایش و در برابر شوک تکنولوژی کاهش می یابد.
محمد علی غیور زهره عظیمی فر
مطالعه ویدئو، ردیابی اهداف و استخراج اطلاعات مختلف از آن نقش بسیار اساسی در تحقیقات علمی و کاربردهای صنعتی دارد. روش های متعددی در هوش مصنوعی و پردازش تصویر و بینایی ماشین به وجود آمده است تا نیازهای مطالعاتی در این زمینه را برطرف نماید. یکی از زمینه هایی که در بینایی ماشین مطرح است علم مربوط به ردیابی اهداف یا شناسایی و دنبال کردن اهداف در تصویر است. برای انجام ردیابی اهداف متحرک در تصویر نیاز به ابزارهای قدرتمند و پیدا کردن ویژه گی هایی است که بتواند این کار را به خوبی انجام دهد. پردازش برروی ویدئو دارای محدودیت هایی از قبیل پیچیدگی وضعیت های تصویربرداری، انواع مختلف و زیاد حرکات موجود و همچنین مشکلات احتمالی از قبیل نور نامناسب و یا پویا بودن و پویا نبودن پس زمینه محل تصویر برداری خواهد بود. در کارهای گذشته موجود در این زمینه ، روش هایی مطرح گردیده که از ابزارهای متداول در حوزه ردیابی اهداف استفاده شده است. از آنجا که تنوع در حوزه ردیابی اهداف، بسیار بالاست نیاز به ابزار هایی است که قدرت بسیار بالایی در شناسایی اهداف و همچنین پایداری در تشخیص هدف موردنظر در طول زمان را داشته باشد. در این رساله از هر دو مدل ظاهر مولفه با استفاده از الگوریتم gmm و شکل مولفه با استفاده از الگوریتم hmm ، در راستای تحقق این خواسته استفاده شده است ، که الگوی شکل یک الگوی مناسب و قوی در کنار الگوی ظاهری اهداف مطرح شده است. ترکیب این دو مدل دارای پیچیدگی زمانی کمی بالاتر نسبت به روشهای قبلی است اما دارای دقتی به مراتب بالاتر در شناسایی اهداف و همچنین دنبال کردن قاطع آنها در طول مدت زمانی نسبت به روشهای گذشته است. به بیان دیگر روش ارائه شده در این رساله میتواند با توجه به محدودیت های موجود در داده ها، کارایی و قدرتمندی لازم برای ردیابی اهداف را دارا باشند. بنابراین میتوان از این ابزار برای پردازش ویدئو، با توجه به محدود بودن ویژه گیها در داده ها استفاده کرد.
نجمه هادی برحق طلب زهره عظیمی فر
امروزه با افزایش رو به رشد دوربین های دیجیتال، روزانه حجم عظیمی از داده های ویدئویی تولید می شوند که بر روی وب و پایگاه های داده ی بزرگ قابل دسترس هستند. دسته بندی این داده ها بر اساس محتوایشان به صورت اتوماتیک و با دقت بالا هدف غایی بسیاری از کاربردها در این زمینه است. در این پایان نامه ما سیستمی طراحی کرده ایم که بتواند داده های ویدئویی حاوی عمل انسان را با دقت خوب و در زمان نسبتا کوتاهی برچسب گذاری کرده و دسته بندی کند. در این پایان نامه از روش های دیداری بهره گرفته شده است. روش های دیداری برای تشخیص فعالیت انسان در واقع فرایند تشخیص انسان در ویدئو و عملی که انجام می دهد با بهره گیری از تکنیک های بینایی ماشین می باشد. در این راستا سیستم طراحی شده از روش یادگیری بدون نظارت برای استخراج ویژگی و کد کردن آن ها استفاده کرده است. روش های یادگیری ویژگی نه تنها به راحتی قابل تعمیم به حوزه ه های دیگر هستند بلکه کارایی قابل توجهی بر روی داده های ویدئویی جمع آوری شده از دنیای واقعی دارند. در پایان برای ارزیابی این سیستم به دسته بندی داده های ویدئویی پایگاه های داده ی kth، ucf و youtube پرداخته ایم و به نتایج قابل توجهی دست پیدا کرده ایم.
زهرا مسلم خانی رضا بوستانی
نیاز به استفاده از خدمات ارزان تر و در دسترس تر درمانی، همواره از سوی کاربران و بیماران احساس و به عنوان یک نیاز جدی مطرح شده است. سیستم های مراقبت از راه دور، سیستمهایی مبتنی بر اینترنت هستند که به منظور برطرف ساختن این نیاز طراحی شده اند. از این رو، شناسایی عوامل موثر بر توسعه سیستم های مراقبت از راه دور و شناسایی موانع بکارگیری این سیستم ها از اهمیت بالایی برخوردار است. در این تحقیق به منظور بررسی این موضوع از مدلهای ttf و utaut استفاده شده است. بنا بر این هدف از انجام این تحقیق بررسی عوامل موثر بر توسعه این سیستمها با استفاده از مدلهای ttf و utaut می باشد. این تحقیق از نوع کاربردی بوده که به روش توصیفی پیمایشی به انجام می رسد. جامعه آماری در این تحقیق شامل تمام کاربران سیستم مراقبت از راه دور در شهر تهران می باشد. ازآنجاییکه تعداد دقیق اعضای جامعه آماری مشخص نیست، آن را نا محدود فرض می کنیم. سپس نمونه ای به اندازه 200 نفر انتخاب شده و با استفاده از پرسشنامه به عنوان ابزار اصلی جمع آوری داده ها، اطلاعات مورد نیاز، گردآوری گردید. نتایج نشان می دهد از میان فرضیات 9 گانه تحقیق، 5 فرضیه مورد پذیرش قرار گرفت و 4 فرضیه، رد شد. از میان عوامل موثر ذکر شده، چهار عامل ( انتظار تلاش، امنیت و شرایط تسهیل کننده و تاثیرات اجتماعی) دارای رابطه معناداری با بکارگیری سیستمهای مراقبت از راه دور نبود. سایر عوامل، دارای ارتباط معناداری با سیستم مراقبت از راه دور بودند. این عوامل عبارتند از : انتظار عملکرد، تناسب فناوری –وظیفه و کاهش هزینه ها.
آراد بصیری رضا بوستانی
از آنجا که در دهه های اخیر، استفاده از اینترنت در سطحی گسترده فراگیر شده است، اطلاعات موجود در وب به صورت نمایی رو به افزایش است. این مسئله مشکل سرریز اطلاعات را به وجود آورده تا جایی که فرایند انتخاب و تصمیم گیری کاربران در میان حجم عظیم اطلاعات ، کالا و خدمات به راحتی امکان پذیر نیست و موجب سردرگمی کاربران می شود، همچنین گسترش روز افزون دانش و تکنولوژی در طول این سال ها، موجب به وجود آمدن کسب و کارهای الکترونیکی متنوعی در فضای مجازی شده است، با وجود رقابت میان سایت های مختلف در ارائه خدمات و محصولاتشان به مشتریان، شرکت ها برای بقا در محیط پویای بازارهای رقابتی امروز، به دنبال راهی برای دستیابی به مشتریان جدید و همچنین حفظ و نگهداری مشتریان قبلی خود هستند، روشهای سنتی بازیابی اطلاعات بدون در نظر گرفتن علائق کاربران قادر به حل این مشکلات نیستند. سیستم های توصیه گر برای کمک به انواع کاربران در دنیای وب، ظهور کردند. در این رساله، تلاش می شود تا با مروری بر سیستم های توصیه گر و مزایا و چالش های موجود، به بررسی روش های مختلف ترکیب دو تکنیک مشهور content-based و collaborative filtering پرداخته و با بهره گیری از شبکه عصبی و داده های معتبر وب سایت movielens روش نوینی برای تلفیق این دو تکنیک ارائه شود تا منجر به بهبود دقت پیشنهادات گردد.
قاسم معافیان اشکان سامی
ارزیابی داده های تصادفات یک کشور می تواند به استاندارد سازی روش ها برای رسیدن به یک ساختار تصمیم گیری مناسب و مطمئن کمک فراوانی را بکند.در این پایان نامه سعی گشت تا با جمع آوری داده های تصادفات پلیس و استفاده از الگوریتم های داده کاوی، وضعیت موجود مورد آنالیز قرارگرفته و راهکار های مناسب در جهت ساخت یک سیستم امن در زمینه پیشگیری و کاهش تصادفات ، ارائه گردد. در اولین گام پس از جمع آوری داده ها سعی گشت تا با اجرای اقدامات پیش پردازشی بر روی داده ها ، کیفیت آنالیزها تا سطح مطلوبی افزایش یابد . پس از آماده سازی دیتا و ارزیابی آن ها، با اجرای الگوریتم های بصری سازی دیتا ، دسته بندی دیتا و الگوریتم های مدل سازی بر روی داده های مورد نظر ، سعی گشت ضمن کشف قوانین و پارامترهای تاثیر گذار موجود در وقوع حوادث جرحی ، یک مدل مناسب جهت پیش بینی حوادث جرحی و فوتی ارائه گردد. بر اساس نتایج الگوریتم svm در مجموع و الگوریتم classification via regression در خصوص حوادث جرحی دارای بهترین عملکرد بودند. در آینده با تفکیک داده های استان های مختلف کشور و همچنین اضافه کردن داده های تصادفات دیگر نهادها می توان انتظار نتایج کامل تر و دقیق تری را داشت.
رامین حق جو سروستانی رضا بوستانی
حس ششم یک رابط پوشیدنی حرکتی است، که اطلاعات دیجیتالی را به جهان فیزیکی اطراف ما می افزاید و به ما اجازه می دهد که از حرکات طبیعی دست برای تعامل با آن اطلاعات استفاده کنیم. فهمیدن حرکات انسان می تواند به عنوان یک مسئله شناسایی الگو، بیان شود. انسان در زمان های مختلف الگوهای حرکتی متفاوتی را برای رساندن یک پیغام به دریافت کننده، نشان می دهد. اگر یک کامپیوتر می توانست این الگو های حرکت انسان را شناسایی کرده و تشخیص دهد آنگاه پیام مورد نظر نیز می توانست دوباره ساخته شود و کامپیوتر نیز پاسخ مناسبی دهد. یکی از اهداف این پایان نامه ارائه یک سیستم شناسایی حرکت بر پایه مدل مخفی مارکف است تا بتواند شکاف ارتباطی بین کامپیوتر و انسان را پر کند. چهارچوب مدل مخفی مارکف رفتار حرکت را مدل می کند و با دریافتن شباهت ها و تفاوت های بین حرکات مختلف به فهمیدن حرکت کمک می کند. از طریق چندین آزمایش با حرکات دو بعدی موس، رفتار یادگیری مدل تجزیه و تحلیل شده و دیدگاه های مهمی در جهت بهبود کارایی آن ارائه می گردد. هدف دوم، ارائه یک رابط پوشیدنی حرکتی است که یک روش جدید برای ردیابی نشانگرهای روی انگشتان دست را پیشنهاد می دهد. این روش با قسمت تشخیص حرکت ترکیب شده و نتایج خوبی را به ارمغان آورده است. در این سیستم حرکاتی برای کاربر تعریف شده و به سیستم آموزش داده می شود تا کاربر به راحتی بتواند با آن تعامل برقرار کند ضمن اینکه حرکات کاربر دسته بندی شده و سیستم آن ها را به خوبی تشخیص می دهد. در این سیستم شش حرکت برای تشخیص تعریف شده که نتایج حاصل از یادگیری سیستم توسط مدل مخفی مارکف به دقت 48/95% در آموزش و 75/93% در آزمایش رسیده است.
نگین جهانی فرشاد تاجری پور
هدف از این تحقیق، ارائه روشی جدید، ساده، سریع و دقیق در تشخیص تاکی آریتمی های خطرناک بطنی و دهلیزی است. در برخی موارد، امر تشخیص تا حدودی زمان بر می باشد و حتی گاهی اوقات ممکن است علی رغم تخصص و تجربه پزشک، خطایی در تشخیص صورت گیرد، به همین دلیل تشخیص صحیح و به موقع در موارد جدی و خطرناک از اهمیت بالایی برخوردار است. در این تحقیق با استفاده از نوع یک بعدی الگوریتم الگوهای باینری محلی و اعمال آن بر برخی از سیگنال های الکتروکاردیوگرام از پایگاه دادهmit-bih نشان داده شد که این الگوریتم می تواند کلاس های مختلف آریتمی قلبی را با سرعت و دقت بالا دسته بندی نماید. در مرحله پیش پردازش از الگوریتم پیشنهادی و برای کاهش نویز سیگنال ها از روش فیلترینگ استفاده شد. سپس بازه های یکسانی از هر ضربان قلب در سیگنال مورد بررسی قرار گرفت و برخی از ویژگی های حوزه زمان از آنها استخراج شد. با بررسی این ویژگی ها و استفاده از عملگرهای واریانس و میانگین، الگوریتم پیشنهادی توانست شش دسته از تاکی آریتمی های خطرناک قلبی را با سرعت و دقت بالا دسته بندی نماید. نتایج به دست آمده از اعمال الگوریتم پیشنهادی بر سیگنال ها، پائین بودن پیچیدگیهای محاسباتی و سادگی پیاده سازی این الگوریتم نشان داد که می توان در کلاس بندی دسته های بیشتری از آریتمی های قلبی و به صورت خودکار و برخط، از این الگوریتم استفاده نمود.
زهرا قادری سیده زهره عظیمی فر
کف دست از جمله مشخصه های بیومتریک می باشد که دارای قابلیت یکتایی و درجه اطمینان بالا در سیستم های احراز هویت است. سیستم های احرازهویت مبتنی بر کف دست، به دلیل امکان استفاده از تصاویر با کیفیت پایین، هزینه مناسب و پذیرش بالای کاربران در دهه های اخیر بسیار مورد توجه قرار گرفته اند. تصدیق هویت های مشتری ها و اجازه فعالیت های بانکداری الکترونیکی به آنها یکی از خدمات مالی بانکداری الکترونیکی است. در این پژوهش روشی موثرجهت احراز هویت افراد از طریق تصویر کف دست ارائه شده است. در روش پیشنهادی ابتدا در محیط کانتورلت ویژگی های مورد نیاز با استفاده از توصیفگرهیستوگرام گرادیان جهت دار(hog) و یکی از ویژگی های هارالیک از جمله انرژی استخراج و سپس با استفاده از تحلیل مولفه های اصلی (pca) انتخاب می گردند و در نهایت الگوریتم نزدیکترین همسایه(knn) جهت طبقه بندی و احراز هویت افراد بکار گرفته می شود. آزمایشات انجام شده بر روی3500 تصویر پایگاه داده دانشگاه پلی تکنیک هنگ کنگ نشانگر دقت 99.97 درصد می باشد که در مقایسه باسایر روش های ارائه شده، برتری معنی داری را نشان می دهد.
بهنام توکل شوریجه رضا ثامنی
امروزه تحلیل، بررسی و پردازش سیگنالهای حیاتی به خصوص سیگنالهای مغزی یکی از شاخههای مهم و مورد علاقه مهندسان رشته مهندسی پزشکی میباشد. مطالعه این سیگنالها، بررسی نارساییهای مغزی، پی بردن به محل و تعداد منابع تولیدکننده آن را امکانپذیر می سازد. با توجه به اینکه دسترسی به منابع مغزی بسیار مشکل و پر خطر است و در بسیاری از عارضههای مغزی مکان وقوع عارضه مهم است لذا تخمین مکان مذکور به صورت غیر تهاجمی از اهمیت بالایی برخوردار است. سیگنال الکتروانسفالوگرام (eeg) ثبت شده از سطح سر، در نتیجه تولید جریان به واسطه حرکت یونها در سطح غشاء مغز حاصل می گردد. در این پایان نامه با در نظر گرفتن ماهیت توزیعی بودن منابع موجود در مغز، ساده کردن شکل هندسی لایه های مختلف موجود در سر، انتخاب سر به عنوان یک حجم رسانا و استفاده از روش مستقیم حل مسأله، مدل نسبتا مناسبی از یک سیگنال eeg تولید و توسط نرم افزارهای ارزیاب eeglab و sloreta به بررسی این سیگنال پرداخته، محل و تعداد منابع حاصل شده است. منابع توزیع شده موجود در مغز در اثر فعالیت الکتریکی تعدادی نورون که دارای همبستگی مکانی می باشند تشکیل شده اند. در صورتیکه نقطه ای فرض کردن این منابع، نشان دهنده فعالیت یک نقطه یا یک نورون از مغز است. در بعضی از بیماریها مانند حملات صرع قسمتی از مغز درگیر این فعالیت غیرمعمول می باشد و فرض نقطه ای بودن منابع نادرست است. نتایج حاصله از این پایاننامه نشان میدهد که منابع موجود در مغز از نوع توزیع شده بوده و فرض نقطهای بودن منابع مذکور نادرست میباشد که این نتیجه توسط دو نرمافزار ارزیاب صحهگذاری شده است.
یاسمن مروج رضا بوستانی
آلتراسوند یکی از روش های تصویربرداری است که هیج ضرری برای بدن ندارد، بنابرین نسبت به سایر دستگاه های پزشکی از محبوبیت و کاربرد بیشتری برخوردار است. طراحی بورد front-end یکی از چالشهای بزرگ در طراحی دستگاه سونوگرافی است که در آن سیگنالهای مدوله شده از بدن با دامنه بسیار کم باز می گردند که می توانند در رنج فرکانسی 2 تا 12 مگاهرتز کار کنند. تکنولوژی روز سعی در کوچک کردن مدارهای الکترونیکی و کمینه کردن تعداد قطعات آن دارد که نویز بسیار کمی را جذب کنند. هدف از این رساله تجزیه و تحلیل بخش عمده ی front-end دستگاه سونوگرافی می باشد که به وسیله ی نرم افزار های orcad و field-ii-matlab مدار های lna, tgc, swept filter, bandpass filter, detector مورد بررسی قرار می گیرند. نویز و بهره آن ها جهت ارزیابی و مقایسه محاسبه می شوند که در مواردی نیاز به بهبود می باشد.
آرمین دانش پژوه اشکان سامی
در سالهای اخیر، اختلاس مالی 1 که شامل سوء استفاده از کارتهای اعتباری، کلاهبرداریهای دست جمعی و انتقال و گردش غیر قانونی پول می شود، توجه زیادی را به خود جلب کرده است. فرهنگ لغت آکسفورد ] 1 [ واژه اختلاس را به صورت زیر تعریف کرده است: "عملکرد فریبکارانه ای که به صورت غیر قانونی و مجرمانه در جهت منافع مالی و یا شخصی انجام می گردد."همچنین اختلاس به معنای سوء استفاده از سیستم های یک سازمان برای کسب منافع از طریق فرآیندهای غیر قانونی نیز تفسیر شده است ] 2 [ . اگرچه هنوز معنای قابل قبولی در سطح جهانی برای اختلاس مالی وجود ندارد، در ] 3 [ اختلاس اینگونه تعریف شده است: "عملی که خلاف قانون، مقررات و رویه یک مجموعه بوده و به صورت تعمدی و در جهت کسب منفعت مالی غیر مجاز صورت می گیرد." از لحاظ اقتصادی، اختلاس مالی به یک مشکل بسیار بزرگی تبدیل شده است. سرآمد اینگونه فعالیت ها مربوط می شود به طرح ponzi ، که توسط berbard madoff رئیس سابق nasdaq جاودانه شده است. این طرح منجر به زیانی معادل تقربیاً 5 میلیارد دلار در سراسر جهان شد ] 4 [. مثالی دیگر از این فعالیت ها، مسئله joseph hirko ، مدیر اجرایی شرکت enron broadband services(ebs) 8 میلیون دلار اعتراف کرده بود / است که در دادگاه به اختلاس نزدیک به 7 ] 4 [ . بر اساس گزارش اخبار bbc در سال 2557 کلاهبرداری های انجام شده از طریق شرکت های بیمه انگلیس، باعث ضرر 1 میلیارد پوند در سال شده است / کردن این شرکت ها به میزان 6 ] 0 [ . به طور کلی ضررهای ناشی از اختلاس های مالی قابل محاسبه نیست ] 6 [ . شناسایی اختلاس مالی یک مسئله حیاتی در زمینه جلوگیری از عواقب ویران کننده این گونه اختلاس ها می باشد. شناسایی اختلاس های مالی شامل تمییز دادن بین داده های مالی نادرست از داده های مالی موثق می باشد که در نتیجه آن بتوان رفتارها و عملکردهای کلاهبردارانه را فاش کرد و افراد تصمیم گیرنده را قادر ساخت تا برای کاهش اثرات اختلاس، استراتژی های مناسبی را اتخاذ کنند. داده کاوی نقش مهمی در شناسایی اختلاس مالی دارد. برای مثال، داده کاوی اغلب برای استخراج و کشف کردن حقایق پنهان درون داده های با کمیت بسیار زیاد به کار می رود. در ] 7 [ داده کاوی به عنوان پروسه ای در جهت شناسایی الگوهای جالب توجه در پایگاه های داده که می توانند در تصمیم سازی مورد استفاده قرار گیرند، تعریف شده است. همچنین در ] 8 [ تعریف داده کاوی اینگونه آمده است: پروسه ای که با استفاده از آمار، ریاضیات، هوش مصنوعی، و تکنیک های یادگیری ماشین به استخراج و شناسایی اطلاعات مفید و متعاقباً به دست آوردن دانش از پایگاه داده بزرگ می پردازد. در ] 9 [ ذکر شده است که هدف داده کاوی بدست آوردن اطلاعات مفید و غیر واضح از داده های ذخیره شده در انبارهای بزرگ می باشد. همچنین در ] 15 [ یکی از مزایای مهم داده کاوی، ساخت و توسعه کلاسی جدید از مدلها جهت شناسایی حمله های جدید قبل از شناسایی توسط افراط خبره ذکر شده است. شناسایی اختلاس به یکی از بهترین کاربردهای ثابت داده کاوی هم در زمینه صنعتی و هم دولتی مبدل شده است. تکنیک های مختلفی از داده کاوی در زمینه کشف اختلاس به کار رفته است. از جمله آنها می توان به شبکه های عصبی، مدلهای رگرسیون، روش naïve baye و درختهای تصمیم گیری 2 ] 11 [ اشاره کرد.
فاطمه خلیفه زهره عظیمی فر
در این پایان نامه چارچوبی نوین به منظور انتزاع سازی در طبقه بندی شی ارایه شده است. این پژوهش دو دستاورد اصلی داشته است. نخست، رابطه ای کلی مبتنی بر هندسه تحلیلی استنتاج شده است که با استفاده از آن واژه نامه ای جامع از شکل های هندسه تحلیلی به دست می آید. سپس، روشی برای بهینه سازی پارامتر های شکلی موجود در لبه ی تصویر پیشنهاد شده است. رابطه ی کلی ارایه شده با اعمال دنباله ای از تبدیل های هندسی روی شکل فرا-بیضی به دست آمده است. در انجام این کار برخلاف سامانه های پیشین نیاز به استفاده از کلاسه بندها نیست و از این رو سامانه ارایه شده با کارهای پیشین نیز متفاوت است. یک تابع هدف مشتق پذیر با میانگین مربع های خطا در بهینه سازی پیشنهاد شده است. در این پایان-نامه تمرکز بر روی الگوریتم جستجوی بهینه به منظور گروه بندی بهتر کانتورها نبوده است و از الگوریتم جستجوی ساده ای در مرحله ی گروه بندی کردن کانتورها استفاده شده است. روش پیشنهادی این پایان نامه نسبت به دگرگونی های مقیاس، چرخش و مکان مقاوم است و به سادگی روی لبه ی تصویر اعمال می شود. کارایی روش پیشنهادی از دیدگاه پایداری و زمان اجرا با آزمون هایی سنجیده شده است. نشان داده می شود که روش پیشنهادی نسبت به روش های ارایه شده ی پیشین، پایداری وپیچیدگی زمانی بهتری دارد.
زهره بستانیان رضا بوستانی
طبقه بندی تقویت تطبیقی یک روش شناخته شده و موثر برای جمع آوری ویژگی های مثبت گروهی از یادگیرهای ضعیف موازی است; با این حال، از حساسیت بالا به داده های نویزی و همچنین آموزش تعداد زیادی از یادگیرهای ضعیف رنج می برد. در اینجا، یک روش جدید به منظور کاهش تعداد یادگیرهای تطبیقی با استفاده از روش گرام اشمیت به صورت یک طرح وزن دهی جدید که منجر به متعامد شدن توزیع تمام یادگیرهای تنبل می شود پیشنهاد شده است. مشکل طرح وزن دهی طبقه بندی تقویت تطبیقی استاندارد ناشی از این است که هر یادگیر فقط با یادگیر قبلی متعامد است، در حالی که تعامد بین توزیع تمامی یادگیرها تضمین شده نیست. برای ارزیابی روش ارایه شده، تعدادی از مجموعه داده های متعلق به uci به عنوان معیار انتخاب شده است، و عملکرد طبقه بندی تقویت تطبیقی متعامد پیشنهادی را با الگوریتم های طبقه بندی تقویت تطبیقی استاندارد، logitboost و aveboost-ii مقایسه شده است. نتایج بدست آمده تایید برتری طبقه بندی تقویت تطبیقی متعامد در مقایسه با روشهای رقیب است. علاوه بر دقت، خواص دیگری مانند استحکام و تعمیم طبقه بندی تقویت تطبیقی متعامد در نظر گرفته شده است. نتایج مقایسه بر برتری روش ارائه شده به رقبا برحسب دقت، نیرومندی و تعمیم را نشان می دهد.
رایان آرسته رضا بوستانی
در سیستم های توصیه گر مشارکت محور بر اساس سوابق و فعالیتهای کاربر و بررسی این رفتارها با کاربران مشابه سیستم سعی می گردد تا لیستی از آیتمهای احتمالی مورد علاقه کاربر پیش بینی گردند و با پیشنهاد این لیست به کاربر باعث افزایش تراکنش های سایت و بهره وری کل سیستم شوند. از طرفی با رشد حجم اطلاعات در این گونه سیستمها، کاهش چشمگیری درکارایی به وجود خواهد آمد و آنلاین بودن سیستم را دچار مشکل می-کند، پس باید با استفاده از یک روش مناسب، سرعت محاسبات را بالا برد. در این پایان نامه از یک روش خوشه بندی سلسله مراتبی تجمیعی استفاده خواهد شد. مزیت استفاده از خوشه بندی این است که وقتی که بخواهیم که به یک کاربر چندین آیتم را پیشنهاد بدهیم، به جای اینکه علایق کاربر با تمام کاربران سیستم مقایسه شود و بین آنها، m تا از شبیه ترین افراد پیدا شده و با توجه به علایق آنها، آیتم های مناسبی را پیشنهاد داد، هر کاربر را با خوشه ها مقایسه می کنیم، و با توجه به آن، یک خوشه ی مشابه با کاربر را پیدا کرده و آیتم های مورد علاقه ی کاربران آن را به کاربر جدید پیشنهاد می دهیم. سیستم ما به گونه ای طراحی خواهد شد که خوشه بندی به صورت تجمیعی انجام شود. یکی دیگر از کارهایی که انجام شده، استفاده از روش های فازی است، چون یک کاربر ممکن است به چندین خوشه، شبیه باشد، در این حالت، با وزن های مختلف، به خوشه های مختلف تخصیص می یابد، لذا در هنگامی که می خواهیم یک آیتم را برای کاربر پیشنهاد دهیم ممکن است از آیتم های با امتیاز بالا درون چند خوشه ی مختلف به کاربر تخصیص یابد. از طرفی خوشه بندی انجام شده، به صورت تجمیعی خواهد بود، و برای محاسبه ی خوشه ها، با آمدن نمونه ی جدید، نمونه به یک خوشه ی شبیه تر تخصیص داده می شود. ترکیبی از ایده های فازی بودن و خوشه بندی، منجر به ایجاد یک روش خوشه بندی ترکیبی جدید خواهد شد.
سمیرا قدرت نما رضا بوستانی
طبقه بندی کننده ها یکی از قوی ترین ابزارها در حوزه شناسایی الگو و یادگیری ماشین می باشند و تاکنون روش های یادگیری، توپولوژی و ساختارهای متفاوتی برای آن ها ارائه شده است. از آنجایی که نقطه قوت طبقه بندی کننده در شکل دادن به مرز بین کلاس ها متفاوت است، انتخاب نوع طبقه بندی کننده به چینش نمونه ها در فضای ویژگی بستگی دارد. باوجود ساختارها و روش های متعدد ارائه شده، هنوز یکی از چالش های موجود برای محققان در این زمینه، طراحی یا انتخاب یک مدل مناسب برای داده های جدید با توزیع های ناشناخته است. هدف این پژوهش، ارائه یک طبقه بندی کننده توزیع شده هوشمند است. در این روش، ابتدا فضای ورودی با استفاده از الگوریتم های خوشه بندی موثر، تقسیم بندی شده و سپس بر روی هر زیر فضا (خوشه) یک یا چند یادگیرنده آموزش می بیند. در فاز آزمایش، برای هر نمونه ورودی ابتدا تعلق آن به یکی از زیر فضاها با معیار فاصله تعیین شده و سپس طبقه بندی کننده آن زیر فضا وظیفه تعیین برچسب آن نمونه را به عهده می گیرد.
راضیه دارشی مریم دهقانی
آسیب های موجود در ستون فقرات منجر به ایجاد وقفه در سیگنال های الکتریکی ارسالی از مغز به ماهیچه ها می شود. این آسیب ها انقباض ماهیچه را تحت تاثیر قرار می دهد و منجر می شود که فرد در زیر سطح ضایعه دچار از کار افتادگی شود. سیگنال تحریک الکتریکی کاربردی(fes) می تواند توانایی انقباض ماهیچه را بازیابی کند. fes با استفاده از الکترودها جریان الکتریکی را به عصب های پا ارسال می کند. این چنین سیگنالهای تحریکی منجر به انقباض ماهیچه و درنهایت ایجاد یک سری حرکات مصنوعی در فرد می شود. یک ترتیب مناسب از این حرکات مصنوعی می تواند یک فرد ناتوان را قادر به راه رفتن کند. مطابق آنچه که در بالا گفته شد یک سیستم کنترلی حلقه باز تعریف شده است و بنابراین یک کنترل کننده نیاز است تا سیگنال الکتریکی مورد نیاز برای بازیابی راه رفتن فرد ناتوان حرکتی را فراهم کند. در این پایان نامه به مدلسازی و طراحی یک کنترل کننده حلقه بسته برای راه رفتن فرد ناتوان حرکتی از پا با استفاده از fes پرداخته شده است.
مریم سمیعی نسب رضا ثامنی
مانیتور کردن وضعیت جنین به طور پیوسته نقش مهمی در حفظ سلامت وی ایفا می کند. از جمله مواردی که نیاز به مانیتور کردن مداوم در بارداری های پر خطر دارد، نرخ ضربان قلب جنین و تغییرات آن در طول بارداری می باشد. در حال حاضر روش متداول مورد استفاده توسط پزشکان مبتنی بر امواج اولتراسوند می باشد. این در حالیست که سیگنال آکوستیکی قلب جنین که آن را فونوکاردیوگرام (pcg) می نامند کاملاً غیر تهاجمی بوده و می توان از آن به عنوان جایگزینی مناسب برای مانیتور کردن نرخ ضربان قلب جنین استفاده کرد. برای این منظور در این پایان نامه ابتدا سعی به جمع آوری مجموعه ای از سیگنال های pcg مربوط به بزرگسال و جنین شده است. این مجموعه داده ها که با نظارت مستقیم پزشک و پرستار متخصص جمع آوری شده اند، می تواند در ارزیابی عملکرد الگوریتم های مختلف مورد استفاده قرار گیرد. سپس با بررسی روش های موجود برای سیگنال های صوتی تک کاناله که مبتنی بر جداسازی منابع به صورت کور می باشند، یک چارچوب پردازشی برای حذف نویز و استخراج منابع مختلف موجود در سیگنال تک کاناله ی ثبت شده از روی شکم مادر، ارائه شده است. چارچوب پیشنهادی با در نظر گرفتن ترکیب خطی منابع در سیگنال تک کاناله ثبت شده و با استفاده از تبدیل های emd و nmf، سیگنال pcg جنین را از سیگنال اولیه ثبت شده استخراج می کند. نتایج به دست آمده با اولتراسوند داپلر مقایسه شده است. عملکرد الگوریتم در نسبت توان سیگنال به نویزهای (snr) مختلف مورد بررسی قرار گرفته است. در بین 2741 ضربان قلب شناسایی شده توسط داپلر، الگوریتم ارائه شده قادر به تشخیص 2601 ضربان در snr=0db شده است که این منجر به دقت 95% الگوریتم در این snr شده است. علاوه بر این در این پایان نامه یک مدل دینامیکی برای تولید سیگنال pcg ارائه شده است. مدل ارائه شده که فرآیند مدل سازی سیگنال مذکور را با رویکردی متفاوت نسبت به سایر مدل ها دنبال می کند. در این رویکرد، سیگنال pcg به عنوان یک فرایند تصادفی در نظر گرفته می شود که حاصل خروجی فیلترهای ابداع تطبیقی با ورودی نویز سفید است. سیگنال های تولید شده توسط این مدل هم در حوزه ی زمان و هم در حوزه ی فرکانس با سیگنال های واقعی شباهت فراوانی دارند؛ لذا امید است که بتوان در آینده از آن در چارچوب های پردازشی بر مبنای مدل، به منظور پردازش سیگنال فونوکاردیوگرام جنین استفاده کنیم.
ملیکا مستقیم رضا بوستانی
امروزه با گسترش استفاده از اینترنت و تبادل فایل های دیجیتالی در بستر آن، امنیت اطلاعات به یکی از عوامل مهم در این زمینه تبدیل شده است. در این زمینه، روش های مختلفی در جهت حفظ محرمانگی پیغام، توسعه یافته اند. تعدادی از این روش ها، روش های رمزنگاری اطلاعات هستند به صورتی که پیغام رمز را به پیغام غیرقابل فهمی برای اشخاص دیگر تبدیل می کنند. در بعضی از موارد نگه داشتن محتوای یک پیغام محرمانه کافی نیست و ممکن است حفظ وجود پیغام رمز نیز لازم باشد. برای این منظور از روش های پنهان نگاری اطلاعات بهره برده می شود.
طناز هادیان رضا بوستانی
سیستم های واسط کامپیوتری-مغزی سیستم هایی هستند که می توانند سیگنال های الکتریکی مغزی مرتبط با تصورات حرکتی در مغز انسان را به دستورات قابل فهم کامپیوتری ترجمه کنند. لذا این قابلیت می تواند به کمک بسیاری از بیماران حسی-حرکتی بیاید و تا حد بسیار بالایی مشکلات آن ها در راستای ارتباط با محیط پیرامونشان را رفع کند. اما سیستم های کنونی به علت نداشتن دقت بالای کافی برای همه افراد، هنوز نتوانسته اند به صورت تجارتی وارد بازار شوند. در راستای بهبود دقت و عملکرد این سیستم ها، به صورت تجربی نشان داده شده که استفاده از روش "الگوی مکانی مشترک" برای استخراج ویژگی های جدا کننده مناسب از سیگنال های مغزی، روشی بهینه در سیستم های واسط کامپیوتری-مغزی همگام است ولی هنوز دارای مشکلات و چالش هایی می باشد. در این پژوهش دو راهکار برای اصلاح روش غیر خطی الگوی مکانی مشترک مطرح شده است: راهکار اول که شخصی سازی الگوریتم غبرخطی است، خود شامل دو روش ترکیبی جدید می باشد. روش اول با افزودن اطلاعات فرکانسی-مکانی سیگنال به روش الگوی مکانی مشترک، منجر به بهبود عملکرد الگوریتم در راستای پیدا کردن ویژگی های متمایز بهتری شده و بر مبنای همین ویژگی ها، دقت کلاس بندی داده ها افزایش می یابد. در روش دوم که به دو طریق مختلف پیاده سازی شده، مقدار هم فعالیتی دو به دوی همه کانال ها به فرمولاسیون csp تزریق می شود و سپس مقادیر به دست آمده توسط یک تابع کرنل خطی، به فضای دیگری می روند و در نهایت جداسازی بین تصورات حرکتی را بهبود می بخشند. راهکار دوم، سازگار کردن الگوریتم با ورود داده جدید است که اینکار یکبار با تعریف تابع کرنلی با تعداد پارامترهای آزاد زیاد صورت گرفته است و بار دیگر با به روزرسانی ماتریس کوواریانس کرنلی شکل گرفته است که طبق نتایج به دست آمده، این راهکار از هر دو طریق با مشکلاتی همراه بوده و نتوانسته دقت تشخیص بالاتری را فراهم آورد.
حامد کللری حمیدرضا مومنی
تجهیزات کمکی بطن چپ(lvad)، پمپ های مکانیکی است که به کمک عمل جراحی در بدن بیمارانی که در مراحل خطرناک و نهایی نارسایی تراکمی قلب هستند، قرار می گیرد و به ادامه یافتن جریان خون همچون حالت طبیعی از قلب بیمار کمک می نماید. پمپ های نوع روتاری یا چرخان، میزان جریان خون عبوری از lvad را به کمک کنترل سرعت متغیر پره های پمپ کنترل می نماید. یکی از چالش های مهم در بکار بردن این تجهیزات، اجتناب از پمپاژ بیش از اندازه خون از بطن چپ (که به عنوان پدیده مکش یا suction شناخته می شود) می باشد، که باعث تخریب قلب بخاطر سرعت بالای پمپ می شود. یکی از نوآوری های این سیستم کنترلی، کنترل سرعت برای اجتناب از قرارگیری در این محدوده می باشد. در این پایان نامه، ابتدا مدار ترکیبی مدل غیر خطی متغیر با زمان، lvadبا سیستم قلبی- عروقی مورد بررسی قرار خواهد گرفت. با استفاده از این مدل، مشخصه مکش (suction index) برای تشخیص حالت مکش مورد آزمایش قرار می گیرد. در پایان، سیستمی کنترلی، بر پایه منطق فازی و مدل پیشگویانه ارائه خواهد شد که سیگنال جریان پمپ را برای تنظیم سرعت پمپ بر اساس مشخصه مکش و آستانه مربوطه تنظیم می کند. هدف این روش کنترلی، بروزرسانی و متناسب سازی سرعت چرخش پمپ برای تطابق با تغییرات فیزیولوژیکی بیمار در کمترین زمان و بدون رخداد پدیده مکش می باشد. نتایج شبیه سازی برای شرایط مختلف و سطح فعالیت های مختلف بیمار ارائه خواهد شد و قدرتمندی کنترلر در کاهش اثرات نویز نیز مورد بحث و بررسی قرار خواهد گرفت.
ابراهیم اشراقی سامانی رضا بوستانی
اخیرا ویژگیهای تصاویر سیاهرگهای انگشتان دست به علل مختلف مورد توجه محققان بیومتریک قرار گرفته اند. آسانی اخذ این تصاویر توسط اشکارساز مادون قرمز، ثابت بودن بافت آن در طول زمان، همچنین درونی بودن بافت رگها و در نتیجه ساده نبودن جعل آن، از ویژگیهای مهم این تصاویر برای سیستمهای بیومتریک محسوب میگردد.
لیلا مرتضوی منصور ذوالقدری جهرمی
گرانبار شدن اطلاعات همراه با بازیابی اطلاعات یک مشکل عمده در وب کنونی به شمار می رود. برای مقابله با این مشکل، روشهای بسیاری برای بازیابی اطلاعات ارائه شده اند که بازیابی اسناد را با کاربران براساس علایق و نحوه پرسش آن ها سازگار می کنند. یک مولفه ی اساسی در هر سیستم بازیابی اطلاعات، کلمات کلیدی آن است. محتوای صفحات یک سند را می توان به منظور ایجاد مدل دقیق تری از کاربر مورد استفاده قرار داد، اما رویکردهای مبتنی بر کلمات کلیدی نگرش عمیقی از اسناد ندارند. اخیرا تحقیقاتی برای ترکیب کردن معنای موجود در وب سایت در نمایش کاربران آن انجام شده است. تمامی این تلاش ها یا از یک رده بندی یا واژگان شناختی خاص و دست ساخته و یا از واژگان شناختی های عمومی مانند wordnet برای نگاشت کلمات کلیدی مرتبط به پرسشها استفاده می کنند. با این وجود ساختن یک سلسله مراتب از مفاهیم بصورت دستی زمان بر و هزینه بر است. از سوی دیگر منابع معنایی لغوی عمومی از پوشش کم عبارات خاص دامنه رنج می برند. در این پایان نامه ما قصد داریم که هر دوی این نقص ها را برطرف کنیم. دستاورد اصلی ما این است که مکانیسمی برای بهبود بازیابی اطلاعات با ترکیب مدل فضای برداری(vector space model) و مدل فازی(fuzzy model) معرفی می کنیم. معماری ارائه شده شامل تعدادی مولفه است که عبارتند از: پیش پردازش اولیه، استخراج استخراج کلمات کلیدی از اسناد و پرسشها، سازنده ی بردار اسناد و پرسشها و نگاشت کلمات کلیدی مرتبط با پرسشها. دستاورد مهم دیگر استفاده از ساختار وب سایت برای محدود کردن خودکار مفاهیم خاص دامنه می باشد. سرانجام، آخرین دستاورد آن یک روش جدید نگاشت کلمات کلیدی به پرسشها است. ارزیابی های ما نشان می دهد که روش پیشنهادی همراه با منبع معنایی لغوی جامع آن کاربران را بصورت موثرتری نسبت به روش کلمات کلیدی وروش فضای برداری و فازی و نیز روش های بر مبنای wordnet نمایندگی می کند.
شهریار ساداتیه مریم دهقانی
دستگاه کمکی بطن چپ قلب (lvad) یک پمپ مکانیکی قابل کاشت در بدن بیمارانی است که قلب آنها نارسایی تراکمی دارد و به قلب برای پمپاژ خون کمک می کند. یکی از بزرگترین چالش های استفاده از این ابزار ، مهیا کردن شرایط ایده آل برای بیمار ( تا حد ممکن نزدیک به شرایط نرمال) است. طراحی کنترلری که بتواند به صورت اتوماتیک سرعت پمپ را متناسب با نیاز شخص تنظیم کند، یکی از دشوارترین مراحل کار است. هم چنین قابلیت تطبیق سرعت پمپ، متناسب با تغییر میزان فعالیت بیمار برای جلوگیری از پمپاژ بیش از حد خون (که در اصلاح مکش گفته می شود و سبب فروپاشی بطنی و آسیب رسیدن به ماهیچه های قلبی می شود) نیز از اهمیت زیادی برخوردار است. در این پایان نامه، مدل غیر خطی سیستم قلبی عروقی به همراه مدل پمپ مکانیکی موازی شده با بطن چپ معرفی می شود. سپس، روشی مفید برای کنترل دقیق سرعت پمپ، بدون استفاده از اندیس های مکش ارائه می گردد. بر همین مبنا دو هدف کنترلی مجزا قابل تعریف است. هدف کنترلی اول تعقیب الگوی فلوی پمپ از الگوی فلوی خارج شده از قلب سالم و صفر کردن خطای تعقیب تعریف می شود. در این پژوهش، برای رسیدن به این منظور از کنترلر فیدبک حالت استاتیک، دینامیک و همچنین pid استفاده می شود. ایده کنترلی دوم افزایش سرعت پمپ تا مرز رسیدن به سرعت مکش می باشد. برای رسیدن به این هدف از کنترلر جستجوگر اکسترمم برای حداقل سازی دامنه سیکل حدی استفاده می شود. نشان داده می شود که در این حالت بطن چپ تقریبا از چرخه گردش خون حذف می شود و خروجی قلبی مناسب توسط پمپ تامین می شود.
سوژا میثاق رضا بوستانی
چکیده ندارد.
امیر دامری رضا بوستانی
چکیده ندارد.
احسان تمیس رضا بوستانی
چکیده ندارد.
سمیه علی زاده زوج رضا بوستانی
چکیده ندارد.
امیر باوندپوری رضا بوستانی
چکیده ندارد.
بهروز نصیحت کن رضا بوستانی
چکیده ندارد.
ابراهیم انصاری چلچه غلامحسین دستغیبی فرد
چکیده ندارد.
عبدالحمید ابطحی رضا بوستانی
چکیده ندارد.
امیر دامری رضا بوستانی
امضاء کور یکی از انواع امضاء دیجیتالی است که در آن، امضاء کننده بدون دانستن محتوای اطلاعاتی پیام، اقدام به امضاء آن می کند که محوریت کار این پایان نامه را در بر می گیرد. در این پایان نامه ابتدا به تشریح مبانی رمزنگاری پرداخته، سپس انواع امضاهای دیجیتالی از قبیل ron rivest, adi shamir, leonard ,adleman (rsa)الجمال, (digital signature algorithm) dsa و طرح طبیعی اشنور را تشریح و با هم مقایسه می کنیم و به ذکرکاربردهای آن در پروتکل set(secure electronic transaction) و نقش آن را در جهت افزایش امنیت پردازش داده ها بر روی اینترنت می پردازیم و سپس مبانی امضاء کور را معرفی کرده و انواع آن را به تفضیل شرح می دهیم و در نهایت به امضاء کور فن-چن حمله کرده و سپس به امضای کور لی-هوانگ-یانگ حمله کرده و امنیت آنها را از بین میبریم و بعد یک امضاء کور جدید بر اساس مبانی امضاء دیجیتالی الجمال ارایه می دهیم و بر اساس آن یک پروتکل جدید رای گیری الکترونیکی می سازیم.
ساره شکری پور رضا بوستانی
اوضاع جاری اقتصادی جهان، بنگاهها و سازمانها را ملزم به همکاری و هماهنگی بیشتر و ساخت سازمان ها و زنجیره های تأمین کاراتر جهت کاهش زمان و هزینه ها کرده است. بنابراین مدلهای مختلف تجارت الکترونیک، توسط محققان ارائه و مطرح شده است. بازارالکترونیک، آخرین مدل برای ایجاد زنجیره های تأمین هماهنگ و یکپارچه و بهبود مدیریت آنها است. از سوی دیگر عاملها ابزاری جدید و نویدبخش در طراحی مدلهای مختلف بازار می باشند. مدلهای بازار الکترونیک عامل گرای متعددی از سوی محققان ارائه شده است که هر کدام با هدف خاصی طراحی شده اند. این تحقیق سعی دارد با بررسی و مقایسه تعدادی از این مدلها و چالشهای فرا روی آنها مدلی ارائه دهد که این چالشها را برطرف کرده و روشهای تجاری موجود در جامعه را پشتیبانی کند و در نهایت کاربرد و زیرساخت و تجهیزات مورد نیاز آنرا ارائه خواهد داد.