نام پژوهشگر: میر محسن پدرام
سمیه برومندی کلهرودی رویا امجدی فرد
در سال های اخیر با رشد محتواهای الکترونیکی تولید شده توسط کاربر در فضای وب، منبع غنی از اطلاعات و نظرات در اختیار شرکت ها قرار داده شده است. با گسترش منابع داده یکی از چالش های شرکت های بزرگ، استخراج اطلاعات به صورت خودکار از این داده ها است. بنابراین نظرکاوی برمبنای ویژگی ها وخلاصه سازی آنها به یکی از مسائل مهم تبدیل شده است. هدف ما در این پژوهش استخراج ویژگی های محصول و نظرات بیان شده در زمینه ی آنها به صورت خودکار می باشد. در این پژوهش استخراج ویژگی های محصول و صفات نظر به عنوان یک فرایند همزمان انجام می گیرد. برخلاف کارهای انجام شده ی پیشین در یک فرایند پیش پردازش، ابتدا ضمایر موجود در متن شفاف سازی می گردند. استخراج ویژگی ها و صفات نظر به صورت یک مساله ی برچسب زنی دنباله در نظر گرفته شده است. و ازحوزه های تصادفی شرطی برای استخراج آنها استفاده می گردد. پس از استخراج ویژگی های محصول و صفات نظر، با استفاده از هستان شناسی ویژگی هایی که یکسان می باشند، در یک خوشه قرار می گیرند. در مرحله ی آخر نیز جهت گیری صفات نظر مشخص می گردد. به دلیل عدم وجود یک فرهنگ لغت جامع مانند wordnet در زبان فارسی و همچنین دشواری یافتن ادات سخن و مرجع ضمایر برای زبان فارسی، روش پیشنهادی بر روی متون انگلیسی مورد بررسی قرار گرفته است.
جعفر خاکپور میر محسن پدرام
محاسبات گرید یکی از زمینه های گسترده در حوزه پردازش های موازی است که امکان اشتراک منابع محاسباتی متفاوت و گسترده ای را برای تولید، ذخیره و پردازش داده بر روی یک شبکه ایجاد می کند. با توجه به نیاز روزافزون به توان پردازشی بالا برای انجام پردازش های حجیم و پیچیده بر روی داده ها، به وجود آوردن شبکه ای برای اشتراک منابع محاسباتی نیازی ضروری برای دانشمندان، متخصصان و حتی کاربران عادی تلقی می شود. یکی از راهکارهای پرطرفدار در معماری های گرید، استفاده از گریدهای دسکتاپ به عنوان یک راه حل ارزان قیمت و در دسترس می باشد. این سیستم ها عموما بر روی شبکه ای از کامپیوترهای داخل یک شرکت یا سازمان بنا می شوند. با توجه به اینکه، نوع منابع در دسترس، ناهمگونی آنها و زیرساختهایی که در شبکه مورد استفاده قرار می گیرند، با گریدهای تجاری تفاوتهای بسیاری دارد، برخی پارامترهای مطرح در این محیط که در گریدهای تجاری اهمیت چندانی ندارند، باعث کاهش کارایی در صورت استفاده سیستم های مدیریت منابعی میشوند که برای گریدهای تجاری دیگر طراحی شده اند. یکی از این عوامل مطرح، میزان قابلیت اطمینان و به عبارت دیگر میزان احتمال صحیح انجام صحیح یک وظیفه پردازشی سپرده شده به یکی از گره های شبکه است. با توجه به اینکه نرخ وقوع خطا در گریدهای دسکتاپ بالاتر از سایر انواع گریدها میباشد، نیاز به مدلی برای مساله مدیریت منابع که شامل این پارامتر نیز باشد، احساس میشود. در پژوهش اخیر مدلی برای تعیین نحوه تخصیص منابع بر اساس مفهوم یک حراج ترکیبی ارائه شده است. در این مدل سازی از مفهوم پایایی منابع به عنوان کالا هایی که در حراج به فروش می رسند استفاده شده تا تخصیصی را بیابد که بیشترین میزان سودآوری را برای مدیریت گرید به عنوان برگزار کننده این حراج مجازی خواهد داشت. در ادامه این پژوهش، الگوریتمی برای بدست آوردن جوابی برای این مساله پیشنهاد شده و در آخر کارایی الگوریتم در پیدا کردن جواب برای مدل و همینطور کارایی این مدل در مقابل مدلسازیهای مشابه که نرخ پایایی را در مدیرت منابع لحاظ نکرده اند، مورد بررسی قرار گرفته است.
حسام الدین پدرام عادل آذر
در این تحقیق جهت ارزیابی کارآیی شعب درجه یک بانک تجارت از منظر مبتنی بر سود، از متدولوژی تحلیل پوششی داده ها استفاده شده است. همچنین برای افزایش قدرت تفکیک پذیری و افزودن توانایی پیش بینی، از مدل تلفیقی شبکه های عصبی مصنوعی و تحلیل پوششی داده ها در دو حالت قطعی و فازی بهره برده شده است. نتایج این تحقیق نشان می دهد شبکه های عصبی قطعی و فازی به سبب قدرتمندی و انعطاف پذیری الگوریتم های مدل سازیشان، از پتانسیل زیادی برای تخمین نتایج تحلیل پوششی داده ها برخوردارند. همچنین نشان داده شده است بین نتایج روش تحلیل پوششی داده ها، تحلیل پوششی داده های عصبی و تحلیل پوششی داده های عصبی فازی، اختلاف معنادار وجود ندارد، اما امتیازهای به دست آمده از مدل تحلیل پوششی داده های فازی به دلیل ماهیت متفاوت مدل آن، با سه رویکرد دیگر دارای اختلاف معنادار می باشد.
مازیار یزدانی دماوندی حسین سیفی
یکی از برنامه ریزی های مهم در سیستم قدرت برنامه ریزی تعمیر و نگهداری واحدهای نیروگاهی می باشد. برنامه ریزی تعمیر و نگهداری واحدهای نیروگاهی عبارت است از: زمانبندی خروج واحدهای نیروگاهی جهت تعمیرات پیشگیرانه، با توجه به قیود شبکه و در جهت نیل به هدف مورد نظر که در بیشتر موارد کاهش هزینه های سیستم و یا افزایش قابلیت اطمینان آن است. با توجه به بحرانهای گازی در سالهای اخیر و وابستگی روز افزون سیستم قدرت به شبکه گاز این پایان نامه تلاش نموده است تا با ارائه مدلی برای برنامه ریزی تعمیر و نگهداری مقید به سوخت گاز زمانبندی مناسبی را برای خروج واحدهای تولید توان با توجه به کمبود در شبکه گاز ارائه نماید. همچنین در این پایان نامه با مدلسازی نیروگاههای دوگانه سوز و سیکل ترکیبی اثرشان در این برنامه ریزی نشان داده شده است و مدلی شبه دینامیکی برای شبکه گاز بیان شده است. درضمن به منظور محاسبه میزان مصرف گاز واحدهای گازی برنامه ریزی ساعتی مشارکت واحدها در طول دوره اجرا شده است. مدل ارائه شده بر روی شبکه نمونه آزمایش شده و نتایج بدست آمده نقش تاثیرگذار مدلسازی شبکه گاز را در برنامه ریزی تعمیر و نگهداری سیستم قدرت تاکید می کند.
عصمت پاکیزه حاجی یار مازیار پالهنگ
مشارکت کلید اصلی رسیدن به موفقیت در سیستم های طبیعی و مصنوعی به شمار می رود و از این رو مشارکت در سیستم های چندعامله به منظور رسیدن به راه حل های بهتر ضروری به نظر می رسد. انتظار می رود که یادگیری مشارکتی چندعامله در مقایسه با یادگیری مستقل عامل ها، به دلیل دارا بودن دانش و منابع اطلاعاتی بیشتر به نتایج بهتری از نظر کیفی و سرعت یادگیری دست یابد. استفاده از استراتژی های مشارکت بهتر منجر به افزایش سرعت و کیفیت یادگیری می شود. یادگیری مشارکتی نوعی فعالیت یادگیری گروهی سازمان دهی شده است که در آن یادگیری به مبادله اطلاعات ساختار یافته ازنظر اجتماعی ببین یادگیرنده ها بستگی دارد در حالی که هر یادگیرنده به تنهایی مسئول یادگیری خود نیز هست. هدف این پایان نامه ارائه روشی نوین برای پاسخ به این سوال است که "چگونه عامل ها می توانند از مبادله اطلاعات در طول فرآیند یادگیری مشارکتی به منظور دستیابی به عملکرد بهتر از نظر فردی و از نظر عملکرد کلی گروه استفاده کنند؟" تحقیقات در حوزه یادگیری مشارکتی نشان داده اند که در این حوزه دو سوال کلی مطرح است: "چه اطلاعاتی باید بین عامل ها مبادله شود؟" و "اطلاعات به اشتراک گذاشته شده، چگونه باید استفاده شوند؟" . امروزه بیشتر تحقیقات در حوزه یادگیری مشارکتی چندعامله از یادگیری تقویتی به عنوان روش یادگیری پایه خود استفاده می کنند. یادگیری تقویتی به دلیل ساختار یادگیری فاقد نظارت و قابلیت یادگیری پیوسته اش حتی در محیط های پویا، یکی از معتبرترین تکنیک های یادگیری ماشین به شمار می رود. استفاده از این نوع یادگیری در سیستم های چندعامله مشارکتی به هر عامل مستقل این اجازه را می دهد که علاوه بر این که از تجربیات خود می آموزد، از سایر عامل های حاضر در سیستم نیز بیاموزد و بدین ترتیب سرعت یادگیری افزایش یابد. انسان در طول دوره زندگی تجربیات مختلفی را در بازه های زمانی متفاوتی از زندگی اش می آموزد. گاهی تجربیات فرد به طور کامل موفقیت آمیز هستند و گاهی شکستی کامل محسوب می شوند. شخصیت یک فرد بر اساس در نظر گرفتن همه تجربیاتش در کنار هم شکل می گیرد. در واقع تصمیم های هر فرد بر اساس شخصیت شکل گرفته اش اتخاذ می شود. در این پایان نامه سعی بر این است که چنین مفهومی به حوزه یادگیری در سیستم های چندعامله منتقل شود. برای رسیدن به این هدف، در این مطالعه مفهوم جدیدی به نام خبرگی چندمعیاره معرفی شده است که اطلاعات ارزشمندی درباره تجربیات مختلف عامل ها در یک سیستم چندعامله مشارکتی را در بردارد. هم چنین در این پایان نامه الگوریتم یادگیری مشارکتی جدیدی پیشنهاد داده شده است که به منظور رسیدن به مشارکت بهتر از مفهوم خبرگی چندمعیاره استفاده می کند. روش پیشنهادی در مقایسه با سایر روش های موجود توانایی بالایی در استفاده از اطلاعات و دانش موجود دارد که همین امر نیز منجر به عملکرد بالای آن می شود. بیشتر تحقیقات مرتبط در حوزه یادگیری مشارکتی بر روی بهبود یادگیری گروهی به واسطه تغییر جداول q عامل ها با استفاده از اطلاعات انتقال داده شده تمرکز دارند در حالی که در روش پیشنهادی اطلاعات انتقال داده شده بین عامل ها به عنوان راهنما در انتخاب عمل همه عامل ها در نظر گرفته می شود. به عبارت دیگر هر عامل در حالی که دانش جزیی خود را حفظ می کند بوسیله دانش جمعی که در جدول مشارکتی q وجود دارد، هدایت می شود. استفاده از روش پیشنهادی هدایت عامل ها را پایدارتر ساخته است. در واقع یک جدول مشارکتی q مناسب، فرآیند یادگیری را تسریع می کند و در صورتی که مناسب نباشد، جدول q عامل قادر خواهد بود که ناکامل بودن آن را جبران کند. برای ارزیابی روش پیشنهادی از دو محیط آموزشی معتبر پلکان مارپیچ و صید و صیاد استفاده شده است. نتایج آزمایش ها پتانسیل بالای روش پیشنهادی در یادگیری مشارکتی بهتر را تایید می کنند.
علی فردین پور میر محسن پدرام
با توجه به استقبال روز افزون از آموزش الکترونیکی در تمامی سطوح آموزشی و نیاز مبرم اینگونه از آموزش به یک سیستم مدیریت یادگیری کارآمد؛ و همچنین با توجه به بالا رفتن سریع کاربرد عناصر هوشمند در تمامی عرصه های دنیای الکترونیک، بسیاری از شرکت های تولید کننده نرم افزار سعی می نمایند که تا حد ممکن سیستم های مدیریت یادگیری خود را به صورت هوشمند طراحی نمایند. اما اینکه این شرکت ها چه میزان در این امر موفق بوده، این سیستم ها از چه میزان هوشمندی برخوردار می باشند، و همچنین این نکته که کاربران قادر باشند توسط ابزاری مشخص میزان هوشمندی سیستم های مختلف را نسبت به هم بسنجند بسیار مهم می باشد. در این تحقیق به چند نکته مهم در این زمینه پرداخته شده است. ابتدا تعریفی جامع و فراگیر از هوشمندی سیستم های مدیریت یادگیری ارائه گردیده است. همچنین معیارها و عوامل هوشمندی در سیستم های مدیریت یادگیری، بر مبنای سیستمهای ارائه شده در تحقیقات قبلی انتخاب و مورد بررسی قرار گرفته است و برترین آنها به عنوان ویژگی ها و ابزارها اصلی هوشمندی یک سیستم مدیریت یادگیری برگزیده شده اند. با توجه به اینکه مرز معیارها و میزان تاثیرگذاری آن ها دقیق نیست، سعی شده است که آنها را به صورت فازی و زبانی بیان نموده و سپس مدلی برای سنجش و مقایسه ی میزان هوشمندی این سیستم ها با استفاده از روش های تصمیم گیری چند شاخصه ی فازی و روش فرآیند تحلیل سلسله مراتبی فازی ارائه شده است.
مهدی مرادی کوپایی میر محسن پدرام
از آنجائی که کارکنان به طور واقعی سرمایه های اصلی و ارزش آفرینان حیاتی در سازمانها و بازاررقابتی به شمار می روند و از طرفی محدودیت منابع انسانی مستعد و کمبود مهارتها، و نیز آگاهی و تشخیص سازمانها همراه با نیاز به مدیریت استعدادها، سبب شده است که مدیریت جانشین پروری از چالشهای عمده بازار کار به شمار آید.تحقیق حاضر کوشیده است تابا استخراج معیارهای انتخاب سرپرستان وساختار تحلیلی آن ضمن در نظر گرفتن محدودیتهای موجود تعیین وزن معیارها با استفاده ار رویکرد ریاضی جدید" فرایند تحلیل سلسله مراتبی" ،مقایسه نتایج عددی استفاده از رویکرد ریاضی جدید " فرایند تحلیل سلسله مراتبی" روش نوینی را برای انتخاب بهترین گزینه وتعیین نیازهای سایر گزینه ها برای توسعه در شرکت سهامی ذوب آهن اصفهان ارائه دهد.روش تحقیقی استفاده شده در این پژوهش از نوع توصیفی پیمایشی می باشد در بررسی مطالعات توصیفی از مطالعات کتابخانه ای ودر بررسی مطالعات میدانی از ابزار مصاحبه وپرسشنامه استفاده شده است
روح اله اسماعیلی منش احمد فراهی
زمانبندی و نگاشت تقدم کارها بین پردازنده ها در یک سیستم توزیع شده یکی از مسائلی که توجهات زیادی را به خود جلب کرده است. این مسئله شامل نگاشت یک dag با مجموعه ای از کارها بر روی تعدادی پردازنده موازی است؛ و هدف آن تخصیص کارها به پردازنده های در دسترس است به طوری که نیاز تقدم و تاخیر ارضاء شود و همچنین طول زمان اجرای کل گراف کمینه شود. سیستم محاسبات ابری یکی از سیستم های توزیع شده است که بستر مناسبی برای اجرای این دسته از کاربردها را فراهم نموده است در این سیستم مشتریان از منابع استفاده نموده و با توجه به میزان استفاده هزینه پرداخت می نمایند. از طرفی توزیع کارهای جریان کار بر روی سرورهای محاسباتی ابر به یک چالش مهم در این زمینه تبدیل شده است زیرا ممکن است یک سرور محاسباتی برای یکی از کارها اختصاص داده شود و پس از اجرای آن کار تا دریافت کار بعدی مدتی بیکار بماند این امر باعث افزایش هزینه های محاسباتی (که به صورت سرور/ساعت تعیین می شود) برای مشتریان و کاهش بهره وری از منابع محاسباتی می شود. ولی چنانچه نگاشت کارها بر روی سرورها به گونه ای باشد که فاصله زمانی بین دریافت و آزاد سازی سرور کمینه باشد هزینه ها کاهش می یابد؛ لذا برای اجرای موثر و کارآمد آنها نیاز به یک زمانبند مناسب که نحوه توزیع و ترتیب اجرای کارها را در سیستم توزیع شده مشخص کند احساس می شود. ولی با توجه به پرداخت مبنی بر میزان استفاده در این سیستم کاهش هزینه های محاسباتی نیز بایستی به عنوان هدف دیگری در ا در نظر گرفته شود. ما قصد داریم رویکردی برای زمانبندی و نگاشت کارهای جریان کار علمی بر روی سرورهای محاسباتی ارائه دهیم به طوری که به محض دریافت یک سرور محاسباتی تا زمان آزاد سازی آن، مدت زمان بیکاری آن را تا حد امکان کاهش دهیم و از طرفی زمان اجرای کل جریان کار تا حد ممکن کمینه شود. ما در این تحقیق یک رویکرد به منظور کاهش هزینه های محاسباتی و افزایش بهره وری از قدرت محاسباتی سیستم محاسبات ابری ارائه خواهیم داد. شبیه سازی ها نشان می دهد که رویکرد ارائه شده نسبت بهschedule list بهره وری استفاده از منابع محاسباتی را افزایش می دهد.
راضیه رحمانی میر محسن پدرام
کلیه خصوصیات و صفات موجودات زنده، از ماده ژنتیکی آن ها نشات می گیرد. لذا شناسایی و کشف ترتیب و نوع عناصر سازنده این ماده، اساس بسیاری از علوم را تشکیل می دهد. توالی دی ان ای موجودات با استفاده از چهار عنصر تعیین می شود. تفاوت در ترتیب قرارگیری این عناصر نسبت به هم، عامل بروز ویژگی های متفاوت در موجودات است. تکنولوژی هایی که به بررسی ژنوم موجودات پرداخته و سعی در شناسایی عناصر و ترتیب آن ها نسبت به هم دارند، تکنولوژی های توالی یابی، خوانده می شوند. به دلیل کاربرد بسیار بالای توالی شناخته شده ژنوم، تلاش برای ارائه روش هایی که سرعت بالاتر و هزینه پایین تری به همراه داشته باشند، مدت ها ادامه داشت. در سال 2005 روش های نوینی ابداع شدند که فرآیند توالی یابی را به صورت موازی انجام می دادند. این تکنیک ها در مدت زمانی بسیار اندک، ژنومی طولانی را توالی یابی می کنند. اما استفاده از این تکنیک ها به دلیل نبود الگوریتمی کارا برای مونتاژ قطعات حاصله، محدود شده است. الگوریتم هایی که پیش از این و متناسب با نسل پیشین داده ها ارائه شدند، با تغییر طول قطعات و کوتاه شدن آن ها در نسل جدید، کارایی لازم را ارائه نمی کنند. در این پژوهش الگوریتمی ارائه شده است که با سطح اطمینان بالایی توالی هدف را از قطعات حاصل از نسل جدید داده ها، بدست می آورد. علاوه بر سطح اطمینان بالا، ماکزیمم طول قطعات و متوسط طول آن ها در مقایسه با الگوریتم های حریصانه موجود، بهبود یافته است. مساله قابل توجه این است که تعداد کان- تیگ های روش پیشنهادی، کاهش قابل توجهی داشته و معیار n50 در همه مواردافزایش پیدا کرده است.این شواهد دال بر کیفیت بالای کان- تیگ های حاصل از مونتاژ می باشد.
مهدی طاهریان منوچهر کلارستاقی
امروزه موسسات مالی به اهمیت، داشتن یک مدل رتبه بندی اعتباری به منظور حفظ توان رقابتی و همچنین کاهش ریسک عملیاتی خود کاملاً آگاه می باشند. نتیجه رتبه بندی بهتر و دقیق تر متقاضیان صرفه جویی در هزینه های عملیاتی موسسات مالی می باشد. تصمیم گیری های نادرست در حوزه اعتباری، سطح بالایی از ریسک را به بانک ها و موسسات مالی تحمیل می کند. به همین علت در چند دهه گذشته اشتیاق زیادی برای ارائه روش های جدید به منظور رتبه بندی اعتباری برای نائل شدن به نتایج بهتر در بین محققان به وجود آمده است. رتبه بندی اعتباری فرایندی به منظور تعیین درجه ریسک پرداخت وام به مشتریان می باشد. که از طریق بررسی شخصیت و ویژگی های متقاضیان مختلف این میزان ریسک مشخص می شود. واضح است که مدل هایی که به منظور رتبه بندی مشتریان طراحی می شوند باید دارای قابلیت تطابق پذیری با زمان، مقاومت و کارایی در مقیاس های بزرگ باشند. با گسترش تکنیک ها و استفاده از روش های پیچیده و دقیق تر مانند روش های آماری و در دهه های اخیر استفاده از مدل های مبتنی بر شبکه های عصبی، و سیستم های خبره و الگوریتم ژنتیک دقت این پیش بینی ها تا حد قابل قبولی افزایش یافته است. در کشور ما فقدان شاخص های ریسک اعتباری و نیز نبود موسسه های رتبه بندی ریسک اعتباری به وضوح احساس می شود. سیستم ایمنی مصنوعی که بر اساس الهام از طبیعت به وجود آمده به علت دارا بودن ویژگی های خاص به منظور استفاده در زمینه رتبه بندی اعتباری مناسب به نظر می رسد. مهم ترین ویژگی این سیستم، ذات پویای آن می باشد. علاوه بر این ویژگی، انگیزه های دیگری نیز برای استفاده از سیستم ایمنی وجود دارد، این انگیزه ها عبارتند از تنوع، حافظه، خود تنظیمی و یادگیری که در سیستم ایمنی وجود دارد. در این پایان نامه به طراحی، پیاده سازی و ارزیابی الگوریتمی بر اساس سیستم ایمنی مصنوعی به منظور رتبه بندی اعتباری متقاضیان خواهیم پرداخت. در این الگوریتم با استفاده از مفهومی به نام energy distance سعی در بهبود نتایج الگوریتم پیشنهادی داریم.
وحید شکرزاده خامنه منوچهر کلارستاقی
امروزه با افزایش استفاده از اینترنت و حملات سایبری اهمیت مقاوم سازی شرکت ها و سازمان ها در مقابل حملات احتمالی به سیستم های اطلاعاتی بیشتر مورد توجه قرار می گیرد. یکی از ابزارهای امنیتی که برای این مهم مورد استفاده قرار می گیرد سیستم های تشخیص نفوذ (ids) هستند. هدف این سیستم ها تشخیص حملات یا استفاده غیر مجاز از منابع در شبکه یا یک کامپیوتر می باشد. بمنظور تولید چنین سیستم هایی روش های هوشمند بسیاری پیشنهاد و مورد آزمایش قرار گرفته است. یکی از این روش ها که در سال های اخیر بیشتر مورد توجه قرار گرفته است هوش ازدحامی(swarm intelligence) است، قابلیت خود سازماندهی و رفتار توزیع شده این روشها از جمله خصوصیاتی است که این رویکردها را برای حل مسائل تشخیص نفوذ مناسب می سازند. بهینه سازی کلونی مورچه ها (aco) بعنوان یکی از الگوریتم های موفق در حوزه هوش ازدحامی علاوه بر مسایل بهینه سازی در الگوریتم های داده کاوی نیز مورد استفاده قرار گرفته است. در این پایان نامه پیشنهاد هایی برای بهبود ant-miner که یک الگوریتم استخراج قواعد تصمیم گیری بر پایه کلونی مورچه ها می باشد ارائه شده و برای استفاده در سیستم های تشخیص نفوذ مورد آزمایش قرار گرفته است. نخست یک تابع ارزیابی قواعد جدید بمنظور افزایش دقت تصمیم گیری پیشنهاد و سپس یک روش وزندهی بمنظور مقابله با مشکلات موجود در تولید قواعد در مجموعه داد های نا متعادل (imbalance) بکار گرفته شده است. نتایج آزمایش ها نشان می دهند که پیشنهاد های ارائه شده با تکیه بر انتخاب تابع هدف مناسب و با در نظر گرفتن نا متعادل بودن مجمعوعه داده مورد آزمایش، توانسته است الگوریتم ant-miner را بعنوان یک روش استخراج پایه استخراج قوانین طبقه بندی بر پایه کلونی مورچه، در حوزه داده کاوی و تشخیص نفوذ بهبود بخشد
نسرین نادریان منوچهر کلارستاقی
چکیده در طی چند دهه ی اخیر ،مسئله تولید انرژی از طریق شبکه برق ، یکی از مهمترین مسائل اقتصادی ومورد توجه کشور های در حال توسعه بوده است .در این راستا تجدید ساختار شبکه برق از طریق تولیدات پراکنده بسیار موثر بوده است.یکی از مزیت های عمده اتصال تولیدات پراکنده به شبکه برق ،کاهش تلفات شبکه برق است . که این امر یعنی کاهش تلفات تا حدود زیادی به مقدار و محل اتصال تولید پراکنده به شبکه برق دارد .بدین ترتیب با یافتن مقدار و محل بهینه منبع تولید پراکنده با استفاده از روش مناسب می توان مقدار تلفات شبکه را به کمترین مقدار ممکن رساند. ازجمله روش هایی که درحل این مساله درسال های اخیر مورد توجه قرار گرفته است،استفاده از روش های هوشمند است .در این پایان نامه از الگوریتم bbo برای مکان یابی تولیدات پراکنده روی یک شبکه ieee سیصد باس استفاده شده است و همچنین نتایج حاصل از همگرایی و زمان اجرای الگوریتمbbo با نتایج حاصل از همگرایی و زمان اجرای الگوریتم های pso وaco در حل مسئله مکان یابی شبکه برق مقایسه شده است. لازم به ذکراست ،در این پایان نامه سعی شده است که با تغییر الگوریتمbbo ،نرخ همگرایی وزمان اجرای الگوریتم بهبود یابد. با ارزیابی نتایج، مشاهده می شودکه روش پیشنهادی با توجه به فضای مسئله برق ، نسبت به الگوریتم pso، aco عملکرد بهتری دارد.
عالیه بهاری میر محسن پدرام
با گسترش علم کامپیوتر، زمینه های پژوهشی آن نیز بسیار گسترش یافته و به علوم دیگر راه یافته است. یکی از این زمینه ها علم ژنتیک است. رشته ی بیوانفورماتیک در واقع حاصل ورود این علم به حوزه کامپیوتر است. با شناسایی ژنوم انسان در سال 2003 و همچنین پایان یافتن پروژه hapmap در سال 2007، زیست شناسان به این نتیجه رسیدند که، بیشتر از 99% رشته dna همه انسان ها یکسان و تنها کمتر از 1% آن متفاوت از یکدیگر است. برخی از این تفاوتها، باعث بروز بیماریهای ژنتیکی میشوند. کشف ارتباط و وابستگی ژنها با بیماریهای ژنتیکی، به عنوان یکی از چالشهای اصلی محققان علم ژنتیک، مطرح است. به عبارت دیگر لازم است که ارتباط مجموعهای از تفاوتها بین رشته dna سالم و بیمار، با بروز بیماری خاصی شناخته شود. متداول ترین شکل تغییر ژنتیکی انسانها (که عامل اصلی بیماریهای ژنتیکی می باشند)، در موقعیت های خاصی از توالی dna اتفاق می افتد که چندریختی تکنوکلئوتیدی یا به اختصار اسنیپ نامیده می شود. الگوریتم?های محاسباتی مختلفی برای شناسایی برهم?کنش بین ژن?ها و ارتباط آن?ها با بیماری بکار رفته است. در این پایاننامه شناسایی برهمکنش بین ژنها در حوزه مطالعات مجموعه گسترده ژنوم صورت گرفته است و با وجود دو مجموعه داده مورد و شاهد از روشهای تمایزکاوی برای شناسایی الگوهای تمایزی استفاده شده است. به علت ابعاد زیاد مسئله الگوریتم renimpe که با استفاده از ساختار داده گراف جهتدار و بدون دور ddbz الگوها را استخراج میکند، بکار گرفته شده است. این الگوریتم با چنین ساختار دادهای برای مجموعهای از مجموعه اقلام بوجود آمده است که در این پایاننامه با تغییراتی برای توالی از اسنیپها اجرا شد. الگوهای بدست آمده ترکیب عطفی کمین از اسنیپها میباشد که فراوانی آنها در دو مجموعه داده تفاوت زیادی دارد. بعد از یافتن الگوها با استفاده از آزمون دقیق فیشر مقدار-p برای آنها محاسبه میگردد و نتایج نامربوط حذف میشوند. نتایج آزمایشگاهی بر روی بک مجموعه داده شبیهسازی شده بیانگر آن است که زمان اجرا برای روش پیشنهادی نسبت به روش relurpns که از الگوریتمهای قدرتمند در این زمینه است کمتر میباشد و همچنین از نظر قدرت جداسازی نیز از الگوریتم relurpns بهتر عمل میکند
سیده زهرا هاشمی منوچهر کلارستاقی
به علت پیچیدگی و حساسیت نرم افزار، به چند پارامتر در نرم افزار توجه ویژه ای می شود که یکی از این موارد کیفیت نرم افزار می باشد، قابلیت اطمینان نرم افزار بعنوان یکی از زیر مجموعه های کیفیت نرم افزار می باشد، در کیفیت نرم افزار، قابلیت اطمینان نرم افزار از جایگاه ویژه و اهمیت خاصی برخوردار است. بدون تردید، قابلیت اطمینان یک نرم افزار کامپیوتری، عنصر مهمی از کیفیت کلی به شمار می رود. اگر برنامه ای به کرات از اجرا باز بماند، عوامل کیفی دیگر نرم افزار، اهمیت خود را از دست می دهند. بنابرین ارزیابی زود هنگام قابلیت اطمینان یک برنامه در چرخه حیات، که اطلاعات معماری، تست و قابلیت اطمینان مولفه هایش می باشند، ضروری است. در این پژوهش روشی برای ارزیابی قابلیت اطمینان نرم افزار با استفاده از تئوری شواهد ( دمپستر- شافر) برای کاهش عدم قطعیت در قابلیت اطمینان نرم افزار و نزدیکتر شدن به عملکرد واقعی نرم افزار ارائه خواهد شد. بطور کلی تئوری دمپستر- شافر بر روی فرضیه نقص نسبت به بخشی از شواهد (شکست ها) که جزئی از یک سیستم هستند عمل می کند. در این تحقیق با استفاده از تئوری شواهد سعی شده که عدم قطعیت را کاهش و همراه با کاهش عدم قطعیت به افزایش قابلیت اطمینان نرم افزار برسیم. که این امر جز با تشخیص دقیقتر زمان وقوع خطا امکان پذیرنیست.پس از انجام محاسبات و محاسبه جرم هر یک از خطاها و میزان باور و امکان ،اگر خطا ها دارای عدم قطعیت بیشتر و باور کمتر باشند نتیجه می گیریم که احتمال رخ دادن آن بسیار ناچیز خواهد بود و افزایش تابع امکان و نزدیک شدن به تابع باور و افزایش تابع باور وکاهش امکان باعث کاهش عدم قطعیت و کاهش شکست نرم افزار و افزایش قابلیت اطمینان نرم افزار می گردد . با استفاده از این خطا ها و تبدیل خطا از جرم به احتمال به محاسبه قابلیت اطمینان می پردازیم.
رقیه عظیم نژاد میر محسن پدرام
روشهای هرزهنگاری وب قصد دارند برخی صفحات را بالاتر از آنچه آن?ها سزاور هستند، رتبه?بندی نمایند و در نتیجه به رتبهای نالایق در نتایج جستجو دست یابند. حضور صفحات هرز در نتایج بالای پرسوجوها نه تنها کیفیت بازیابی موتورهای جستجو را تنزل میدهد بلکه به صفحات وب دیگری که میبایست بالاتر رتبهبندی شوند آسیب میرساند. بنابراین صفحاتی که چنین راهکارهایی را به کار میبرند باید تشخیص داده شوند. با این حال، این امر کار آسانی نیست زیرا روشهای هرزهنگاری نیز همراه با روشهای ضدهرزهنگاری بهبود یافته است و هیچ روشی که بهطور کامل بتواند تمام انواع صفحات هرز را تشخیص دهد وجود ندارد. در این پژوهش از طبقهبندی همافزایی برای تشخیص هرز صفحات وب استفاده شده است. سیستمهای تشخیص هرز صفحات قوی مبتنی بر یادگیری ماشین به نمونههای برچسبدار آموزشی زیادی نیاز دارند؛ حال آنکه تهیه نمونههای برچسبدار کاری پرهزینه و زمانبر ولی جمعآوری نمونههای بدون برچسب نسبتا آسان است. به همین منظور در این پژوهش سعی شده است از نمونههای بدونبرچسب طی فرایند آموزش استفاده شود. پیش از آموزش یک مرحله پیشپردازش انجام شده است. چون دادگان مورد استفاده نامتوازن است، در مرحله پیشپردازش تلاش شده دادههای نویزی حذف شوند تا توازن بین دادههای کلاسها و در نتیجه کارایی تشخیص صفحات هرز بهبود داده شود. در مرحله آموزش از سه طبقهبند بیز ساده به عنوان طبقهبند پایه استفاده شده است و هر یک از این طبقهبندها در طول آموزش از طریق دادههای بدونبرچسبی که توافق تصمیمگیری و بیشترین تنوع را در برآورد احتمال کلاس دو طبقهبند دیگر دارا میباشند بهبود داده میشود. در روش پیشنهادی سعی شده است زمینههای مشترک را درحالیکه تفاوتهای بین الگوریتمهای آموزشی را حفظ مینماید جستجو نماید.????????????????????????????????????????????????????
نیلوفر حق جو میر محسن پدرام
برهم کنش های پروتئین-پروتئین در بسیاری از فرآیندهای سلولی نقش مهمی ایفا می کنند. بنابراین شناسایی، پیش بینی و تحلیل برهم کنش های پروتئین-پروتئین در حوزه زیست مولکولی مهم می باشد. روش های آزمایشگاهی که به این منظور طراحی گردیده اند بسیار پرهزینه، پر زحمت و وقت گیر می باشند. به همین دلیل نیاز به روش های محاسباتی برای بررسی برهم کنش های پروتئین-پروتئین روزانه افزایش می یابد. از این رو، هدف اصلی این پژوهش پیش بینی برهم کنش های پروتئین-پروتئین با استفاده از ساختار اول پروتئین ها و ژنوم مربوطه می باشد. با استفاده از support vector machine (svm) و ensemble of extreme learning machines (e-elm) ویژگی های عددی مختلفِ توالی پروتئین ها و توالی ژن های کد کننده پروتئین ها بررسی شدند. این ویژگی ها شامل اتو کوواریانس (ac)، ویژگی سه تایی پیوسته (ct) و تفاوت فراوانی جفت کدون ها (ccppi) می باشد. نتایج نشان دادند که ویژگی تفاوت فراوانی جفت کدون ها، که از توالی ژن ها استخراج شده بود، حاوی اطلاعات بیشتری نسبت به بقیه ویژگی ها برای پیش بینی برهم کنش های پروتئین-پروتئین می باشد.
سمیرا مالی میر محسن پدرام
حجم انبوه داده¬هایی که امروزه در آزمایشگاه¬های علوم تجربی حاصل می¬شوند، به زعم وجود تکنیک¬ها و متد¬های آزمایشگاهی پیشرفته، برای تحلیل، نیاز مبرم به روش¬های محاسباتی دارند. استنتاج منطقی روابط پیچیده¬ای که بین داده¬ها از نظر مفهوم زیستی و کاربردشان در آن حیطه وجود دارد، بدون وجود روش¬های آماری و الگوریتم¬های کامپیوتری بسیار سخت و تقریبا غیر ممکن به نظر می¬رسد. از طرفی ریاضیات محض نیز بدون حضور مفاهیمی که در پشت مجموعه داده نهفته است، اینکه این داده¬ها طی چه فرآیند¬هایی استخراج شده¬اند و در چه مکانیزم¬هایی در سلول شرکت کرده¬اند، نمی¬تواند کارگشا باشد. لذا "بیوانفورماتیک" با هدف ترکیب آگاهانه این دو زمینه شکل گرفته¬است. ریزآرایه¬ها یکی از اساسی ترین تکنولوژی¬های تولید داده هستند که تحلیل درست¬ داده¬های حاصل از آن¬ها پاسخ¬دهنده بسیاری از سوالات کلیدی زیست¬شناسان خواهد بود. در این پایان نامه با هدف تخمین داده های مفقود در خروجی این دستگاه، پس از انتخاب ژن¬های منتخب، ابتدا یک روش خوشه بندی با عنوان خوشه بندی طیفی با معیار شباهت ضریب همبستگی پیرسون برای مجموعه داده سرطان خون معرفی می¬کنیم. نتیجه این خوشه¬بندی با روش¬های دیگر به کمک منحنی مشخصه عملکرد سیستم مقایسه می شود. پس از آن الگوریتم sllsimpute، الگوریتم معروف برای تخمین داده مفقود، روی هرکدام از خوشه¬ها به طور مجزا اجرا شده و نتایج با الگوریتم های دیگر تخمین داده مفقود مقایسه می¬شود. نتایج آزمایشگاهی نشان می¬دهد که روش پیشنهادی بر حسب جذر میانگین مربع خطا دارای کارایی قابل قبول، نسبت به سایر روش¬ها می¬باشد.
الهام غفارزاده ینگجه میر محسن پدرام
با پیشرفت دانش و توسع? نشریات، یافتن کارهای مرتبط انجام شده بسیار دشوار شده است. امروزه میلیون ها مقاله در هزاران مجله و کنفرانس به چاپ رسیده است و هر روز به این تعداد افزوده می شود. با توجه به رشد صعودی نشریات، نیاز به روش های کارا برای جستجوی مطالب مرتبط، بیش از پیش احساس می شود. استفاده از کتابخانه های دیجیتال رایج با مشکلات مختلفی نظیر ناکارآمدی جستجوی مبتنی بر کلمات کلیدی و ضعف معیارهای شباهت متنی مواجه است. علاوه بر آن، برای برخی محققان مشخص کردن نیاز خود به اطلاعات در غالب چند کلمه کلیدی دشوار است. در حالی که مشخص کردن پرس و جو در قالب یک مقاله، به جای مجموعه ای از کلمات کلیدی، راهی ساده تر و ایده آل تر به نظر می رسد. برخی از سیستم های بازیابی اسناد علمی، برای غلبه بر ضعف های معیارهای شباهت متنی، از روابط استنادی بین مقالات استفاده می کنند. اما این سیستم ها نیز ضعف های خود را دارند، از جمله اینکه ممکن است در یک مقاله به بسیاری از مقالات مرتبط ارجاع داده نشده باشد. در این پژوهش، روشی برای بازیابی اسناد علمی بر اساس گراف استناد آنها و با در نظر گرفتن ویژگی های متنی مقالات ارائه شده است. رسته های لغات موجود در هر مقاله با استفاده از هستان نگار odp استخراج شده است تا به جای تطابق لغوی، از تطابق معنایی آنها استفاده شود. همچنین، معیار جدیدی برای محاسبه میزان ربط دو سند علمی با در نظر گرفتن روابط استنادی مقالات و رسته های به کار رفته در آنها ارائه شده است. ارزیابی های انجام شده نشان می دهد که معیار مورد نظر در محاسبه میزان ربط اسناد موفق است و سیستم ارائه شده بسیار کاراتر از سایر الگوریتم های مقایسه شده با آن عمل می کند.
مهدی پیغان میر محسن پدرام
مساله بودجه ریزی یکی از مهمترین مسائل برای همه ارگان ها و سازمان های دولتی و غیر دولتی است. با توجه به پیشرفت های علمی سال های اخیر و همچنین گردآوری حجم زیادی از اطلاعات مربوط به مسائل بودجه ریزی می توان از این داده ها و روش های جدید برای تحلیل داده های موجود در زمینه بودجه ریزی استفاده کرد. مساله مورد بررسی در این پایان نامه برنامه ریزی بودجه پروژه های عمرانی شرکت گاز استان تهران است. در این مساله داده های موجود قابل مدلسازی با روش های متداول نیستند. از این رو ترکیبی از روش های آماری و روش های داده کاوی برای مدل کردن مساله استفاده شده است. مدل هایی که در این مساله استفاده شده اند، مدل های arima و شبکه عصبی narx هستند. بعد از به دست آمدن خروجی این مدل ها از شبکه عصبی پیشرو برای به دست آوردن سایر پارامترهای مدل استفاده می شود. برای ترکیب این مدل ها و به دست آوردن مدل جدید از خروجی شبکه عصبی پیشرو و روش های زیرپیمانه ای و بسط لواش استفاده شده است. با استفاده از داده های بدست آمده، تابع زیرپمانه ای متناسب با شرایط مساله تعریف می شود و اثبات می شود که تابع تعریف شده زیرپیمانه ای است. و در ادامه با استفاده از بسط لواش مقدار بهینه تقریبی تابع تعریف شده بدست می آید.
بنفشه محمدیان میر محسن پدرام
در سالیان اخیر به دلیل پیشرفت فناوری اطلاعات به خصوص اینترنت در دسترس بودن اطلاعات افزایش یافته است. داده های متنی حجم وسیعی از این اطلاعات را در بر می گیرند. کپی کردن داده های متنی به راحتی صورت می پذیرد. در نتیجه سوء استفاده از این اطلاعات به راحتی امکان پذیر می باشد. هدف ما یافتن افراد متقلب و برخورد با آن هاست نه مخفی کردن و یا حفاظت از اطلاعات. متدهای زیادی برای تشخیص تقلب در متن بیان شده اند. متدهای فضای برداری جهت تشخیص شباهت اسناد موجود در یک پیکره مورد استفاده قرار می گیرند. اما این روش ها از حل دو مشکل اساسی ناشی از پردازش زبان های طبیعی، یعنی کلمات هم معنی و کلمات چندمعنی عاجزند. با استفاده از روش های آنالیز معانی مخفی مانند تجزیه بردارهای ویژه تشخیص شباهت به کمک کشف معانی مخفی موجود در اسناد صورت می پذیرد. با این حال تجزیه بردارهای ویژه حجم محاسباتی بسیار بالایی دارد و در داده های نسبتا زیاد زمان اجرایی بسیار بالایی دارد. در این پژوهش با دو رویکرد پردازش زبان های طبیعی مانند حذف ایست-واژه و نرمال سازی متن و بازیابی اطلاعات مانند خوشه بندی سعی در رفع این مشکلات کردیم. در دادگان فارسی جهت پردازش زبان های طبیعی به مشکلاتی برخوردیم و پیشنهاداتی در زمینه رفع آن ها ارائه و اجرا شد. در بخش خوشه بندی از مدل سازی موضوعی جهت مدل کردن دادگان استفاده شده است. اسناد با موضوعات یکسان در یک خوشه قرار گرفته و هر خوشه به صورت جداگانه مورد بررسی برای یافتن موارد تقلب قرار می گیرد. سیستم پیشنهادی را بر روی دو زبان فارسی و انگلیسی اعمال کردیم. ابتدا دادگان را بر اساس روش های پیشنهادی نرمال کرده، سپس اسناد براساس موضوع خوشه بندی شده و در نهایت در هز خوشه تشخیص سرقت علمی صورت می گیرد. در زبان انگلیسی به میزان f_1 93 درصد و در زبان فارسی به 90 درصد دست یافتیم.
حمید دلشادی منوچهر کلارستاقی
ترجمه ماشینی یکی از اولین اهداف هوش مصنوعی است که به دلیل نیاز روز افزون به فهم و استفاده از منابع زبان¬های دیگر اهمیت بسیاری دارد. روش¬های مختلفی مانند روش¬های مبتنی بر دستور زبان، مبتنی بر مثال و روش¬های آماری برای ترجمه ماشینی استفاده شده است. در اینجا از روش آماری عبارت بنیان که در سال¬های اخیر بسیار مورد توجه بوده است استفاده شده است. هدف نهایی در ترجمه ماشینی رسیدن به یک سیستم ترجمه ماشینی خودکار با کیفیت است. هم¬اکنون سیستم¬های ترجمه¬ای که خودکار عمل کنند وجود دارند، اما ترجمه سیستم تنها در مواردی خاص کیفیت مناسب را دارد. یکی از این موارد زمانی است که داده¬های آموزشی محدود به زمینه¬ای ¬باشند که ترجمه ماشینی در آن استفاده می شود. به منطبق کردن یک سیستم ترجمه ماشینی با یک زمینه خاص، تطبیق زمینه می¬گویند. داده¬های آموزشی برای زمینه¬های خاص بسیار کمیاب هستند و کیفیت ترجمه ماشینی با اندازه داده¬های آموزشی نیز ارتباط مستقیمی دارد. مشکل کمبود داده در زبان فارسی نیز به شدت وجود دارد. در این پژوهش تلاش می شود این مشکل حل شود. روش پیشنهادی این پژوهش بر پایه¬ی کاهش خطاهای سیستم شکل گرفته است. در این پژوهش خطای عدم مشاهده و خطای امتیاز هدف قرار گرفته شده است. برای حل مشکل عدم مشاهده، جدول ترجمه¬ای که با استفاده از داده¬های هم¬زمینه به دست آمده است را با استفاده از جدول ترجمه¬ای که از داده¬های عمومی به دست آمده غنی می کنیم. این رویکرد پر کردن نام دارد. برای مقابله با خطای امتیاز نیز ابتدا جمله¬هایی از داده¬های عمومی را که به داده¬های هم-زمینه شبیه هستند را با استفاده از مدل زبانی انتخاب می کنیم. سپس با افزودن این جمله¬ها به پیکره هم¬زمینه، آن را غنی¬تر می کنیم. در این انتخاب تلاش می شود که با حذف اسامی خاص بی اهمیت در زمینه، دقت انتخاب جمله¬ها افزایش یابد.