نام پژوهشگر: اشکان سامی
عظیمه دانش شهرکی محمد داورپناه جزی
امروزه با افزایش تعداد بانک ها و نیز امکان بیشتر مشتریان برای انتخاب، لزوم مشتری گرایی در حوزه بانکداری بیش از پیش احساس می شود چرا که تضمین کننده ادامه حیات بانکها وجود مشتریان می باشد. در این تحقیق مدیریت ارتباط با مشتریان (crm) را در سه بعد ارتباطی، عملیاتی و تحلیلی در پورتال های بانکداری الکترونیکی مورد بررسی قرار داده و وضعیت نمونه هایی از بانک های دولتی و خصوصی ایران را در این زمینه مشخص نموده ایم. زمان جمع آوری داده های این تحقیق در سال 1388 و با استفاده از تکنیک پرسشنامه انجام گرفته است. با توجه به نمودار های آماری بدست آمده نتیجه می گیریم که بانک های مورد بررسی در قسمت ارتباطی وضعیت نسبتا مناسب، در بخش عملیاتی وضعیت قابل قبول و در بخش تحلیلی بحرانی ترین وضعیت را دارند. جهت پیاده سازی یک crm موفق توجه به بعد تحلیلی بسیار ضروری است و بازتاب دانش بدست آمده از crm تحلیلی بطور مستقیم روی ابعاد دیگر تاثیرگذاراست از طرفی بدون اطلاعات گسترده و دقیق که حاصل بخش عملیاتی است در واقع هیچگونه ورودی برای بخش تحلیلی نداریم. بنابراین کل این چرخه باید بطور یکپارچه ادامه یابد.در پایان راهکار هایی جهت بهبود عملکرد در سه بخش مختلف crm بیان شده است.
شایان قالی کار سید شهاب الدین آیت اللهی
همانطور که می دانیم نفت عمده ترین منبع تامین انرژی در جهان می باشد و تولید آن از مخازن نفت همواره با مشکلات زیادی همراه است . در تحقیقات گذشته روش های متعددی برای پیش بینی روشهای ازدیاد برداشت ارائه شده است که عبارتند از روش های آزمایشگاهی ، تحلیلی ، شبیه سازی مخازن با کامپیوتر . شناختن عوامل موثر بر تعیین نوع روش ازدیاد برداشت نفت برای یک مخزن خاص می تواند تا حد زیادی به شناخت بیشتر غربالگری منجر شود . بعلت پیچیده بودن جریان سیال در مخزن می توان از مدل های آزمایشگاهی استفاده کرد . با توجه به اینکه بعضی از خواص سیال و سنگ درون مخزن در تعیین روش های ازدیاد برداشت موثر می باشد در این ارتباط جداول مختلفی وجود دارد که محدوده های خواص موثر در هر روش ازدیاد برداشت را مشخص می نماید بطوریکه جهت تعیین روش ازدیاد برداشت مناسب با یک مخزن خاص می توان از مقایسه خواص این مخزن با جداول موجود پی به روش ازدیاد برداشت متناسب با آن ببریم. در این ارتباط جدول تابر یکی از کاملترین جداول می باشد که توسط تابر و مارتین ارائه شده است . با مطالعه مخازن سراسر جهان که تولید نفت آنها از طریق روشهای ازدیاد برداشت صورت می گیرد می بینیم که بین روشهای ازدیاد برداشت مورد استفاده در بعضی از این مخازن با جدول تابر مغایرتهایی وجود دارد . با توجه به اینکه باید داده های واقعی را ملاک عمل قرار داد پس ما سعی کردیم اطلاعت مخازن سراسر جهان را که تولید نفت آنها از طریق روشهای ازدیاد برداشت صورت می گیرد جمع آوری نمائیم و آنها را ملاک عمل قرار دهیم . در این تحقیق داده های جمع آوری شده از لحاظ آماری مورد بررسی قرار گرفته است بطوریکه میزان پراکندگی و همپوشانی داده ها با جدول تابر به تفکیک خواص و روش های ازدیاد برداشت مقایسه شده است. از آنجائیکه روابط ریاضی خاصی بین مقادیر خواص تعین کننده هر روش ازدیاد برداشت با آن روش وجود ندارد لذا از داده های جمع آوری شده که تعداد آنها به بیش از 2336 داده می رسد جهت پیش بینی روش های ازدیاد برداشت توسط شبکه های هوشمند عصبی استفاده نمودیم .
پریسا قبادی فرج الله رهنورد
فناوری اطلاعات و ارتباطات به عنوان یک تکنولوژی فراگیر بر ابعاد مختلف زندگی ما تأثیر گذاشته و تنوع دامنه تغییرات ناشی از آن بر الگوهای زندگی، آموزش، مدیریت، کسب و کار، حمل و نقل، تفریحات و سرگرمی و دولت را در بر گرفته است. در واقع امروزه مفاهیمی چون قدرت و اقتدار در زیرسایه فناوریهای نوین اطلاعاتی معنا پیدا کردهاند و بیتوجهی به آن معنای نداشتن جایگاهی مناسب در عصر اطلاعات خواهد بود و چون قدرت به عنوان شرط و محدود کننده سیاست، فرهنگ و اقتدار با ساختهای شکل دهنده به این موارد سر و کار دارد، عدم به کارگیری تکنولوژیهای نوین وجهه کشور را دگرگون میکند. نقش حداقلی فناوری اطلاعات و ارتباطات در مدیریت و اداره یک کشور این است که به تمام افراد یک کشور این امکان را میدهد تا بتوانند صرفنظر از جنسیت و مکان و زندگی خود، حضوری فعال در جامعه داشته باشند. بنابر این با پذیرش قدرت فراوان فناوریهای اطلاعاتی و ارتباطی در بهبود و اعتلای اقتصادی، اجتماعی و فرهنگی مردم باید آن را محور تمام راهبردهای توسعه قرار دهیم و پرداختن به مقوله دولت الکترونیکی نه در حد یک شعار بلکه به عنوان یک ضرورت باید مورد توجه قرار گیرد. افزایش اختیارات شهروندان از طریق دسترسی به اطلاعات، بهبود ارتباط میان سازمانهای دولتی با تجارت و صنعت، افزایش اختبارات شهروندان از طریق دسترسی به اطلاعات، بهبود ارتباط میان سازمانهای دولتی با تجارت و صنعت، افزایش دقت و شفافیت در کارهای دولتی، رشد درآمدهای دولتی و کاهش هزینههای آن، ایجاد احساس بهتر در مشارکت اجتماعی، همچنین ارتقای کارآیی سیستمهای اقتصادی همه مزایا و امکاناتی هستند که جزء با تحقق دولت الکترونیک و شهر الکترونیک امکانپذیر نیستند. فناوری اطلاعات و ارتباطات و تحقق دولت الکترونیکی در درازمدت میتواند موجب رشد اقتصادی و رفع نابرابریهای اجتماعی شود و شکل قدیمی دولت دیگر کارآیی خود را از دست داده است. برای چیره شدن به مشکلات پیچیده جوامع و فراهم کردن راهحل تنها از طریق همکاری بین اعضای بدنه دولت با عوامل داخلی و خارجی که شامل دولتهای دیگر میشود امکانپذیر است.توسعه و گسترش یک دولت الکترونیک یک امر پیچیده هم از لحاظ تکنیکی و هم از لحاظ سیاسی است و کیفیت یک دولت الکترونیک بستگی به فاکتورهای متعددی دارد که از بین آنها، سیاست و خط مشی اطلاعاتی دولت، تعداد کاربران و سطح تحصیلات و انگیزه میباشد. دراین پروژه سعی گردیده است که ضمن بررسی موردی موضوعات فن آوری اطلاعات، دولت الکترونیک، عوامل موثر درایجاد و توسعه این تکنولوژی، متدولوژیهای بررسی سازمانهای دولت الکترونیک، و نیز مدلهای بررسی دولت الکترونیک، به بررسی وشناخت وضعیت موجود دولت الکترونیک در استان لرستان بر اساس مدل انتخاب شده اقدام گردد.
فرزانه مالکی اشکان سامی
تضمین کیفیت نرمافزار یکی از چالش برانگیزترین مباحث تولید نرمافزار میباشد و هدف آن تولید نرمافزاری بدون خطا است که نیاز و انتظارات مشتری را پاسخگو باشد. یکی از فاکتورهایی که منجر به تعداد بالای خطاهای نرمافزاری میشود اینست که منابع تضمین کیفیت توسط زمان و هزینه محدود میشوند. به منظور اختصاص منابع به صورت موثر، مدیران بایستی منابع را به بخشهایی از محصول نرمافزاری اختصاص دهند که احتمال معیوب بودن بیشتری نسبت به سایر بخشها دارند. مدیران برای شناسایی قسمتهای معیوب کد میتوانند از روشهای خودکار پیشبینی خطا استفاده کنند که معمولا بر اساس معیارهای کد و وابستگیهایی که بین اجزای کد وجود دارند عمل میکنند. تلاش این رساله ارائه معیاری کارا بر اساس وابستگیهای موجود بین اجزای کد میباشد. در این رساله ما به توسعه مفهوم وابستگی چرخشی در گراف وابستگی کد پرداخته و با ارزیابی معیار مورد نظر بر روی چندین پروژه متن باز و مقایسه این معیار با معیارهای کد نشان دادهایم که وابستگی چرخشی عملکرد بهتری نسبت به معیارهای کد در پیشبینی خطا دارد
فاطمه نیکومرام اشکان سامی
تجزیه ی ماتریس دارای کاربردهای زیادی نظیر: کاهش بعد، تشخیص الگو، آنالیز بیان ژن و ... می باشد. از آنجا که دربسیاری از کاربردها مانند تشخیص چهره، عناصر منفی وجود و معنا ندارند، تجزیه غیرمنفی و باینری ماتریس پیشنهاد داده شده است. در تجزیه ماتریس باینری، همه ی عناصر باینری هستند و جمع و ضرب نیز در فضای باینری تعریف می شوند. از بین انواع تجزیه باینری، تجزیه ستونی باینری ماتریس که توسط میئتنین ارائه شده است، دارای قابلیت تفسیر بالایی است. بنابراین، این روش، بهترین روش جهت استخراج قوانین است. در این روش، ماتریس ورودی به دو ماتریس c و x که یکی شامل k ستون و دیگری شامل k ردیف است، تجزیه می شود، به طوری که k تعداد خوشه ها و یا دسته ها می باشد. k ستون ماتریس اول، c، زیرمجموعه ای از ستون های ماتریس ورودی می باشند. بنابراین قابلیت تفسیر بالا است. دو چالش در این نوع تجزیه وجود دارد: 1) الگوریتم های پیشنهاد شده برای این روش، برای رسیدن به خطای کمتر از تعداد تکرار زیاد رنج می برند و حتی امکان دارد الگوریتم، بعد از تکرارهای بیشتر به جواب بدتر برسد. 2) از قابلیت تفسیر بالای این تجزیه در کاربردی استفاده نشده است. این پایان نامه دو هدف دارد: 1) بهبود الگوریتم های موجود. 2) ارائه کاربرد. در زمینه ی بهبود الگوریتم، دو روش برای بهبود در الگوریتم bcx ارائه شده است. یک روش، جهت بهبود در یافتن ماتریس c و یک بهبود در ماتریس x به وجود آمده، پیشنهاد شده است، که اثبات ریاضی برای این بهبود نیز ارائه شده است. انتخاب ستون های ماتریس c طوری بازبینی شده است که منجر به خطای کمتر می شوند و بهبود در ماتریس x، از تعریف ضرب ماتریس الهام گرفته است. نتایج حاصل از آزمایشات دقت بالای بهبود را در kهای بالا نشان می دهد. به طوری که برای kهای بالا، درصد بهبود حدود 50% به دست آمده است. در زمینه ی کاربرد، کاربرد استخراج اتوماتیک کلمات کلیدی موردتوجه قرار گرفته است. کلمات کلیدی در بسیاری موارد به عنوان خلاصه ی مفیدی از متن استفاده می شوند. انتساب دستی این کلمات کار بسیار وقت گیری است. در عمل، کلمات کلیدی، کلماتی هستند که پوشش خوبی از متن دارند. الگوریتمی بر اساس تجزیه bcx برای استخراج بهترین کلمات متن ارائه شده است که هر چه خطای تجزیه کمتر باشد، پوشش متن بهتر است. نتایج نشان می دهد که این الگوریتم، الگوریتمی کارا و ساده است.
فرناز مستوفی اشکان سامی
مدیران سازمانهای بزرگ که با صرف هزینه های سنگین و طی مدت زمان طولانی به توسعه سیستمهای اطلاعات مدیریت خود پرداخته اند، معمولاً در تقابل مزایا و معایب اجتناب ناپذیر کاربری، به دنبال پاسخ این پرسش میگردند که آیا مشکلات و نارضایتی های موجود در اجرا و استفاده از این سیستم-ها، ناشی از عدم کیفیت سیستمهای تولید شده است؟ برای پاسخ به این چنین سوالهایی، عارضه یابی از طریق ارزیابی کیفیت سیستمها، راه کار این مدیران بوده است. از قدیمیترین روش ها، استفاده از مدلهای کیفیت برای ارزیابی کیفیت اعمال شده توسط تیم های توسعه سیستم ها میباشد. نتایج اولیه این پایان نامه نشان داد که کیفیت تولید به تنهایی ضامن موفقیت این سیستم ها و در نهایت رضایت مشتری نخواهد بود؛ چنانکه بهترین و با کیفیت ترین نرم افزارهای تولید شده بدون پشتیبانی و حمایت خدمات فن آوری اطلاعات در سازمانها به سادگی عملیاتی نخواهند شد و اطمینان به موفقیت آنها کم است. با توجه به تأثیر شرایط محیط استقرار روی کیفیت نرم افزار، در ارزیابی کیفیت سیستمهای اطلاعات مدیریت شرکت برق منطقه ای فارس، علاوه بر کنترل کیفیت زمان تولید، به ارزیابی چارچوب حاکمیت فن-آوری اطلاعات سازمان نیز پرداخته شد. در این شرایط، اگرچه بسیاری از مشکلات کیفیت ریشه در تولید غیر مهندسی این سیستمها توسط شرکت عصر اندیشه داشت، اما عدم حمایت کافی و صحیح خدمات فن-آوری اطلاعات شرکت برق منطقه ای از سیستم ها نیز بی تأثیر نبود. نهایتاً چنین نتیجه گرفته شد که روشهای ارزیابی متمرکز بر مدل های کیفیت نرم افزار و یا روش های ارزیابی چارچوب حاکمیت فن آوری اطلاعات در سازمان هیچ یک به تنهایی نمیتواند ریشه مشکلات کیفیتی یک سیستم اطلاعات مدیریت را جستجو کند و به همین جهت برای پاسخگویی به چنین نیازهای مدیریتی، یک روش ارزیابی تلفیقی از مدلهای کیفیت و چارچوبهای حاکمیت فن آوری اطلاعات در سازمان پیشنهاد شد به قسمی که با توجه به هدف و با پوشش گروه و روشهای ارزیابی، کیفیت تولید سیستمها و ویژگیهای سازمان به طور همزمان بررسی شوند.
محمود واحدی مقدم شهرام جعفری
با توجه به افزایش دسترسی رسمی و غیر رسمی به دورکاری و سایر ترتیبات کار انعطاف پذیر، ضرورت تجدید نظر در سازوکار های سنتی تصیم گیری در این مقوله دو چندان می نمایاند. لذا تحقیق پیشرو از نوع بنیادی و جهت بررسی ادبیات موضوع دورکاری و نیز استخراج شاخص های تاثیر گذار در انتخاب مشاغلی که می توان آنها را به صورت دورکاری انجام داد، جهت استفاده ارگان های دولتی و خصوصی و سایر پژوهشگران صورت می پذیرد. ضمنا شاخص های استخراج شده با استفاده از نظر خبرگان موزون گردیده و در فاز آخر نیز نرم افزاری بر مبنای اطلاعات استخراج شده در مراحل قبل تولید می گردد . همچنین به خاطر وجود قابلیت آرشیو نمرات اخذ شده در مشاغل مختلف امکان اولویت بندی در سازمانها جهت ایجاد زیرساخت های مناسب دورکاری نیز فراهم خواهد بود.
بهزاد نظرپور اشکان سامی
با توجه به نقش حیاتی نرم افزاردرتجارت، دولتها و جوامع، بهبود کیفیت و سودمندی نرم افزار یکی از اهداف مهم مهندسی نرم افزار می باشد که کاوش داده های مهندسی نرم افزار یک وسیله امید بخش برای رسیدن به این هدف است. محققین به شکل گسترده ای از الگوریتم های داده کاوی در راستای کمک به فرآیندهای مختلف مهندسی نرم افزار استفاده می کنند. بعنوان مثال در فاز نگهداری نرم افزار برای تعیین موارد زیر از الگوریتم های داده کاوی استفاده می شود: الف- با تغییر قسمتی از کد پروژه چه قسمتهای دیگری از کد نیز باید تغییر پیدا کنند؟ ب- باتوجه به شناخت قسمتهایی از کد که اکنون خطا دارند چه خطاهای بالقوه ای ممکن است در آینده پروژه و یا پس از تحویل محصول نهایی، در محیط مشتری رخ دهند؟ الگوریتمهای داده کاوی در چهاربخش کاوش الگوهای تکرار شونده، تطبیق الگو، خوشه یابی و طبقه بندی قرار می گیرند. با توجه به مشاهدات و نتایج بدست آمده ، مشخص شده است که قسمت عمده ای (حدود 80 درصد) از خطاهای یک سیستم نرم افزاری فقط در تعداد کمی (حدود 20 درصد) از ماژولهای آن سیستم رخ می دهد، بنابراین شناسایی به موقع این ماژولها درراستای مدیریت پروژه و توزیع مناسب هزینه ها می تواند بسیار موثر واقع شود. از این رو توسعه دادن روشهای اتوماتیک در زمینه تشخیص و شناسایی خطا می تواند بسیار مفید وکارگشا باشد، طبقه بندی کردن یکی از روشهای مرسوم ومعمول در داده کاوی است که از آن برای تشخیص خطای نرم افزار استفاده می شود. الگوریتمهای طبقه بندی مختلفی توسط پژوهشگران مختلف در این زمینه ارائه شده اند که در گروه های مختلف روش های درختی، روشهای آماری، روشهای مبتنی بر تشابه، روشهای مبتنی بر فاصله همسایگی، روشهای شبکه عصبی و غیره تقسیم بندی می شوند. اولین سئوالی که به ذهن خطور می کند این است که آیا این طبقه بندی کننده ها از نظر کارآیی تفاوت معنا داری دارند یا نه همه بطور یکسانی عمل می کنند؟ برای ارزیابی کارآیی این طبقه بندی کننده ها معیارهای مختلفی مانند مساحت زیر منحنی مشخصه عملکرد گیرنده، نرخ خطا، ضریب جی نی، آماره کولموگروف اسمیرنوف و غیره ارائه شده است که استفاده هر یک از این معیارها برای مقایسه طبقه بندی کننده ها ترتیب متفاوتی را برای کارآیی آنها نتیجه می دهد، بنابراین سئوال دوم این است که اگر به منظور پاسخگویی به سئوال اول بخواهیم طبقه بندی کننده ها را با هم مقایسه کنیم از چه معیاری برای مقایسه استفاده کنیم؟ در این پژوهش به منظور جواب دادن به سئوالات فوق یک آزمایش بزرگ شامل 88 مجموعه داده از داده های ناسا و پایگاه داده پرامیس و 30 الگوریتم طبقه بندی مختلف، ترتیب داده شده است و دو معیار مساحت زیر منحنی مشخصه عملکرد گیرنده و معیار اچ مورد بررسی و مقایسه قرار گرفته است. به منظور تعیین وجود تفاوت معنادار بین الگوریتمهای طبقه بندی مختلف بر اساس این دو معیار نیز، از تستهای پارامتریک و غیر پارامتریک استفاده شده است.
مهسا مهرپور امید بوشهریان
مدیریت ارتباط با مشتری به همه فرآیندها و فناوری هایی گفته می شود که در شرکت ها و سازمان ها برای شناسایی، ترغیب، گسترش، حفظ و ارائه خدمت به مشتریان به کار می رود. به منظور ایجاد یک سیستم مدیریت ارتباط با مشتری، نیاز یک چارچوب و معماری مناسب وجود دارد. معماری نرم افزار به عنوان بخش مهمی از توسعه ی نرم افزار شناخته شده است و به توسعه دهنده ی سیستم کمک می کند تا ساختار های داخلی سیستم را تعریف کند. همچنین، یک چارچوب مجموعه ای از اشیاء قابل توسعه برای رفتار های مرتبط می باشد. روابط بین بانک و مشتریان به عنوان منبع اصلی درآمد و موفقیت سازمان مسئله ای حائز اهمیت می باشد که در بانک های ایران کمتر به این موضوع، در مفهوم استاندارد آن، پرداخته شده است. از آن جا که چارچوب ها قابلیت استفاده ی مجدد معماری نرم افزار را افزایش می دهند، در این تحقیق یک چارچوب برای سیستم مدیریت ارتباط با مشتری برای صنعت بانکداری ارائه شده است. بر اساس مطالعات انجام شده، استاندارد های سیستم مدیریت ارتباط با مشتری، از جمله مدیریت ارتباط با مشتری تحلیلی، عملیاتی و تعاملی مطالعه و بررسی شده و کلیه ی ویژگی ها و سرویس هایی که هر بخش ارائه می دهد تحلیل و بررسی شده است و در معماری منطقی پیشنهادی در قالب پکیج ها و کلاس های مختلف طراحی شده اند. در این طراحی آن دسته از ویژگی ها و امکاناتی که بر اساس تحلیل انتظارات مدیران بانک دارای امتیاز بالاتری بودند، در اولویت طراحی قرار داده شده است. همچنین داده ی مورد نیاز برای این بخش های استاندارد مطالعه و بررسی شده و به منظور نتیجه ی تحلیلات با سرعت بالاتر، طراحی یا انبار داده با تمرکز بر تراکنش های مشتری داده شده ارائه شده است. همچنین یک پایگاه داده رابطه ای پروفایل مشتری برای ذخیره سازی نتیجه ی گرایشات، رفتار ها و فعالیت های مشتری که از بخش مدیریت ارتباط با مشتری تحلیلی و عملیاتی حاصل می شود، طراحی شده است. در نتیجه، این معماری دارای قابلیت استفاده مجدد، انعطاف پذیری و توسعه پذیری بوده و با رعایت استاندارد های تعریف شده در آن، می تواند در بانک های مختلف با استراتژی ها و سیاست های متفاوت مورد استفاده قرار گیرد.
زهرا یگانه فرد محمد هادی صدرالدینی
دسته بندی داده ها یکی از موضوعات اساسی در داده کاوی است که کاربردهای مهم و حیاتی در مسایل دنیای واقعی مانند تشخیص بیماری، مدیریت ریسک و پیش بینی رفتارهای آتی دارد. روشهای عملی برای کار با داده های دنیای واقعی، درگیر مسایلی چون حجم زیاد داده ها، اطلاعات غیر-مفید یا نامناسب، تاثیرات نویز و عدم توازن می باشند. داده های جمع آوری شده، معمولاً دارای یک سری نمونه با ویژگی های مختلف براساس زمینه کاربرد است. اهمیت این نمونه ها و ویژگی ها در تصمیم گیری و دسته بندی متفاوت بوده و بعلاوه، تعداد نمونه ها در هر دسته می تواند بسیار متفاوت باشد. از این روی لازم است در دسته بندی، معیارهایی به منظور کشف اهمیت اطلاعات موجود، به کار گرفته شوند. مهمتر آنکه این معیارها علاوه بر دانش افراد خبره، باید براساس داده ها، یعنی ویژگی ها و تعداد داده های هر دسته، تطبیق یابند. امروزه، مساله عدم توازن یکی از مسایل چالش برانگیز در داده کاوی و یادگیری ماشین است. در بسیاری از روش های دسته بندی، از جمله روشهای بر پایه نزدیک ترین همسایه، برچسب گذاری بر اساس یک معیار فاصله و یافتن شباهت و نزدیکی داده ها انجام می شود. روشهای بسیاری به منظور تطبیق پذیرسازی معیار فاصله در الگوریتم نزدیکترین همسایه ارائه شده است. این روشها با افزودن پارامتر وزن محلی یا سراسری به نمونه ها و ویژگی ها کار می کنند. روش ارائه شده در این پایان نامه با یادگیری وزن محلی ویژگی ها سعی در افزایش نرخ تشخیص همه دسته ها در مورد مسایل نامتوازن دارد. در این روش از مفهوم بی نظمی یا انتروپی برای تشخیص اهمیت ویژگیهای مختلف در اطراف هر یک از داده ها استفاده شده است. بدین منظور، یک تابع هدف مشتق پذیر بر اساس پارامترهای وزن تعریف شده که می تواند توسط روش های رایج، بهینه سازی شود. در این روش، برای تشخیص وزن هر ویژگی در اطراف هر یک از داده ها، در قالب تابع هدف، یک معیار جدید بر اساس مفهوم انتروپی و بی نظمی تعریف شده است. از مزیتهای این معیار کاهش پیچیدگی زمانی الگوریتم و مشتق پذیر بودن تابع هدف است. در این پایان نامه به منظور ارزیابی الگوریتم یادگیری، ازمایشات متعددی بر اساس مجموعه داده های محک انجام شده که نشان دهنده کارایی مناسب روش ارائه شده است.
مجتبی بخشنده اشکان سامی
معماری سرویس گرا با امکان سازی ایجاد چابکی و انعطاف پذیری لازم در ساختار نرم افزاری سازمان ها، تحولی شگرف و نوین را در عرصه مهندسی نرم افزار فراهم آورده است که دراین میان ، استاندارد bpel راه را برای ساخت پیمانه های جدید براساس ترکیبی از سرویس ها، هموار نموده است. اگرچه تلاش های زیادی برای اثبات درستی عملیات پذیری سرویس های ترکیبی براساس روش های رسمی انجام گردیده ، پیش بینی ویژگی های غیرعملیاتی کمتر مورد کنکاش قرار گرفته است. راه حل متداول در این زمینه ، تبدیل فرآیند bpel به شبکه پتری تصادفی و استخراج زنجیره مارکف از آن می باشد. این راه حل به منظور بررسی وجود احتمال نشانه در مکان های شبکه پتری در سیستم های بزرگ منجر به انفجار فضای حالت ، حل پیچیده و زمانبر یک معادله ماتریسی و از طرفی ایجاد جواب صفر برای یک سیستم گردش کار می باشد. نوآوری ما ابداع یک رویکرد تحلیلی مبتنی بر شبکه پتری تصادفی و با استفاده از بعضی از ویژگی های مثبت شبکه های صف برای تخمین کارآیی فرآیند های bpel می باشد. به علاوه ، این رویکرد ضمن تسهیل و تسریع در محاسبات ، قابلیت استفاده در فرآیندهای موازی و همزمان را دارد. تخمین کارآیی فرآیندهای پایه ای توالی ، شرط ، توازی و حلقه با استفاده از رویکرد جدید انجام و همزمان با نتایج شبیه سازی با استفاده از نرم افزار arena ، مقایسه گردیده است. همچنین به منظور اعتبارسازی رویکرد عنوان شده ، نتیجه محاسبات یک نمونه فرآیند ترکیبی با نتیجه برطبق شبیه سازی مقایسه گردیده که در هردوحالت اختلاف قابل اغماضی را داشته است. جهت ادامه این تحقیق ، پیشنهاد می گردد که ایجاد یک سرویس تجمیعی با صفات کیفی مطلوب ، براساس انتخاب ، جابجایی و همچنین بالانس کار سرویس های پایه ، مورد بررسی و پژوهش قرار گیرد.
یاسر تابنده اشکان سامی
انتخاب ویژگییکی از مهم ترین اقدامات پیش پردازش در عملیات داده کاوی می باشد. با انجام این مرحله از فرایند، حجم داده های پردازشی کمتر می شود، عملیات داده کاوی سریع تر و دقت الگوریتم هاییادگیری بیشتر می شود. روش های انتخاب خصیصه از لحاظ نحوه انتخاب به دو نوع انتخاب مجموعه ای و رتبه بندی خصیصه ها طبقه بندی می شوند. در این پژوهش مساله انتخاب ویژگی و مهم ترین روش های ارائه شده که از طریق رتبه بندی خصیصه ها به انتخاب خصیصه می پردازند مورد بررسی قرار می گیرد و همچنین چند روش جدید برای وزن دهیو رتبه بندیویژگی ها ارائه می شود. مهم ترین کارهایارائه شده در این پژوهش عبارتند از: • روشی جدید برای محاسبه فاصله بین دو ویژگی غیر عددی • روشی سریع برای محاسبه سریع تر فاصله بین نمونه های داده • بهبود الگوریتم relieff برای داده های چند کلاسه • روشی ترکیبی برای بهبود الگوریتم های relieff وgain ratio • بهبود روش chi-square برای ویژگی های غیر عددی با تعداد مقادیر زیاد • ارائه الگوریتم وزن دهی جدید مبتنی بر فاصله برای ویژگی های عددی • ارائه یک الگوریتمwrapper تصادفی برای انجام رتبه بندیشامل دو روش وزن دهی • ارائه روشیwrapper برای انجام همزمان انتخاب مجموعه ای و وزن دهی ویژگی بر اساس الگوریتم زنبورها روش های ارائه شده در این پژوهش برروی داده های استانداردuci آزمایش و با سایرالگوریتم ها و روش های مطرح مقایسه شده اند، همچنین برخی روش ها در مسابقات داده کاوی به عنوان پیش پردازش استفاده شده اند که نتیجه آن کسب رتبه های بالا در این مسابقات می باشد.
مریم میرزاده رهنی فریدون شعبانی نیا
از جمله دستاوردهای تجارت الکترونیک حضور عرضه کنندگان در یک بازار جهانی قابل رویت برای کلیه خریداران است که در کنار مزایای فراوانی که هم برای خریدار و هم برای فروشنده به همراه دارد ، امکان مقایسه محصول با محصولات مشابه را نیز برای تقاضا کننده به وجود آورده و عرضه کننده را از انحصار خارج می کند. از سوی دیگر در دنیای رقابتی امروز با گسترش قابل توجه حجم داد و ستد اینترنتی و افزونگی اطلاعات و تنوع محصولات در دسترس، نیاز به سیستم هایی جهت پیشتیبانی تصمیم گیری در فضای کسب و کار مجازی و ابزارهایی بمنظور فیلتر اطلاعات با توجه به احتیاجات و علایق مشتریان بنگاه های مجازی و راهنمایی آنها در انتخاب محصولات مناسب بیش از پیش احساس می شود . ازسیستم های توصیه گر به عنوان یکی از راه حل های رویارویی با مسئله سرباری اطلاعات در تجارت الکترونیک یاد می شود. از یک سو کسب و کارهای فعال در زمینه تجارت الکترونیک برای جذب مشتری بیشتر در بازار پر رقابت مذکور نیازمند این سیستم ها هستند و از سوی دیگر مشتری نیازمند یاری رسانی در خیل عظیم و رو به رشد کالا و به همان نسبت اطلاعات مربوط به آنها است تا بتواند از میان تعداد زیاد گزینه های پیش رو مناسبترین آنها را بر گزیند در این تحقیق قصد داریم با استفاده از منطق فازی چارچوبی برای توسعه ی نوعی خاص از سیستم های توصیه گر در سایت های تجارت الکترونیک ارائه دهیم که علاوه بر محصولات با تواتر خرید بالا ، جهت توصیه ی محصولاتی با تواتر خرید پایین که سیستم و فروشنده اطلاعات زیادی از سابقه ی مشتری ندارند هم کارایی دارد . چنین کالاهایی علی رغم اینکه در بازار کالا مشمول قاعده ی سرباری اطلاعات هستند ، ولی تا کنون در طراحی سیستم های توصیه گر فعالیت چندانی در زمینه ی توصیه ی انها انجام نپذیرفته است .
مهدی جعفریان زرین تاج برنایی
هدف این تحقیق به کار کیری علم داده کاوی و تکنیک ها و الگوریتم های مختلف آن جهت استخراج و کشف دانش از اطلاعات ارزیابی عملکرد دوره ای کارکنان در حوزه مدیریت منابع انسانی می باشد. در نمونه مورد مطالعه اطلاعات مربوط به سوابق دوره های ارزیابی سه ماهه کارکنان برای بخشی از نیروی انسانی به همراه سایر متغیرهای شخصی ، استخدامی، شغلی و سازمانی، انضباط کاری و متغیرهای آموزشی در یک انبار داده گرد آوری شده اند. سپس به کمک تکنیک های خوشه بندی، قواعد انجمنی، شبکه عصبی، رگرسیون لجستیک و استنتاج بیزین مدل هایی ساخته شده است که با تحلیل نتایج به دست آمده از مدل ها با کمک و مشاوره خبرگان منابع انسانی، متغیرهای تاثیرگذار بر ارزیابی های انجام شده مورد شناسایی قرار گرفته اند. با استفاده از دانش به دست آمده می توان آسیب ها و نقاط قوت نظام ارزیابی عملکرد را شناسایی کرد و زمینه تصمیم گیری بهتری را جهت اصلاح فرایندهای مدیریت منابع انسانی فراهم نمود.
مینا سراجیان بابک اخگر
در این پژوهش چهارچوبی جهت طراحی و پیاده سازی سایتهای شبکه اجتماعی علمی پیشنهاد میگردد. روش تحقیق مورد استفاده، روش عملی- تحقیقی میباشد که با معرفی یک متدولوژی جهت طراحی و پیاده سازی سایتهای شبکه اجتماعی همراه شده است. این رساله گامی است در جهت استفاده از پتانسیل سایتهای شبکه اجتماعی، برای انجام فعالیتهای علمی. در دنیای امروز و با گسترش مقبولیت سایتهای شبکه اجتماعی از سوی کاربران اینترنت، فقدان چنین بسترهایی در محافل علمی و آکادمیک احساس میگردد. در حال حاضر بسیاری از مردم از سایتهای شبکه اجتماعی با موضوعات اجتماعی غیر علمی، برای انجام فعالیتهای علمی و آکادمیک استفاده مینمایند که این امر موجب توزیع دانش و تبادل افکارِعلمی در بسترهای غیر قابل کنترل و غیرمنسجم میگردد و باعث بروزمشکلات متعددی از جمله دشواریِ مدیریت دانش در شبکه های اجتماعی علمی میگردد. در حال حاضر نیز راهکارها و چهارچوبهای اندکی مختص توسعه و طراحی سایتهای شبکه اجتماعی وجود دارند و اندک مطالعات در دسترس نیز، به صورت بررسی موردی و غیر مهندسی میباشند. در این تحقیق سایتهای شبکه اجتماعی نوعی از سیستمهای اطلاعاتی تحت وب در نظر گرفته شده اند که دارای پیچیدگیها، مفروضات و ویژگیهای مخصوص به خود میباشند. از آنجا که امکانات، ویژگیها و ابزارهایی که چنین سایتی برای کاربران فراهم خواهد نمود، بنابر ویژگیهای محیط عملکرد آن، قوانین و ارتباطات رسمی و یا غیر رسمی موجود بین کاربران و خصوصیات آنها متغیر خواهد بود، متدولوژیِ نرم پیشنهادی درسطح بالایی از انتزاع و به صورت لایه ای پیشنهاد گردیده است. این متدولوژی بر مبنای شش کارکرد عمومی یافت شده برای سایتهای شبکه اجتماعی بنا شده که شامل مدیریت هویت، مدیریت ارتباطات، یافتن متخصص، آگاهی از محتوی، آگاهی از شبکه و تبادل میباشند. سپس، این متدولوژی پیشنهادی برای ارائه مدلی جامع جهت طراحی سایت های شبکه اجتماعی برای سازمانهای اجتماعی علمی که کاربران آنها اساتید، دانشجویان و کارمندان واحد تحقیق و توسعه (سه عامل عمده تولید علم در جامعه) میباشند، بکار گرفته شده است. طی بررسی صورت گرفته بر روی جامعه آماریِ پژوهش، کاربران چنین سایتی بیشتر تأکید بر نقش تبادلی سایت و یافتن متخصص از طریق سایت تأکید داشته اند و اعمال مکانیزمهایی جهت افزایش اعتماد در سایت را امری بسیار ضروری دانسته اند.
علیرضا کاظمی اشکان سامی
یکی از خطراتی که امروزه امنیت سیستم های کامپیوتری را به صورت بسیار جدی تهدید می کنند، بدافزار ها می باشند. با توجه به اینکه این خطرات خسارات جبران ناپذیری را می توانند به سیستم ها وارد کنند؛ لذا تشخیص و مبارزه با بدافزارها امری بدیهی و مهم تلقی می شود. از آنجایی که بدافزارهای امروزی از روش های مختلف مبهم سازی و روش های چند ریختی و ترا ریختی برای مشکل کردن تشخیص ایستای بدافزارها می کنند، باید به دنبال روشی بود که بتوان به این روش ها تا حد امکان غلبه نمود. در این رساله، برای غلبه بر مشکلات مطرح شده روشی ارائه شده است که بر اساس روش های گراف کاوی اقدام به تشخیص بدافزارها می کند. در این روش ابتدا گراف وابستگی غنی شده با فراخوانی های واسط برنامه نویسی کاربردی از کد اسمبلی برنامه ها می سازیم. سپس اقدام به استخراج گراف های پر تکرار موجود در بین برنامه های مجموعه داده کرده و بر اساس این گراف ها مدلی را برای تشخیص بدافزارها می سازیم. برای ساخت این مدل از فایل های اجرایی 435 برنامه بی خطر و 390 فایل اجرایی بدافزارهای مختلف استفاده کرده ایم. ارزیابی ها نشان می دهد که روش ارائه شده دارای دقت بالایی می باشد، به طوری که دقت تشخیص روش حدود 96% می باشد.
محبوبه غیاثی اشکان سامی
امروزه کدهای مخرب یک مشکل اساسی و ریشه اکثر تهدیدات امنیتی در اینترنت محسوب می شود. واژه بدافزار کوتاه شده نرم افزار مخرب می باشد. این واژه اصطلاحی عمومی برای توصیف تمام ویروس ها، تروجان ها، جاسوس افزار ها، تبلیغ افزار ها، بات ها، درهای پشتی و تقریباً هر چیزی که به طور خاص برای صدمه زدن به کامپیوتر و یا سرقت اطلاعات طراحی شده است، می باشد[1]. بر اساس تحقیقی که شرکت سمنتک در سال 2012 انجام داده است تعداد نمونه های یکتای جدید بدافزارها در سال 2010 بالغ بر دویست و هشتاد و شش میلیون نمونه جدید و در سال 2011 این تعداد به چهارصد و سه میلیون رسید. نکته حائز اهمیت در مورد ضرورت شناسایی بدافزارها این است که امروزه نویسندگان بدافزارها بسیار هدفمند به تولید نرم افزار های مخرب می پردازند. بدافزارها صرفاً برای مختل کردن سرویس های یک کامپیوتر خانگی نوشته نمی شوند بلکه آنها برای هدف های بسیار کلان و برنامه ریزی شده نوشته می شود. درصد بدافزارهایی که با اهداف سوء استفاده های مالی تولید می شوند به دلیل تقاضای فزاینده ی استفاده از خدمات الکترونیکی نظیر بانکداری الکترونیکی، خرید اینترنتی و به طور کلی مباحث مربوط به تجارت الکترونیک، به حدی افزایش یافته که دسته جدیدی از بدافزارها را بدافزارهای مالی می نامند [2]. انگیزه های جاسوسی صنعتی، تروریسم صنعتی یا حتی انگیزه های منفی برخی کارکنان و همچنین انگیزه های کشف اطلاعات محرمانه توسط رقبا ممکن است از جمله دلایل ایجاد این بدافزارها باشد. از نمونه های یک بدافزار صنعتی می توان به بدافزار استاکس نت اشاره کرد که در اوایل سال 2010 شناخته شد. این بدافزار، سیستم های مدیریتی اسکادا زیمنس را که معمولاً در کارخانه های بزرگ تولیدی و صنعتی مورد استفاده قرار می گیرد، مورد هدف قرار می دهد و اسرار صنعتی رایانه های این کارخانه ها را روی اینترنت بارگذاری می کند. بدافزار مذکور از پیچیدگی خاصی برخوردار بوده و قادر است ساختارهای حیاتی یک کارخانه مانند موتورها، پمپ ها، سیستم های هشدار و سایر فرامین صنعتی را از کار بیندازد. همچنین قادر است دیگ های بخار یا خطوط لوله گاز یا حتی تأسیسات حساس صنایع را منفجر کند. سیستم های مدیریت و کنترل زیمنس عمدتاً در صنایع بزرگ مانند نیروگاه های آبی، گازی و هسته ای، سکوهای نفتی، مدیریت منابع آب و سایر ساختارهای صنعتی بزرگ به کار می رود. هدف استاکس نت، مختل کردن کنترل کننده های منطقی قابل برنامه ریزی که در مراکز صنعتی، فعالیت خودکار تجهیزاتی مانند موتورها و پمپ ها را به عهده دارند و گرفتن حق دسترسی مدیریتی و دسترسی به داده های سیستم های اسکادا است که معمولاً توسط سازمان های دارای زیرساخت های حیاتی مورد استفاده قرار می گیرد. بدیهی است که در این گونه موارد امنیت یک جامعه مطرح است. بنابراین در نظر گرفتن مسئله بدافزارها جهت ارتقاء امنیت کامپیوتری امری حیاتی به نظر می رسد [3]. در حال حاضر برای شناسائی بدافزارها، اغلب از نظریه های مبتنی بر امضا استفاده می شود. امضاها عموماً رشته های بایتی یا یک توالی از دستورات هستند که برای یک نمونه بدافزار خاص از یک خانواده از بدافزارها، مشخص هستند [4]. متأسفانه به دلیل تکنیک های مبهم سازی و چندریخت کردن کدها، بدافزارها به راحتی می توانند از شناسایی شدن از طریق امضاها مصون بمانند. بدافزارهای چندریختی ، ساختار کدشان را در هر اجرای آلوده تغییر می دهند. به عنوان مثال اضافه کردن کدهای آشغال ، جایگزین کردن دستورات با دستورات معادل، جابجا کردن ترتیب دستورات، اضافه کردن کدهای مرده و ... است [5]. بدافزارهای چندریختی برای پنهان کردن خود، بدنه کدشان را رمزگذاری می کنند. این بدافزارها برای اینکه بتوانند اجرا شوند نیاز دارند از یک یا چندین تابع رمزگشا برای رمزگشایی بدنه خود استفاده نمایند. یک بدافزار فرا ریختی شامل تعداد بسیار زیادی تابع رمزگشا می باشد [6]. یک نمونه مشهور از بدافزار فرا ریختی lexotan32 [5] است که در سال 2002 شناخته شد و فقط 12.6% از نمونه های این بدافزار توسط چهل ضد-ویروس موجود شناسایی شدند. هیچکدام از این چهل ضد-ویروس نتوانستند تمام نمونه های این بدافزار را شناسایی کنند. به دلیل محدودیت هایی که روش های شناسایی مبتنی بر امضا دارد، روش های شناسایی مبتنی بر رفتار، به عنوان یک ایده نوین برای شناسایی مطرح می شود [7 و 8]. شناساگرهای مبتنی بر رفتار بجای بررسی محتوای استاتیک یک باینری، فعالیت های پویای آن ها را مد نظر قرار می دهند. ایده ی مطرح شده در روش های شناسایی مبتنی بر رفتار این است که با وجود بکارگیری تکنیک های چندریختی در بدافزارها، کماکان رفتار ثابت می ماند. به طور کلی یک راه عمومی برای شناسایی رفتار برنامه ها، بر اساس آنالیز فراخوانی های سیستمی یا فراخوانی های رابط برنامه های کاربردی می باشد که یک برنامه دارد یا می تواند داشته باشد. امروزه ابزارهای آنالیز پویا بهترین انتخاب برای تحلیل بدافزارها به صورت اتوماتیک می باشند. این ابزارها، باینری ها را تحت یک محیط کنترل شده اجرا می کنند و رفتار زمان اجرای آن ها را با استفاده از فراخوانی های رابط برنامه های کاربردی، فراخوانی های سیستمی و بررسی وابستگی داده ای بین آنها و توابع کتابخانه ای مانیتور می کنند. تولید کنندگان ضد-ویروس ها و تحلیلگرها نیز، برای کنترل روند رو به رشد بدافزار ها، به دنبال ابزاری هستند که به صورت اتوماتیک به شناسایی بدافزار ها و تحلیل کد های مخرب بپردازد [4]. از مزایای روش آنالیز پویا این است که تکنیک های مبهم سازی و رمزگذاری نمی تواند بر رفتار باینری ها تأثیر بگذارد [9]. در مقابل، از معایب تکنیک های آنالیز پویا می توان به این مطلب اشاره کرد که نمی تواند تمام رفتارهای ممکن یک باینری را به سادگی نمایش دهد. اگرچه آنالیز پویا اطلاعات واقعی در مورد کنترل و جریان داده ها به ما می دهد اما دارای سربار اضافی زمان اجرا است هرچند برای شناسایی و جمع آوری رفتارهای بدافزارهای ناشناخته موثر عمل می کند. محققان اغلب از فراخوانی واسط برنامه های کاربردی باینری ها برای مدل کردن رفتارشان استفاده می کنند. برای مثال، نویسندگان [6] خصیصه های رشته ای را از توالی فراخوانی واسط برنامه های کاربردی استخراج می کند، نویسندگان مقاله [7] از خصوصیات آماری مربوط به آدرس اشاره گرها، پارامترها و خصیصه هایشان برای نمایش ترتیب فراخوانی های واسط برنامه های کاربردی صدا زده شده استفاده می کنند. در مقاله [8] نیز خصیصه ها بر اساس فرکانس رشته های یکتا از فایل های لاگ شده استخراج می شود. متد ارائه شده در این پایان نامه بر اساس آنالیز مجموعه مقادیر رجیسترها برای شناسایی نمونه های جدید بدافزارهای چندریخت است. اساس این ایده این است که تغییرات و پخش مقادیر را در فایل اجرایی دنبال می کند. بر اساس این ایده، محتوای حافظه برای نمونه های مختلف یک بدافزار چندریخت و فراریخت تقریباً بدون تغییر باقی می ماند. از آنجایی که این بدافزارها ساختارشان را عوض می کنند، اما رفتار تحت بدنه کدهای مخربشان ثابت باقی می ماند، در نتیجه می توان انتظار داشت که تأثیراتی که بر حافظه گذاشته می شود دارای تغییرات مشابهی باشد. در این پایان نامه، اساس آنالیز مجموعه مقادیر، به صورت پویا استفاده شده است. تمرکز کار ما بر استخراج محتوای رجیسترها می باشد. برای این منظور، رفتار زمان اجرای نمونه ها به وسیله ابزاری که توسط افراد تیممان توسعه داده شده، ثبت می شود. با توجه به اینکه ابزار تیم ما قادر است که محتوای رجیسترها را قبل و بعد از هر فراخوانی واسط برنامه های کاربردی گزارش کند، ما قادر هستیم که پخش و تغییرات مقادیر رجیسترها را در اجرای باینری ها مشاهده کنیم. با استفاده آنالیزی که بر روی مقادیر رجیسترها انجام می شود، می-توان فاصله شباهت را بین باینری ها محاسبه نمود. برای سرعت دادن به پروسه شناسایی و محاسبه شباهت، نماینده هایی از مجموعه داده ها انتخاب می شوند که بتوانند رفتار تمام مجموعه داده ها را نمایش دهد. برای شناسایی نمونه جدیدی که وارد سیستم می شود، می-بایست تنها با نماینده های انتخاب شده مقایسه شود. آزمایشات نشان می دهد که متد ارائه شده قادر به شناسایی %98.4 از نمونه ها با نرخ مثبت کاذب کمتر از %3 می باشد.
زهرا صالحی اشکان سامی
از آن جایی که سیستم های کامپیوتری و اینترنت به صورت گسترده همه گیر شده است، زمینه تهدیدات امنیتی نیز از حملات غیر ساخت یافته و پراکنده که نیت اصلی آن تلاش برای بدست آوردن شهرت است، به سمت حملات گسترده چندجانبه سازمان دهی شده که هدف آن منافع مالی است، سوق داده شده است. کمبود روش های محافظتی پیشرفته در بسیاری از کامپیوتر های کاربران عادی و تعداد زیاد اهداف تجاری موجود، به بسیاری از مجرمان سایبری انگیزه داده که حملات گسترده ی امنیتی را سازمان دهی کنند. امروزه افزایش انفجارگونه ی انواع مختلف بدافزارها چالش بزرگی در صنعت آنتی ویروس ها ایجاد کرده است. برای محققان این موضوع که چگونه روند رو به رشد نمونه های بدافزارها را به صورت موثر پردازش کنند و تکنیکی سریع برای محافظت کاربران ارائه دهند، یک زمینه تحقیقاتی مهم محسوب می شود. شرکت های فعال در زمینه ی آنتی ویروس هر روز معمولاً هزاران نمونه مشکوک را دریافت می کنند که از طرق مختلفی مانند هانی پات ها و سنسورهای مانیتور جهانی [1] جمع آوری و یا توسط همکارانشان (برای مثال برخی از کمپانی های آنتی ویروس نمونه های بدافزاری را به اشتراک می گذارند)، یا کاربران و یا کانال های ثالث ثبت شده اند ]2، 3[. سپس این نمونه ها را با روش های دستی و با استفاده از نیروی انسانی، پردازش کرده، که این عملیات بسیار هزینه بر، زمان بر و مستعد خطا می باشد. تعداد زیاد گونه های بدافزاری جدید باعث شده که نیروهای انسانی شرکت های آنتی ویروس قادر به شناسایی بسیاری از بدافزارهای جدید نبوده و برخی از این بدافزارها برای مدت زمان زیادی تشخیص داده نشده، باقی می مانند. برای مثال به طور معمول، یک بازه زمانی 54 روزه بین زمان ایجاد بدافزارها و شناسایی آن ها توسط آنتی ویروس ها وجود دارد و 15% از نمونه ها حتی تا 180 روز بعد نیز تشخیص داده نمی شوند ]4[. در نتیجه، آنالیزهای دستی به عنوان یک مشکل اصلی در مسیر پردازش بدافزارها محسوب شده و احتیاج به ارائه تکنیک های پویا برای آنالیز نمونه ها و ایجاد امضاهایی با کیفیت بالا برای مقابله با روند رو به رشد بدافزارها احساس می شود. این تکنیک ها به شرکت های فعال در زمینه ی آنتی ویروس این امکان را می دهد خود را با این روند رو به رشد تولید بدافزارها هماهنگ کرده و زمان پاسخ خود به تهدید های جدید را کاهش دهند. 1-1- فرضیات و محدودیت های مسئله از آن جایی که بدافزارها برای اهداف مشخصی ایجاد می شوند این انتظار وجود دارد که رفتار آن ها با وجود اینکه از تکنیک های مختلف برای پنهان سازی خود استفاده می کنند، تقریباً ثابت بماند. برای مثال بدافزارهایی که هدفشان دزدیدن اطلاعات کارت های اعتباری است، برای این منظور عملکردهای مشابهی خواهند داشت. در این رساله به دنبال بررسی این رفتارها و یافتن الگویی از رفتارها برای شناسایی بدافزارها خواهیم بود. به دلیل محدودیت های موجود مانند نبود ابزارهای مناسب برای مانیتور کردن کامل رفتارهای یک برنامه، زمان بر و هزینه بر بودن این فرآیند، قادر به بررسی کامل تمامی جنبه-ها نبوده و احتمالا نمی توان به دقت صد در صد رسید. با این وجود تلاش می شود که مدلی با کم ترین میزان خطا ارائه گردد.
محمد نوری مطلق اشکان سامی
در این پژوهش با نگرشی ژرف به ابعاد آموزش خلاقانه و الگوریتمی به کودکان، برای اولین بار در کشور به تدوین یک پروتکل آموزش الگوریتم و برنامه نویسی پرداخته می شود. یادگیری مفاهیم برنامه نویسی کودکان را قادر می سازد به جای استفاده از کامپیوتر صرفاً به عنوان یک ابزار، قادر باشند با سهولت و خلاقیت ایده های خود را به وسیله کامپیوتر پیاده سازی کرده و حل کننده مساله شوند. کودکانی که امروز به مهارت حل مساله و تفکر الگوریتمی دست پیدا کنند، قطعا فردا به افرادی خلاق و موفق در مسابقات و عرصه های علمی دنیا در زمینه های مهندسی (مثلا مسابقات برنامه نویسی acm و مسابقات جهانی حل مساله) مبدل خواهند شد. با توجه به یافته های این تحقیق در تحلیل کیفی و کمی داده ها، این نتیجه حاصل شد که برنامه آموزشی ارائه شده در این پژوهش در پرورش مهارت خلاقیت کودکان مقطع ابتدایی موثر بوده و کودکان طی ساعاتی محدود با استفاده از ابزار برنامه نویسی scratch بیش از 9 مفهوم برنامه نویسی را آموخته اند و در پروژه هایشان به کار برده اند.
حسین زلفی محمدهادی صدرالدینی
دادهکاوی مجموعه اقلام پرسود در پایگاه داده تراکنشی، منجر به شناسایی مجموعه اقلام با بالاترین سودمندی میشود. گرچه در سال های اخیر الگوریتمهای بسیاری برای این نمونه کار پیشنهاد شده است، اما این الگوریتمها، اکثراً، کارائی خود را صرف تولید مجموعه اقلام کاندید برای تولید مجموعه اقلام پرسود مینمایند. چنانچه پایگاه داده دارای تعداد تراکنشهای بسیار زیاد و یا دارای مجموعه اقلام پرسود خیلی طولانی باشد، تولید مجموعه اقلام کاندید بسیار دشوار و زمانبر خواهد شد. در این پایاننامه، به منظور حل مشکل مذکور، الگوریتم جدیدی به نام pup-growth، ارائه شده است. این الگوریتم، کاوش مجموعه اقلام پرسود را به کمک چند راهبرد موثر برای هرس کردن مجموعه اقلام کاندید و استفاده از سیستم های چند هستهای انجام میدهد. در این الگوریتم، اطلاعات مجموعه اقلام در ساختار داده up-tree ذخیره می شود. مجموعه اقلام کاندید، به صورت کارا و تنها با دو اسکن پایگاه داده تولید میشوند. با استفاده از موازیسازی، جنگلی از up-tree ها برای ذخیره مجموعه اقلام، ایجاد می شود. این امر موجب میشود که کارائی الگوریتم در مقایسه با الگوریتم اولیه، وقتی از مجموعه داده واقعی و ساختگی استفاده می شود، بهبود چشمگیری یابد. به طوریکه بهبود بدست آمده به میزان 65% میباشد. مشاهدات نشان می دهد، هنگامی که تعداد تراکنشهای طولانی، زیاد باشد، الگوریتم ما بسیار کارا است.
محمد مهدی نعمت الهی ستار هاشمی
در روزگاری که محیط مجازی روز به روز گسترده تر و وسیع تر می شود تا جایی که کنترل و پردازش اطلاعات دریافتی تقریبا امری ناممکن شده است، نیاز به وجود سامانه ای که بتواند بر این مشکل غلبه کند، بیش از هر زمان دیگری حس می شود. سیستم هایی که بتوانند از میان خیل عظیمی از اطلاعات و محصولات گوناگون، مناسب ترین و مورد پسند ترین ها را بنا به شرایط و ویژگی های خاص هر کاربر به وی پیشنهاد دهند، طرفداران بسیاری یافته اند. حال اگر در این فرآیند از نظرات کسانی استفاده شود که ما از سلیقه آن ها آگاهیم، پیشنهادهای بسیار منطقی و دقیق تری به دست خواهد آمد. سیستم هایی که چنین وظیفه ای بر عهده دارند، "سیستم های پیشنهادی" نامیده می شوند. سیستم های پیشنهاد دهنده بر اساس تخمین امتیاز و چگونگی پیشنهادات به روشهایی تقسیم بندی می شوند که در این بین روش فیلتر همبستگی که عموماً با توجه با سابقه کاربران عمل می کند با استقبال بیشتری روبرو شده است. سیستم های مبتنی بر فیلتر همبستگی بعنوان موفق ترین سیستم های پیشنهاد دهنده شناخته می شوند. در این پایان نامه بر آنیم تا با دخیل کردن مفهوم زمان در فیلتر همبستگی و پیدا کردن الگوهای زمانی مشخص، نتایج این روش را بهبود بخشیم.
سعیده عباسی بهروز مینایی
داده «طب کار» یا سلامت کارکنان، از انبوه داده هایی است که در سازمان ها، به فراموشی سپرده می شوند. در این تحقیق به مطالعه این داده با توجه به مشخصه وقوع حوادث کاری پرداخته شده است. این داده مربوط به سالهای 1385 تا 1389، متعلق به یکی از بزرگترین خودروسازان کشور است و شامل مشخصات عمومی کارکنان و برخی از فاکتورهای عمومی سلامت آنها می شود، مشخصاتی از قبیل سن، سابقه کار و سابقه بیماری های مزمن. در این مطالعه، برخی از این مشخصات با توجه به ارتباط آنها با وقوع حوادث کاری، با روش درخت تصمیم رگرسیونی از نوع هرس شده، برگزیده شده اند. در گام بعدی به خوشه بندی داده ها به شیوه خوشه بندی c-means پرداخته شده و در کنار آن خوشه بندی به شیوه k-means نیز، به منظور مقایسه با روش c-means انجام شده است. در مطالعه انجام شده در خصوص پیشینه تحقیق، مشابه این اقدام در خصوص داده سلامت کارکنان، مشاهده نشد. همچنین تعداد خوشه های بهینه نیز با تکیه بر ویژگی های تقویت کننده خوشه بندی به شیوه ای خاص تعیین شدند. در نهایت خوشه بندی نهایی گویا مشخصاتی است که با توجه به آن ها امکان وقوع حادثه برای آن دسته از افراد کمتر خواهد بود.
مریم بهرامی محمد هادی صدرالدینی
داده کاوی علم استخراج اطلاعات ضمنی، از قبل ناشناخته و به صورت بالقوه مفید از داده های خام است. کاربرد داده کاوی در توالی ها و ساختارهای بیولوژیکی و تفسیر اطلاعات از آن ها به علم بیوانفورماتیک شهرت دارد. امروزه، حجم بالای داده در پزشکی و ژنتیک به منظور به دست آوردن نتایج و الگوهای مفید در رابطه با بیماری ها جمع آوری می شود. آنفولانزا یک بیماری شدیدا مسری، حاد و تب زای تنفسی است. این بیماری توسط ویروس آنفولانزا ایجاد می شود که یک ویروس هشت قسمتی است. آنفولانزا نوع a با توجه به آنتی ژن های سطحی آن هماگلوتینین و نورامینیداس به زیرگروه هایی تقسیم می شود. آزمایشات آنتی ژنی مرسوم در این زمینه زمانبر و پر هزینه بوده و اغلب کاملا دقیق نیستند. آنفولانزا در میزبان انسانی اش شیوع بسیار زیادی داشته است. با اندک تغییری در هر یک از آنتی ژن ها ویروس جدیدی به وجود می آید که واکسن فعلی کارائی خوبی در برابر آن نخواهد داشت، لذا سالانه نیاز به بازنگری در ترکیب واکسن وجود دارد تا ترکیب واکسن در نقاط متغیر بروزرسانی شود. استخراج دقیق نقاط متغیر و ثابت از اهمیت بسزایی برخوردار است. در این تحقیق، ابتدا با استفاده از تکنیک طبقه بندی الگوی دقیق پیش بینی زیرگروه ویروس جدید و میزبان آن بر اساس توالی های نوکلئتیدی و پروتئینی هماگلوتینین و نورامینیداس به دست آمد. سپس با استفاده از تکنیک طبقه بندی بر مبنای قوانین انجمنی، قوانین دقیق حاکم بر زیرگروه ویروس استخراج شد. در ادامه تحقیق، نقاط متغیر ویروس در اثر جهش-های آنتی ژنی رخداده در پاندامی های گذشته و نقاط تاثیرگذار در ظهور زیرگروه های جدید استخراج شد. این نقاط در طراحی واکسن آنفولانزا و به منظور بالا بردن کارایی آن قابل استفاده است.
مریم مرزبان اشکان سامی
تست نرم افزار مهمترین فعالیت در چرخه تولید نرم افزار می باشد. با توجه به اینکه 40 درصد هزینه های تولید نرم افزار صرف تست می شود، خودکارسازی عملیات تست نرم افزار و تست در مراحل اولیه تولید باعث کاهش هزینه ها می گردد. ویژگیهای خاص سیستم های تحت وب، نظیر ، توسعه تدریجی و مداوم آنها، مکانیزم پویای زبانهای برنامه نویسی وب و الگوی پیچیده فعل و انفعالات کاربران برنامه باعث می شود که روشها و ابزارها و مدلهای رایج تست نرم افزارهای متداول، برای سیستم های تحت وب کافی نباشند و احتیاج به یک ابزار اتوماتیک جهت اعتبارسنجی صفحات پویا کاملا احساس می شود. در کل بسیاری از وب سایت هایی که بر روی اینترنت قرار دارند، با توجه به استانداردهای html معتبر نیستند. این عدم اعتبار باعث ایجاد صفحات وب پویای بدشکل می شود، که بصورت جدی قابلیت استفاده برنامه های تحت وب را تحت تاثیر قرار می دهد. یافتن این نوع خطاها در برنامه های تحت وب پویا کاری دشوار و چالش بر انگیز است و ابزارهای تست کنونی قادر به یافتن این خطاها نیستند. ما ابزاری اتوماتیک برای تست برنامه های تحت وب نوشته شده به زبان php که در زمان اجرا، صفحات html آنها بصورت پویا ساخته شده و در مرورگر به کاربر نشان داده می شود، ایجاد کردیم. برخلاف روش های سنتی که محدود به بازبینی مسیرها و لینک های ایستا هستند، روش مکاشفه ای مطرح شده در این پایان نامه می تواند بر اساس تعاملات کاربر با سایت و پیش بینی اطلاعات ورودی کاربر (روش کنشگرا و پیش نگر)، بصورت اتوماتیک در مسیرهای پویای سایت (مثل شروط و حلقه ها) پیش رود و خطاهای مربوطه را در صورت وجود بیابد.
مریم شکراللهی اشکان سامی
سازمان ها با نیاز اجتناب ناپذیر به سیستم های اطلاعاتی همواره سعی در استفاده از مزایای این تکنولوژی ها و حوزه ی فناوری اطلاعات دارند، اما نگرانی که پس از سفارش و تولید این سیستم ها با صرف هزینه های سنگین پیش می آید آن است که آیا سازمان توانسته است از تمام توان این حوزه استفاده کند و اینکه مشکلات پیش رو از کجا ناشی می شوند؛ و مدیریت خدمات فناوری اطلاعات چطور و تا چه میزان می تواند به سازمان در جهت اهداف تجاری خود کمک کند. شرکت برق منطقه ای استان فارس نیز به مدت 14 سال است که از سیستم های اطلاعاتی که به سفارش خود تهیه کرده است، استفاده می کند و با چالش ها و نارضایتی هایی روبه رو می باشد. این تحقیق ابتدا به ارزیابی سیستم های اطلاعاتی شرکت برق پرداخته است و نتایج به دست آمده در قالب لیست چالش ها مورد تحلیل قرار گرفته است. نکته ی مهمی که از نتایج حاصل شد آن است که مدیران نقش سازمان را در مدیریت خدمات فناوری اطلاعات در سطح سازمان فراموش کرده اند. این امر سبب شده است اشکالات اساسی در بدنه ی سازمان شکل گیرد که نیاز به چارچوب راهبری برای کنترل و مدیریت دارد؛ لذا در ادامه ی کار چارچوب راهبری برای فناوری اطلاعات در شرکت برق از سفارشی سازی چارچوب های مطرح و موفق در دنیا به عنوان راه کار پیشنهاد شده است. این چارچوب پیشنهادی با توجه به چالش ها و نقاط ضعف بدست آمده از فرایند ارزیابی و همچنین نیازهای خاص سازمان های دولتی استخراج شده است. چارچوب سفارشی با بدنه ی مختصر تر از چارچوب های مطرح توانسته است مشکلات خاص سازمان را هدف قرار دهد، که این امر موجب صرف حداقل هزینه و زمان برای رهایی از چالش ها و دسترسی به اهداف تجاری سازمانی می شود.
فاطمه شمس عزت اشکان سامی
قه بندی چند برچسبی گسترش یافته روش های طبقه بندی سنتی است. که در آن هر نمونه می تواند به مجموعه ای از برچسب ها متعلق باشد. مثال هایی از داده های چند برچسبی در کاربرد های واقعی بسیار زیاد است که خود بیانگر اهمیت آن می باشد. به عنوان مثال یک فیلم می تواند به طور هم زمان هم به عنوان جنگی، هم جنایی و هم هیجان انگیز برچسب بخورد. از سوی دیگر مشاهده می شود که اکثر مجموعه های داده ای، در دنیای واقعی به صورت نامتوازن هستند. از این رو به بهبود روش طبقه بندی چند برچسبی، روی مجموعه داده های نامتوازن پرداخته خواهد شد. الگوریتم iblr_ml از ترکیب دو الگوریتم نزدیک ترین همسایه و رگرسیون منطقی ایجاد شده است. در این پایان نامه برای افزایش قدرت تحمل این الگوریتم، در مقابل داده های نامتوازن، این روش با الگوریتم های تجمعی کیسه ای و ترفیعی ترکیب گردیده. در نهایت برای ارزیابی روش پیشنهادی، بامجموعه داده های متفاوتی اجرا گردیده که نتایج بیانگرکارایی خوب روش پیشنهادی است. ایده دیگری که در این پایان نامه به آن پرداخته شده، ارائه اولین روش برای چند برچسبی کردن مجموعه داده تک برچسبی و به کار گیری آن برای مجموعه داده مرتبط با مخازن نفت می باشد. سپس بااستفاده از مجموعه داده چند برچسبی حاصله والگوریتم پیشنهادی،یک یادگیرنده جهت پیشنهاد بهترین روش ازدیاد برداشت از مخازن نفت جدید ایجادشده است. همچنین تلاش شد که برای بهبود کارایی الگوریتم iblr-ml، بخش دوم آن با الگوریتم ivm جایگزین گردد. نتایج حاصل از ارزیابی نشان می دهد که این الگوریتم نسبت به تمام الگوریتم هایی که در رده پایین تری از iblr-ml قرار گرفته اند کارایی بهتری دارد.
علی طهمورث پور محمد لگزیان
در این تحقیق به ضرورت ایجاد پایگاه داده مشترک در صنعت بیمه ایران پرداخته شده و مزایا و موانع اشتراک گذاری اطلاعات در بین بیمهگران بررسی میشود. بدین منظور از روش تحقیق آمیخته جهت جمعآوری اطلاعات استفاده گردیده است. در ابتدا نسبت به انجام مصاحبه با خبرگان صنعت بیمه اقدام و سپس با توزیع پرسشنامه نظرات کارشناسان این صنعت اخذ، سپس با استفاده از آزمون غیر پارامتریک فریدمن به رتبهبندی موانع و مزایا از دید پاسخ دهندگان اقدام گردید. به منظور ایجاد پایگاه داده مشترک در بین بیمهگران ایجاد یک سازمان غیر انتفاعی با مشارکت تمامی بیمهگران پیشنهاد شد.
سید علی محمدزاده درزی اشکان سامی
بدافزار مجموعه دستوراتی است که توانایی ضربه زدن به سیستمی که بر روی آن اجرا می شود را داراست. روشهای شناسایی بدافزارها به طور معمول به سه دسته ی: مبتنی بر امضاء، مبتنی بر معنا و مبتنی بر رفتار تقسیم می شوند. ما نیز در این مقاله از روش مبتنی بر رفتار استفاده کردیم اما در اقدامی جدید تنها از مجموعه فایل های سالم جهت ساختن مدل استفاده کردیم. به عبارتی از هیچ بدافزاری در فاز آموزش استفاده نشده است. ایده اصلی عدم استفاده از بدافزار را می توان برگرفته از مبحث شناسایی داده های دورافتاده دانست. ما بر این باوریم که با توجه به تفاوت های موجود در رفتار فایل های سالم و بدافزار می توانیم تنها با کاوش رفتاری مجموعه فایل های سالم و استفاده از معیاری برای میزان شباهت، بدافزارها را با دقت بالایی شناسایی کنیم. از مهمترین تفاوتها در رفتار فایل های خوش خیم و بدافزار می توان به این موضوع اشاره کرد که معمولا فایل های خوش خیم در ابتدای اجرایشان رفتار خاصی از خود نشان نمی دهند در حالیکه بدافزارها معمولا رفتار بدافزاریشان را در ابتدای فعالیتشان قرار می دهند. دراین پایان نامه، به منظور استخراج ویژگی از مجموعه رفتار فایل های سالم از الگوریتم پرفیکس اسپن استفاده کردیم و سپس با استفاده از معیار شباهت میزان شباهت هر فایل تست را با مجموعه رفتار فایل های سالم بدست آورده و در رابطه با برچسب آن تصمیم گرفتیم. از مزایای این روش می توان به شناسایی بدافزارهای ناشناس با دقت بالا اشاره کرد. از دیگر مزایا می توان به برخورد با بدافزارهایی اشاره کرد که از تکنیک های پکینگ، چندریختی، فراریختی و ... استفاده می کنند اشاره کرد. در طرف مقابل نیز می توان از معایب این روش به این نکته اشاره کرد در صورتیکه بدافزار رفتاری مشابه به رفتار فایل های سالم نشان دهد سیستم ما به اشتباه آن را به عنوان فایل سالم شناسایی میکند و به آن اجازه اجرا می دهد. اما از طرفی معتقدیم تا زمانیکه یک بدافزار رفتاری مشابه رفتار سالم از خود نشان دهد نمی تواند آسیبی به سیستم برساند، پس در صورتیکه از یک سیستم مانیتورینگ و صدور مجوز اجرا آنلاین استفاده کنیم قادر خواهیم بود درست در زمانیکه بدافزار اقدام به سوییچ به رفتار بدافزاریشان کند آن را تشخیص داده و اجازه ادامه اجرا به آن ندهیم.
صابر پوراسمعیلی سید علی اکبر صفوی
حملات اخیر به سیستم های اسکادا، موجب دو چندان شدن نیاز به ارزیابی های امنیتی و کنترلی این سیستم ها شده است، تا بدین طریق راهکار های مناسب جهت امن کردن سیستم های اسکادا با حفظ کارکرد های کنترلی آن ها ارائه شود. اجرای ارزیابی های کنترلی و امنیتی بر روی یک سیستم اسکادای صنعتی و در حال کار، می تواند موجب بروز خسارت شود. در نتیجه به عنوان زیر ساختی برای ارزیابی های کنترلی و امنیتی، نیاز به پیاده سازی یک بستر آزمون برای اسکادا وجود دارد. در این پایان نامه، طراحی و اجرای اولین بستر آزمون اسکادا در ایران که بر اساس نیاز های روز کشور می باشد، ارائه می شود. بوسیله این بستر آزمون پیشنهادی، ابعاد مختلف یک سیستم اسکادا از نقطه نظر فرایند، تجهیزات کنترلی و شبکه مدلسازی و شبیه سازی شده است. در بستر آزمون پیشنهادی از شبیه ساز های labview و opnet جهت مدلسازی و شبیه سازی فرایند و شبکه اسکادا استفاده می شود. همچنین امولاتور های ibh softplc، winplc-engine و plcsim جهت شبیه سازی عملکرد plc ها بکار گرفته می شوند. علاوه بر این برای بالا بردن دقت نتایج ارزیابی ها، ارتباط تجهیزات واقعی (مانند plc های شرکت زیمنس) با اجزاء شبیه سازی شده برقرار شده و یک بستر آزمون یکپارچه را تشکیل می دهد. این بستر آزمون اسکادا علاوه بر دارا بودن قابلیت اجرای ارزیابی های کنترلی و امنیتی اسکادا های تولیدکنندگان مختلف، امکان اجرا و تحلیل حملات سایبری و بررسی های آسیب پذیری را نیز فراهم می کند. با ارزیابی های صورت گرفته، تحقق اهداف و قابلیت های این بستر آزمون نیز بخوبی نشان داده می شود.
فاطمه خدابنده اشکان سامی
تولید نفت از مخازن نفت با مشکلات زیاد و سرمایه های هنگفتی همراه است .در ابتدا نفت موجود درون چاه حدود 27 درصدآن با روش طبیعی وابتدایی (primery) که انرژی وفشار موجود درون مخزن باعث اعمال نیرو برروی نفت موجود درون شبکه ی فضای خالی مخزن می شودتولید می شود0 و نفت را به سمت چاه برداشت و تولید هدایت میکند و حدود 73 درصد نفت درون چاه باقی میماند که با روش ازدیاد برداشت قابل برداشت میباشد 0 تشخیص صحیح نوع روش ازدیاد برداشت کمک زیادی به برداشت بیشتر نفت از چاه می کند و چه بسا تشخیص اشتباه نوع روش ازدیاد برداشت باعث شکست پروژه و به هدر رفتن سرمایه های هنگفتی میشود. در این تحقیق سعی شده با بررسی خصوصیات مخازن قوانینی وضع نموده تا با کمک روش های داده کاوی موجود بتوان روش ازدیاد برداشت مناسبی برای استخراج نفت از درون هر چاه را انتخاب نمود0 از آنجا که ذخایر شناخته شده نفت جهان در زمان نه چندان دور شدیداً کاهش می یابد،تداوم حیات کشورهای غربی به یافتن کالا با کالاهای انرژی زای جایگزین نفت محتاج است و این کار به سرمایه گذاریهای قابل توجه بخش غیر دولتی در کشورهای جهان غرب نیز احتیاج دارد. لذا این نکته عامل فشاری در جهت کشف قوانین جدید برای استخراج هرچه بیشتر نفت از چاه ها و سکوهای نفتی در کشورهای دارای چنین ذخایر خدادادی می باشد تا بتوانند به تمام نیازهای متقاضیان نفت در جهان پاسخ دهند. این تحقیق بنا به ضرورت به دنبال کشف قوانین جدید در روشهای شناسایی افزایش برداشت نفت از ذخایر و منابع نفتی کشور خواهد پرداخت.
امیر شیبانی علی اکبر پویان
به اشتراک گذاری اطلاعات روز به روز در تار جهان گستر وب رواج بیشتری پیدا می کند. کاربران نظرات خود را در شبکه های اجتماعی، بلاگ ها، فروم ها و غیره با یکدیگر تبادل می کنند. کاربران می توانند دیدگاه های خود را پیرامون محصولاتی که از یک فروشگاه خریده اند به اطلاع دیگر خریداران برسانند. این اطلاعات توسط خریداران بالقوه مورد مطالعه قرار گرفته و در تصمیم نهایی آن ها در خرید کالا و یا انتخاب کالایی دیگر، نقش عمده ای بازی می کند. این اطلاعات همچنین توسط تولیدکنندگان مورد تحلیل قرار گرفته تا نقاط قوت و ضعف محصول خود را بشناسند و میزان محبوبیت خود را با دیگر رقبا مقایسه کنند. بنابراین به هیچ عنوان دور از ذهن نیست که اسپم نویسان از این پتانسیل بالا برای پیشبرد اهداف خود بهره برده و اقدام به انتشار اسپم در خلال این دیدگاه ها نمایند. این گونه از اسپم با نام «اسپمِ دیدگاه»، «اسپم نظرات» و یا در سطح مورد بررسی این پژوهش (سایت های تجارت الکترونیکی) با نام «اسپم دیدگاه محصولات» شناخته می گردد. متأسفانه تا امروز کار چندانی در این حوزه صورت نگرفته است. این پژوهش در نظر دارد با ارائه یک سیستم جهت شناسایی این نوع اسپم گامـی در جهت ایجاد فضای وب عاری از دروغ و مزاحمت بردارد.
مصطفی کاشانی اشکان سامی
امروزه روند رو به رشد تصادفها در راهها و تلفا ت و خسارتهای ناشی از این گونه حوادث باعث ضایع شدن و اتلاف سرمایه های کشور می شوند. بنابراین سرمایه گذاری صحیح و شناخت هر یک از عوامل سه گانه تصادف (راه، راننده و وسیله نقلیه)، بررسی اصولی مشکلات این عوامل و بیان راه حلهای کاربردی می تواند تا حد زیادی از بروز این گونه حوادث بکاهد. یکی از معضلات اساسی شبکه راههای کشور عدم کیفیت جاده ها و بالتبع افزایش تعداد تصادفات رانندگی منجر به مرگ ؛ می باشد . در این پایان نامه سعی بر این است که با استفاده از الگوریتم اتوماتای سلولی ؛ راندمان مجموعه دخیل در صنعت جاده و نقش آنها را در کاهش تصادفات را بررسی نماییم . الگوریتم اتوماتای سلولی می تواند معادلات پیچیده را بشکلی بسیار ساده و قابل فهم به خواننده بیان نماید . این مجموعه عبارتند از: (ترافیک؛ آب و هوا؛ نظارت ؛ طراحی ؛ زیرسازی ؛ علائم )؛ که مجموعه اتوماتای سلولی مورد نظر (اتوماتای جاده )در هر زمان می توانند چندین حالت داشته باشند..یکی ازشاخصها بررسی تعداد تصادفها، نرخ تصادف بر کیلومتراست . نتایج بدست آمده در این مقاله حاکی از آن است که رابطه معکوسی بین اتوماتای جاده ونرخ تصادف وجود دارد ؛ یعنی افزایش راندمان مجموعه دخیل در ساخت جاده؛ باعث کاهش تصادفات منجر به مرگ می شود . البته تاثیر هر کدام از عوامل در میزان خسارت وارده ؛متغیر می باشد بااستفاده از یک تحقیق ساده به این نتیجه می رسیم که هزینه بیشتر در جهت بهبود جاده ها باعث کاهش هزینه در جهت صدمات ناشی از زیانهای اقتصادی تصادفات می شود . و گاها این هزینه کمتر از هزینه صرف شده در جهت جبران زیانهای وارده به خانواده های فوتی یا جرحی تصادف می باشد . هدف این پایان نامه تقویت نهادها و موسسات ذیربط و همچنین ایجاد مشارکت های موثر جهت اصلاح و بهبود سیستم های ترافیک راه می باشد تا از این طریق سیستم های سالم تر و ایمن تری برای عبور و مرور راهها و جاده ها مهیا شود. این گونه مشارکتها بایستی به صورت عرضی بین بخشهای مختلف دولت و به صورت طولی بین سطوح مختلف دولتی، همچنان که بین سازمانهای دولتی وغیردولتی وجود دارد، ایجاد گردد. نتایج این مقاله نشان می دهد که با تغییر رویکرد افزایش نظارت بر ساخت جاده ؛ امکان کاهش تلفات ناشی از تصادفات وجود دارد .
سارا مشتری زهره نما اشکان سامی
سیستم های کنترل نظارتی و اکتساب داده (اسکادا) سیستم های الکترونیکی هستند که جهت کنترل و مانیتور کردن تجهیزات در صنایع و زیرساخت های بزرگ مورد استفاده قرار می گیرند. استفاده از سیستم های کامپیوتری و اتصالات شبکه در سیستم های اسکادا جهت کنترل بخش های مختلف سیستم از راه دور، این سیستم ها را در برابر تهدیدات سایبری آسیب پذیر نموده است. با توجه به نقش حیاتی سیستم های اسکادا در زیرساخت های بحرانی مانند صنایع نفت و گاز، برق، آب رسانی، نیروگاه ها و غیره امنیت آن ها از اهمیت ویژه ای برخوردار است. طبق گزارش وزارت امنیت داخلی ایالات متحده آمریکا نقاط ضعف امنیتی سیستم های اسکادا در سه دسته کلی قرار می گیرند: 1) نقاط ضعف امنیتی مربوط به نرم افزار ، 2) نقاط ضعف امنیتی مربوط به نصب، پیکربندی و نگهداری سیستم، 3) نقاط ضعف امنیتی مربوط به طراحی و پیکربندی شبکه. در این پایان نامه با مورد توجه قرار دادن نقاط ضعف امنیتی نرم افزار، یک روش اتوماتیک جهت شناسایی قسمت هایی از کد نرم افزار که شامل نقاط ضعف امنیتی هستند ارائه شده است. این روش به تیم های توسعه دهنده نرم افزار کمک خواهد کرد تا با صرف زمان و منابع محدود خود روی قسمت های آسیب پذیر کد، امنیت نرم افزارها به ویژه نرم افزارهای پرکاربرد در صنایع را بهبود بخشند. روش ارائه شده با استفاده از معیارهای اندازه گیری ویژگی های نرم افزار و روش های داده کاوی مکان های آسیب پذیر کد را شناسایی می کند. بر این اساس معیارهای اندازه گیری پیچیدگی ساختاری نرم افزار مانند تعداد خط کد به عنوان خصیصه جهت شناسایی فایل های آسیب پذیر نرم افزار مورد استفاده قرار گرفته اند. مدل ارائه شده با به کارگیری مجموعه داده یک پروژه حدود 94% از فایل های آسیب پذیر را در نسخه های بعدی همان پروژه شناسایی کرد. با توجه به این که بسیاری از شرکت ها اطلاعات مربوط به نقاط ضعف امنیتی نرم افزار هایشان را جهت ساخت مدل ندارند، مدل بین پروژه ای که از مجموعه داده پروژه های دیگر جهت شناسایی نقاط ضعف امنیتی در پروژه مورد نظر استفاده می کند ارائه شده است. مدل بین پروژه ای حدود 70,18% از فایل های آسیب پذیر را بین پروژه های مختلف با نرخ مثبت کاذب قابل قبول شناسایی کرد. در این پایان نامه علاوه بر معیارهای اندازه گیری پیچیدگی معمول، معیارهای اندازه گیری پیچیدگی جدیدی ارائه شده است. اضافه کردن این معیارها کارایی مدل های پیش بینی کننده بین پروژه ای را در شناسایی فایل های آسیب پذیر تا حدود 77,16% بهبود بخشید و نرخ مثبت کاذب را هم تا حدودی بهبود داد.
سیدمحمد بلاغی ابراهیم فرجاه
دراین پایان نامه به بررسی دقیق نحوه عملکرد توربین های بادی و تعیین عوامل موثر بر تولید انرژی توسط این توربین ها پرداخته می شود.همچنین جهت پیش بینی میزان تولید بر اساس داده های واقعی جمع آوری شده چند روش از علم داده کاوی (رگرسیون – سری زمانی وکلاسترینگ) را مورد استفاده قرار می دهیم تا نتایج بهتری بدست آوریم. لذا ابتدا مفاهیم، اصول، و ابزارهای معرفی شده برای داده کاوی بیان شده و بعضی از روش هایش بر روی یک نمونه عملی از یک سازمان واقعی، پیاده سازی می شود. با توجه به اطلاعات موجود در سیستم اهدافی چون پیش بینی میزان (میانگین) تولید سالانه در مکان مورد نظر و تعیین مکان مناسب جهت استقرار ایستگاه توربین بادی دنبال می گردد.نتایج حاصل از استفاده از این ابزارها و مقایسه داده های تجربی گرفته شده از یک مزرعه بادی با نتایج مدل ارائه شده نشان می دهند که این مدل برای پیش بینی میزان تولید انرژی در مناطق مستعد جهت نصب توربین های بادی مناسب و نسبتا دقیق می باشد و می تواند الگوی مناسبی برای استفاده آتی در سازمانها و نهادهای مربوطه باشد
فهیمه گودرزی بهروز مینایی
چکیده به کارگیری تجزیه ماتریس در کاهش ابعاد داده نوع گراف: مورد کاوی داده ریز آرایه به کوشش: فهیمه گودرزی یکی از شاخه های مهم بیو انفوماتیک فناوری ریز آرایه dna است که امکان بررسی عبارت هزاران ژن را به طور هم زمان و در حداقل زمان ممکن می سازد که در سال های اخیر موجب تولید حجم انبوهی از داده های عبارت ژن شده است. تحلیل آماری این داده ها شامل نرمال سازی، خوشه بندی، طبقه بندی و ... غیره از جمله روش های مورد استفاده در تحلیل این نوع داده ها است. اما تکنیک های داده کاوی و یادگیری ماشین برای داده با ابعاد بالا موثر نمی باشند و دقت پرس و جو و بهره وری آن ها با افزایش ابعاد داده به سرعت تنزل می یابد. از اینرو در دهه اخیر با ظهور فناوری ریز آرایه، مرکز توجه جدیدی به مسائلی چون بازنمایی داده و کاهش ابعاد داده عبارت ژن معطوف گشته است و پژوهش های بسیاری بر روی بررسی تاثیر استفاده از تکنیک های کاهش ابعاد بر روی مدل های کاوش نظارت شده و یا بدون نظارت داده ریز آرایه انجام شده است. در این رساله روش کاهش ابعاد مبتنی بر تجزیه ماتریس غیر منفی ارایه می شود و عملکرد آن بر روی تجزیه و تحلیل خوشه بندی دو مجموعه داده leukemia و 9-tumors که کلاس نمونه ها در آن شناخته شده است، مورد بررسی قرار می گیرد. از نرم افزار matlab برای تحلیل داده ها استفاده می شود. با توجه به انطباق قابل توجه نتایج خوشه بندی با گروه بندی واقعی داده ها، که بر اساس عامل های کاهش یافته انجام می شود، می توان از این روش در خوشه بندی مواردی که اطلاع دقیقی از گروه بندی واقعی داده ها در دست نیست، استفاده کرد. کلمات کلیدی: بیو انفورماتیک، تجزیه ماتریس، کاهش ابعاد، ریز آرایه dna، داده عبارت ژن، خوشه بندی
فروغ سلیمانی علی اکبر پویان
کتابخانه زیرساخت فناوری اطلاعات (itil) محبوب ترین چارچوب برای مدیریت خدمات فناوری اطلاعات است. مرجع زیرساخت فناوری اطلاعات یک چارچوب عملیاتی و مجموعه ای از بهترین تجربه های ارائه دهندگان خدمات فناوری اطلاعات در سازمان هایی با ساختار پیچیده it است. پیاده سازی این چارچوب، مدیریت سامانه های it را شفاف و در نتیجه تصمیم گیری مدیریتی در خصوص کسب وکار و فناوری اطلاعات را تسهیل می کند. این چارچوب علاوه بر کمک به تصمیم گیری مناسب مدیران، امکان ارزیابی و سنجش تغییرات داده شده بر روی سرویس های مورد نیاز سازمان را ایجاد می کند؛ به طوری که این تغییرات، برای هر دو طرف ماجرا، سودده خواهد بود. با این حال، پیاده سازی itil نه تنها بسیار دشوار است، بلکه هیچ روش خوبی برای پیاده سازی itil وجود ندارد. در نتیجه، پیاده سازی itil معمولا وقت گیر، پرهزینه و خطرناک است. هدف این پایان نامه پیشنهاد یک مدل جدید برای ارزیابی پیاده سازی itil در بانک است و بر اساس اولویت ها، وابستگی ها و دستورالعمل های بانک نکاتی را ارائه می دهد. مدل های به کار گرفته شده در itil ارزیابی شده و از بین آن ها بنا به دلایلی که به تشریح بحث می شود، مدل cmmi انتخاب و مزایا و نقایص آن بررسی می شود، سپس مدل جدیدی بر اساس این مدل ارائه شده که کاستی های مدل های ارائه شده تا کنون را برطرف می کند، زیرا توصیفی تر، همراه با جزئیات بیشتر و نیز مفیدتر می باشد، به این دلیل که به صورت اختصاصی برای itil طراحی شده و در نهایت هر پروسه itil آن را تحلیل می شود. سپس یک برنامه عملی از مدل پیشنهادی با استفاده از پرسشنامه برای ارزیابی مدیریت تغییرات و پیکربندی فرآیندهای مدیریت و همچنین به عنوان تابع میز خدمات معرفی شده و جهت جمع آوری و تحلیل مدل جدید به چندین بانک مراجعه و در نهایت نمونه اولیه ای از مدل جهت حمایت از ارزیابی ارائه خواهد شد.
سارا مسعودی محمد هادی صدرالدینی
از منظر زبان شناسی , سازه ای که ضمیمه ندارد و معنی به آن وابسته است و بین تمام کلمات خویشاوند وهم زمینه مشترک است , ریشه یا بن نامیده می شود. بر این اساس فرآیند ریشه یابی ,فرآیند تعیین کننده ریشه های بدست آمده از یک لغت است به عبارت دیگر , هدف از ریشه گیری کاهش فرم های لغتی متغیر جهت دست یابی به یک ریشه تک واژه ای می باشد.ریشه جزئی از کلمه است که پس از حذف تمام عناصر الحاقی یا وندهای کلمه « پسوند , پیشوند , میانوند» بر جای می ماند. یکی از مهمترین موضوعات در پردازش زبان طبیعی (nlp) و بازیابی اطلاعات (ir) یافتن ریشه کلمات است , علاوه بر آن به منظور افزایش کارایی سیستم های بازیابی اطلاعات استفاده از روش ریشه یابی کلمات مفید است زیرا اشتقاقات مختلف یک کلمه به ریشه آن کلمه باز می گردند. در نتیجه جستجو بر اساس ریشه کلمات انجام خواهد شد و اندازه ساختار ایندکس کاهش می یابد.
رامتین آرین حمید رضا شهریاری
در این مستند سعی شده است تا روشی برای کشف حملات بات نت به کمک بررسی الگوی رفتاری شبکه و تشخیص ناهنجاری ارائه شود. فرایند تشخیص از مراحل تشکیل مدل شبکه ای، خوشه بندی اتصالات و خوشه بندی بر اساس مدل دوکی و بررسی گزارش تحلیل گر جانبی تشکیل شده است. این روش ترافیک شبکه را در قالبی با عنوان مدل شبکه ای، مدل سازی می کند. در مدل شبکه ای، یال های گراف به صورت برداری تعریف شده اند که مشخصات اتصال های بین دو گره را نگهداری می کند. این مدل، بر اساس ویژگی های بردار اتصال ها خوشه بندی می شود و گره هایی با رفتار مشابه در خوشه یکسان قرار داده می شوند. در ادامه، روشی با عنوان خوشه بندی مبتنی بر مدل دوکی، بر اساس رفتار ذاتی و ویژگی های عام حملات بات نت، طراحی و پیاده سازی شده است. سپس گزارش تحلیل گر جانبی برای تشخیص بات های غیر فعال استفاده می شود. فرایند تشخیص به صورت افزایشی و در قالب پنجره های زمانی یکسان است. به کمک این اقدام پیشینه ای از رفتار اعضای شبکه در مراحل قبلی در دست است که به دقت تشخیص کمک شایانی می کند. در آخر، روش پیشنهادی با بات های مشهوری مانند زئوس و اسپای بات مورد ارزیابی قرار گرفت. دقت تشخیص بات زئوس 90 درصد و دقت تشخیص بات اسپای بات 80 درصد ارزیابی شد. همچنین دقت تشخیص مدل پیشنهادی در تشخیص بات های مبتنی بر پروتکل گفتگوی اینترنتی و http، 100 درصد ارزیابی شده است.
مریم کراری یحیی تابش
با گسترش جامعه اطلاعاتی نیاز به ذخیره سازی حجم بالای اطلاعات هر روز بیشتر و بیشتر می شود و این امر معضلاتی برای سازمانهای دارای انباره های دیجیتالی از نظر ظرفیت منابع ذخیره سازی و بالارفتن هزینه ها ایجاد کرده است. مقیاس پذیری و کارایی بالا دو معیار اصلی برای سیستم های در رده مقیاس داده های بسیار حجیم هستند. سیستم های انباره دیجیتال نیز از این نوع سیستم ها می باشند و می بایست حجم بالایی از اشیای دیجیتال را ذخیره کرده و با کارایی خوبی بازیابی نمایند. مشکلی که اکنون سازمانهایی نظیر کتابخانه ملی با آن مواجه هستند فراهم کردن زیرساخت نرم افزاری قابل اتکاو گسترش پذیر و در عین حال هزینه های پایین برای تجهیزات ذخیره سازی اشیای دیجیتالی می باشد. روش هایی که تاکنون برای مدیریت بانک های اطلاعاتی استفاده می شد نظیر parallel databasesویا clustering و یا main memory databases برای حجم های در حد پترابایت کارایی مناسبی ندارد و بایست به دنبال راه حل هایی نظیر استفاده از فایل سیستم های توزیع شده باشیم. با توجه به تجربه ای که شرکت های بزرگی نظیر گوگل و یاهو داشته اند و منجر به ارائه راه حل هایی متن باز در ذخیره سازی و پردازش های حجیم شده است به نظر می رسد فایل سیستم توزیع شده راه حل موثری باشد و احتمال دارد با بررسی تجربه آنها بتوانیم برای انباره های دیجیتال راه حل مناسبی بدست آوریم. در این تحقیق با بررسی ویژگی هایی از استانداردهای باز در زمینه کتابخانه دیجیتال، معماری نمونه ای انتخاب شده است که بتواند در ماژول مدیریت ذخیره سازی خود در لایه های پایین ، قالب های متفاوتی (دیتابیس های متفاوت، فایل سیستم محلی، گرید، ابر و ...) را برای عملیات ذخیره سازی در نظر بگیرد. چارچوب نرم افزار متن باز فدورا معماری لایه های زیرین یک مخزن دیجیتال و سرویس های هسته ای ضروری مربوط به آن را به شکل انعطاف پذیری فراهم می کند. همچنین به نظر می رسد مدل داده ای منعطف فدورا که از ساختار استریم فایل ها برای نگهداری اشیای دیجیتال استفاده می کند بهره گیری از ذخیره سازی سطح بالای توزیع شده را مهیا کند. راه حلی که این پژوهش به دنبال آن بوده است طراحی مدلی نرم افزاری برای ذخیره سازی اشیای دیجیتال در انباره فدورا بر اساس فایل سیستم توزیع شده هادوپ و اثبات کارایی آن برای مورد مطالعاتی سازمان اسناد و کتابخانه ملی می باشد.
سید علی محمدزاده درزی اشکان سامی
بدافزار مجموعه دستوراتی است که توانایی ضربه زدن به سیستمی که بر روی آن اجرا می شود را داراست. روشهای شناسایی بدافزارها به طور معمول به سه دسته ی: مبتنی بر امضاء، مبتنی بر معنا و مبتنی بر رفتار تقسیم می شوند. ما نیز در این مقاله از روش مبتنی بر رفتار استفاده کردیم اما در اقدامی جدید تنها از مجموعه فایل های سالم جهت ساختن مدل استفاده کردیم. به عبارتی از هیچ بدافزاری در فاز آموزش استفاده نشده است. ایده اصلی عدم استفاده از بدافزار را می توان برگرفته از مبحث شناسایی داده های دورافتاده دانست. ما بر این باوریم که با توجه به تفاوت های موجود در رفتار فایل های سالم و بدافزار می توانیم تنها با کاوش رفتاری مجموعه فایل های سالم و استفاده از معیاری برای میزان شباهت، بدافزارها را با دقت بالایی شناسایی کنیم. از مهمترین تفاوتها در رفتار فایل های خوش خیم و بدافزار می توان به این موضوع اشاره کرد که معمولا فایل های خوش خیم در ابتدای اجرایشان رفتار خاصی از خود نشان نمی دهند در حالیکه بدافزارها معمولا رفتار بدافزاریشان را در ابتدای فعالیتشان قرار می دهند. دراین پایان نامه، به منظور استخراج ویژگی از مجموعه رفتار فایل های سالم از الگوریتم پرفیکس اسپن استفاده کردیم و سپس با استفاده از معیار شباهت میزان شباهت هر فایل تست را با مجموعه رفتار فایل های سالم بدست آورده و در رابطه با برچسب آن تصمیم گرفتیم. از مزایای این روش می توان به شناسایی بدافزارهای ناشناس با دقت بالا اشاره کرد. از دیگر مزایا می توان به برخورد با بدافزارهایی اشاره کرد که از تکنیک های پکینگ، چندریختی، فراریختی و ... استفاده می کنند اشاره کرد. در طرف مقابل نیز می توان از معایب این روش به این نکته اشاره کرد در صورتیکه بدافزار رفتاری مشابه به رفتار فایل های سالم نشان دهد سیستم ما به اشتباه آن را به عنوان فایل سالم شناسایی میکند و به آن اجازه اجرا می دهد. اما از طرفی معتقدیم تا زمانیکه یک بدافزار رفتاری مشابه رفتار سالم از خود نشان دهد نمی تواند آسیبی به سیستم برساند، پس در صورتیکه از یک سیستم مانیتورینگ و صدور مجوز اجرا آنلاین استفاده کنیم قادر خواهیم بود درست در زمانیکه بدافزار اقدام به سوییچ به رفتار بدافزاریشان کند آن را تشخیص داده و اجازه ادامه اجرا به آن ندهیم.
آرمان نجفی مخصوص اشکان سامی
از یک پروژه متن باز، به طور کلی چند گروه بهره می برند: مدیران پروژه، توسعه دهندگان، کاربران و حامیان مالی پروژه. در مواجه با یک پروژه جدید، موفقیت یا شکست آن، بر تصمیم های هر کدام از این گروه ها موثر خواهد بود. از این رو شناسایی زودهنگام موفقیت در پروژه متن باز می تواند تاثیر به سزایی در مدیریت و استراتژی های هر گروه بگذارد. در پژوهش پیش رو، ابتدا به شناسایی و جمع آوری داده های مربوط به 500 پروژه موفق و ناموفق از sourceforge اقدام شده است. در اولین گام با مطالعه مجموعه داده سعی شده است تا پرسش های کلیدی نظیر میزان استفاده از امکانات sourceforge، حداقل تیم توسعه، حداقل انتشار نسخه و نظام حاکم بر دانلود در پروژه های موفق و ناموفق، پاسخ داده شود. سپس با اعمال الگوریتم های داده کاوی، برخی از قوانین معمول در پروژه های موفق شناسایی گردید. بر این اساس ارائه بیش از یک پروانه کاربری ، عدم استفاده از ابزارهای قدیمی، ارائه پشتیبانی مناسب در سه ماهه سوم تولید، غالب پروژه ها را به سمت احتمال موفقیت بیشتر سوق می دهد. در گام سوم، مدلهایی برای توصیه موفقیت در این راستا ارائه شده است. بر اساس آزمایشات انجام گرفته بهترین مدل توسط الگوریتم classification via regression ایجاد می شود. همچنین مدل های کاربردی تر، به گونه ای ساخته شدند که در کوتاهترین زمان پس از شروع پروژه، قادر به پیش بینی با دقت مناسب باشند.
رضا بخشنده زهره عظیمی فر
هدف این پایان نامه پیاده سازی روش های نوین جستجو بر روی شبکه های اجتماعی با توجه به ساختار گراف این شبکه هاست و شامل دو بخش کلی "جستجوی گراف اجتماعی" و "جستجو بر حسب محتوا" می باشد. در بخش اول پایان نامه سعی می کنیم الگوریتم های موجود را برای پیدا کردن کوتاهترین مسیر بین دو کاربر مختلف آزمایش کنیم و نیز الگوریتمهای بهتری جهت انجام این کار ارائه کنیم. لازم به ذکر است که در الگوریتم های ارائه شده باید اطلاعات درخواستی از شبکه ی اجتماعی حداقل باشد. به عبارت دیگر تعداد درخواست هایی که هر الگوریتم به سرورهای شبکه ی اجتماعی می فرستد و نیز تعداد نودهایی که تولید می شود یا گسترش می یابد باید تا حد امکان کم باشد. همچنین نسخه هایی از الگوریتم های ارائه شده را برای پیدا کردن کوتاهترین مسیر بین یک کاربر و مجموعه ای از کاربران دیگر ارائه می کنیم. در بخش دوم نیز نمونه هایی از کاربردهای الگوریتم های ارائه شده را بررسی می کنیم. اپتدا سیستم پیشنهاد دوست را مورد بررسی قرار می دهیم و سپس از داده های شبکه های اجتماعی در شخصی سازی نتایج جستجوی موتورهای جستجو بر حسب علایق کاربر استفاده می کنیم. کلیه ی الگوریتم های ارائه شده بر روی شبکه ی اجتماعی توییتر به صورت آنلاین پیاده سازی شده و اجرا شده است. همچنین از داده های شبکه ی اجتماعی فرندفید نیز جهت تست برخی از الگوریتم ها استفاده می کنیم. نتایج بدست آمده از اجرای الگوریتم ها نشان می دهد که الگوریتم های ارائه شده نسبت به نمونه های قبلی بسیار سریعتر بوده و می تواند در مدت زمان کم و به صورت آنلاین فاصله ی بین دونفر را در شبکه های اجتماعی پیدا کند. همچنین الگوریتم های ارائه شده به حالت های خاص شبکه ها حساس نیست و بر خلاف الگوریتم های قبلی برای هر جفت کاربری که به صورت تصادفی از شبکه ها ی اجتماعی انتخاب شود? می تواند درجه ی پخشش را در زمان مناسب به دست آورد.
حسن طنابی اشکان سامی
ترمیم خودکار برنامه ها هدفی دیرینه در مهندسی نرم افزار می باشد. درحال حاضر خطازدایی فرایندی دستی، دشوار و زمان بر می باشد. رویکردهای ارائه شده در این زمینه کیفیت و قابلیت اجرایی بالا و قابلیت استفاده به صورت عملی برای توسعه-دهندگان ندارند. در این رساله رویکردی ارائه گردیده تا بتواند از تلاش های قبلی توسعه دهندگان برای خطازدایی کدهای مشابه بهره برداری کند. بدین منظور پایگاه داده ای از خطاهای قبلی که خطازدایی گشته اند به همراه راهکارهای ارائه شده برای خطازدایی آنها تهیه کردیم، سپس روشی کارا به منظور جستجوی سریع در این پایگاه داده ارائه دادیم تا با هزینه کم، بتوان به سرعت کدهای مشابه با خطای جدید را پیدا نمود. در نهایت پیشنهادهایی که برای کدهای مشابه وجود دارد را به عنوان راهکار پیشنهادی به کاربر ارائه می دهیم. نقطه کلیدی رویکرد ارائه شده، پایگاه داده آن می باشد که می تواند نقطه قدرت و یا برعکس نقطه ضعف آن را تشکیل دهد. در صورت داشتن پایگاه داده ای کامل از خطاهای مختلف، از پروژه های مختلف، از تیم های توسعه دهنده مختلف، می توان به کارایی این رویکرد اطمینان داشت. در غیر این صورت پیشنهادهای مناسبی برای خطاهای جدید یافت نمی شود. نقطه قوت دیگر این رویکرد زمان اجرایی کم آن می باشد.
زهرا اسلامی مشکنانی اشکان سامی
پیشگویی اتوماتیک خطا بر اساس متریک های در دسترس، یک موضوع مورد توجه محققان برای افزایش کیفیت نرم افزار است. علی رغم استفاده زیاد از متریک های کد در مطالعات گذشته، تنها سه مطالعه است که تأثیر متریک های کد و متریک های طراحی را در پیشگویی خطای نرم افزار مقایسه می کند و نتایج متناقضی هم دارند. بنابراین در این تحقیق، برای فهم واقع بینانه تر و قابل اطمینان تر ازتأثیر متریک های طراحی نسبت به متریک های کد در بهبود کارایی سامانه های تست اتوماتیک، آزمایشات بیشتری روی طیف وسیع تری از مجموعه های داده با به کارگیری تعداد بیشتری از دسته بندی کننده ها انجام شده است. مدل های پیشگوییخطا، مبتنی بر متریک کد و متریک طراحی و ترکیب آن دو ساخته شده است. معیارهای ارزیابی کارایی مدل، aucومعیار جدید fهستند. بر اساس تست های آماری مختلف، در کارایی مدل هایی که از ترکیب متریک های کد و طراحی استفاده می کنند، نسبت به آن هایی که از متریک های کد استفاده می کنند، پیشرفت قابل توجهی وجود ندارد. همچنین متریک های طراحی به تنهایی، نسبت به متریک های کدبه تنهایی و یا ترکیب متریک های کد و طراحی،تأثیر کمتری روی شناسایی ماژول های مستعد خطا دارد.
بابک فولادی نیا غلامحسین دستغیبی فرد
شرکت های بیمه سالیانه متحمل زیانهای متعددی می شوندکه قسمت اعظم آن مربوط به تقلب است. یکی ازتقلب های رایج در این زمینه تقلب در بیمه های اتومبیل است. امروزه تکنیک های داده کاوی درکشف الگوهای نهان در داده ها به کار می روند و می توانند در کشف تقلب استفاده شوند. هدف این پایان نامه پرداختن به خسارات ثالث جانی (دیه) است. بدین منظور با بررسی 130 پرونده، با استفاده از6 روش دسته بندی k نزدیکترین همسایه، شبکه عصبی، svm، c5، c&r، chaid، موارد تقلبی و غیر تقلبی اتفاق افتاده را شناسایی کرده که روش chaid با دقت 79/78 درصد بهترین کارایی را در مقایسه با دیگر روش ها داشت. در این تحقیق سه روش خوشه بندی k-means و کوهنن و twostep بکار برده شدند که کیفیت خوشه های روش twostep بهتر از دو روش دیگر بود. در روش تشخیص آنومالی نیز با توجه به ایندکس آنومالی به دست آمده (144/0) می توان گفت پرونده ها دارای آنومالی نبودند. نتایج حاصل از این تحقیق می تواند نشان دهد که تکنیک های داده کاوی می توانند در حوزه بیمه اتومبیل مورد استفاده قرار گیرند و توسط خبرگان این حوزه نتایج بدست آمده تحلیل و به کار گرفته شود.
اتوسا سالاری اشکان سامی
یکی از حوزه های مهم در داده کاوی و یادگیری ماشین، حوزه شناسایی داده پرت می باشد. روش های بسیاری برای شناسایی داده پرت ارائه شده که همه آن ها از فرض یکسان بودن توزیع احتمال داده های تست نسبت به داده های آموزش پیروی می کنند. اما در بسیاری از برنامه های کاربردی واقعی نظیر شناسایی اسپم یا تقلب، تفاوت توزیع داده های آموزش و تست امری محتمل است. زمانی که داده های ورودی آموزش و تست از توزیع غیر یکسانی پیروی کنند در حالی که توزیع خروجی به شرط ورودی در آن ها ثابت بماند، با شرایط تغییر (توزیع) متغیر روبرو خواهیم بود. مطالعات ما نشان می دهد که برای شناسایی داده نامتعارف تحت این شرایط تاکنون راه حلی ارائه نشده است. در این تحقیق دو روش نیمه نظارتی تطبیق پذیر با شرایط تغییر توزیع متغیر برای شناسایی داده پرت ارائه شده است که هر دو روش از یک تکنیک وزن دهی بر اساس اهمیت برای تطبیق پذیری استفاده می کنند. ایده اصلی در روش اول ترکیب تکنیک رگرسیون وزن دار با تکنیک شناسایی داده نامتعارف است. در روش دوم نیز با مقایسه چگالی داده تست نسبت به داده های نرمال آموزش با وزن بیشتر، نسبت به شناسایی داده نامتعارف اقدام می کنیم. نتایج آزمایشات نشان می دهند که از نظر تطبیق با شرایط تغییرتوزیع متغیر روش های پیشنهادی عملکرد بهتری نسبت به روش های موجود برای شناسایی داده نامتعارف دارند.
قاسم معافیان اشکان سامی
ارزیابی داده های تصادفات یک کشور می تواند به استاندارد سازی روش ها برای رسیدن به یک ساختار تصمیم گیری مناسب و مطمئن کمک فراوانی را بکند.در این پایان نامه سعی گشت تا با جمع آوری داده های تصادفات پلیس و استفاده از الگوریتم های داده کاوی، وضعیت موجود مورد آنالیز قرارگرفته و راهکار های مناسب در جهت ساخت یک سیستم امن در زمینه پیشگیری و کاهش تصادفات ، ارائه گردد. در اولین گام پس از جمع آوری داده ها سعی گشت تا با اجرای اقدامات پیش پردازشی بر روی داده ها ، کیفیت آنالیزها تا سطح مطلوبی افزایش یابد . پس از آماده سازی دیتا و ارزیابی آن ها، با اجرای الگوریتم های بصری سازی دیتا ، دسته بندی دیتا و الگوریتم های مدل سازی بر روی داده های مورد نظر ، سعی گشت ضمن کشف قوانین و پارامترهای تاثیر گذار موجود در وقوع حوادث جرحی ، یک مدل مناسب جهت پیش بینی حوادث جرحی و فوتی ارائه گردد. بر اساس نتایج الگوریتم svm در مجموع و الگوریتم classification via regression در خصوص حوادث جرحی دارای بهترین عملکرد بودند. در آینده با تفکیک داده های استان های مختلف کشور و همچنین اضافه کردن داده های تصادفات دیگر نهادها می توان انتظار نتایج کامل تر و دقیق تری را داشت.
راضیه مسرور اکبر فرهودی نژاد
منابع انسانی یکی از عوامل بسیار موثر در پیشبرد اهداف سازمانها میباشند. منابع انسانی با ارزشترین سرمایههای هر سازمان میباشند. مدیران همواره بر آنند که با ایجاد و افزایش انگیزه در کارکنان میزان بهرهوری آنها را افزایش دهند و اهداف سازمانی را هرچه بهتر تحقق بخشند. از این رو از روشهای بسیاری همچون افزایش امکانات رفاهی، ارتقای کارکنان، پرداخت پاداشهای مالی و ... در جهت ایجاد انگیزه در کارکنان استفاده میگردد. در بانکها به منظور افزایش سطح بهرهوری کارکنان و نیل به سوی یکی از مهمترین اهداف بانکی یعنی افزایش منابع و سپرده های بانکی از روش پرداخت پاداشهای مالی بسیار استفاده میگردد. در این تحقیق با استفاده از تکنیک داده کاوی میزان اثر بخشی پاداشهای مالی پرداخت شده به پرسنل یکی از بانکهای ایران بر افزایش جذب منابع و سپرده های بانکی بررسی شده است. مشاهده گردید که پرداخت پاداشهای مالی در افزایش کارایی پرسنل و جذب منابع شعب تأثیر چندانی نداشته است بلکه عواملی همچون تعداد کارکنان شعبه، کمینه سن کارکنان شعبه، تفاوت بیشینه و کمینه سن کارکنان شعبه، تفاوت بیشینه و کمینه سابقه کارکنان شعبه، بیشینه امتیاز تحصیلی کارکنان شعبه، مجموع امتیاز تحصیلی کارکنان شعبه، موقعیت جغرافیایی شعبه، تعداد کارکنان زن شعبه و تعداد کارکنان مرد شعبه بیشترین تأثیر را بر میزان جذب منابع شعبه داشته اند.
علیرضا فانی ساروی اشکان سامی
مدیریت ارتباط مشتری یاcrm یک استراتژی تجاری برای انتخاب و مدیریت ارتباطات موثر با مشتری برای سودآوری بیشتر است. در این سیستم نیاز به دیدگاه عملی مشتری محوری و فرهنگی است که موجب پشتیبانی از بازاریابی موثر یا به قولی جنگ بازاریابی و فرآیندهای فروش و خدمات می گردد. مدیریت ارتباط با مشتری نشان می دهد که سازمانی که از این فناوری استفاده می کند دارای رهبری، استراتژی و فرهنگ درستی است. همراه با توسعه تکنولوژی، و ایجاد بسترهای مناسب در موضوع فناوری اطلاعات، مفاهیم جدیدتری ایجاد گردید که از آن جمله مفهوم مدیریت الکترونیکی ارتباط مشتری می باشد. مدیریت الکترونیکی ارتباط مشتری (e-crm) ، با تکیه بر اینترنت و فناوری شبکه باعث تسهیل مدیریت ارتباط مشتری (crm)،می شود. این سیستم مبتنی بر تعامل اینترنت محور یا شبکه محور بین شرکتها و مشتریان آنهاست. سیستم e-crm، به خصوص بخشهای خدماتی را قادر به ارائه خدمات و محصولات مناسب به منظور ارضاء مشتریان می سازد. به این ترتیب تضمین وفاداری و افزایش سودمندی مشتری را فراهم می نماید. هدف تحقیق مورد نظر، بررسی عملکرد سیستم مدیریت الکترونیک ارتباط با مشتریان در نظام بانکداری کشور است. جهت انجام این امر اقدامات لازم برای شناسائی پارامترها و متغیرهای موثر بر سیستم مدیریت الکترونیک ارتباط با مشتریان انجام و در سه حوزه زمانی قبل، در حین، و پس از جذب مشتریان بررسی و دسته بندی می شوند. سپس بر اساس مشخصات گروه بندی شده اقدامات لازم برای ارزیابی وضعیت بانکهای منتخب، و در نهایت مقایسه وضعیت بانکهای دولتی و خصوصی انجام می شوند.
طاهره شفائی علی اکبر صفوی
در جهان امروز با خصوصیات ویژه عصر حاضر بقاء و توسعه کشورها منوط به بهره گیری بهینه از منابع و امکانات در جهت نیل به اهداف و آرمانها است. بهره وری به عنوان عامل اصلی توسعه می باشد که بالاخص در کشورهای در حال توسعه بسیار مورد توجه قرار گرفته است. افزایش بهره وری در جهان فعلی مستلزم بکارگیری عوامل و ابزاری است که با عوامل و ابزار گذشته تفاوت دارد. دراین خصوص می بایستی از منابع به صورت بهینه نهایت استفاده را برد. یکی از ابزارآلات بسیار مهم در توسعه بهره وری و افزایش سودمندی و کارائی سازمان ها، ابزار فناوری اطلاعات و ارتباطات می باشد که امروزه توانسته است در بیشتر فعالیتهای روزمره منابع انسانی، در سازمان ها وارد شده و سبب افزایش کارائی و اثربخشی عملیات سازمان گردد. دراین پروژه سعی گردیده است که از طریق مطالعه و شناخت اقدامات انجام گرفته در حوزه فناوری اطلاعات و ارتباطات، اثرات این تکنولوژی نوین در بهبود بهره وری سازمان ها مورد مطالعه عملی قرار گیرد. به همین سبب بر اساس مطالعات انجام گرفته اقدامات لازم برای تهیه و شناخت یک مدل معین و مناسب به منظور محاسبه و اندازه گیری اثرات فناوری اطلاعات و ارتباطات بر بهبود بهره وری انجام می شود. به این منظور در یک مورد کاری معین از اطلاعات مندرج در اداره برق منطقه ای مازندران استفاده گردیده است.
احسان بزرگ پوری غلامحسین دستغیبی فرد
رشد سریع تقاضا برای قدرت محاسباتی موجب شده است تا تغییر جهتی به سوی مدل رایانش ابری که بر اساس مراکز داده مجازی شده عظیم بنا شده است، صورت پذیرد. چنین مراکز داده¬ای طبیعتاً انرژی مصرفی بالایی را طلب می¬کنند. برای پاسخ به تقاضای مشتریان رایانش ابری و به منظور پشتیبانی از محاسبات سبز، ارائه دهنده¬های سرویس ابری باید انرژی مصرفی در این مراکز داده را کاهش دهند. در این رساله، برای محیط های رایانش ابری، یک روش نوین بر پایه رگرسیون گام به گام برای مدیریت انرژی ارائه شده است. این روش ها با cloudsim مورد ارزیابی قرار گرفته است. نتایج بدست آمده نشان می دهد الگوریتم پیشنهادی در مقایسه با دو الگوریتم lr/mmt و vdt/umc بطور متوسط %43 کاهش مصرف انرژی و % 26 تخطی از قرارداد داشته است.
علیرضا حسینی اشکان سامی
آنالیز رفتاری با هدف شناسایی رفتارهای یک برنامه مشکوک از طریق بررسی فعالیت های سیستم فایل ، رجیستری و فعالیت های تحت شبکه انجام می گردد. سامانه های موجود و قابل دسترس از قببل anubis, cuckoo sandbox, joe sandbox از راهکار هوکینگ بدین منظور استفاده می نمایند. مشکل اصلی این سامانه ها عدم شناسایی رفتارهای پردازش های افزایشی است. ماشین پیشنهادی در این پایان نامه، در یک محیط شبیه سازی شده فایل موردنظر را اجرا می نماید و با استفاده از «ردیابی رخدادها در ویندوز» سعی در شناسایی رفتار مخفی فایل در حال اجرا می نماید. همچنین ماشین توانایی استفاده در بستر محاسبات ابری در قالب سکو بعنوان سرویس و زیرساخت بعنوان سرویس را دارا باشد و برخلاف سامانه های کنونی آنالیز خودکار رفتاری کاربر بتواند با محیط نرم افزار تحت آنالیز همکنش داشته باشد. همچنین با توجه به نبود یک بانک اطلاعاتی از نمونه بدافزارهای پردازش افزایشی باقابلیت مخفی سازی رفتار، در این پایان نامه 10 نمونه فایل اجرایی طراحی و ارزیابی آن ها در سامانه های انجام شده است. نتایج نشان می دهند که سامانه پیشنهادی نسبت به بهترین سامانه موجود، توانایی بالاتری در شناسایی رفتارهای مخفی (تشخیص 9 نمونه از 10 نمونه) دارد.
پویا معمارضیا فرشاد خون جوش
به کار گیری قدرت فوق العاده ی پردازنده های گرافیکی یکی از راه های تثبیت شده برای افزایش کارایی نرم افزار ها است. اما استفاده ی کارآمد از پردازنده های گرافیکی یکی از بزرگ ترین چالش هایی است که برنامه نویسان با آن مواجه شده اند. کارایی برنامه های پردازنده ی گرافیکی وابستگی شدیدی با کارایی حافظه دارد، تا جایی که می توان حافظه ی پردازنده ی گرافیکی را یکی از گلوگاه های بحرانی به حساب آورد. با افزایش روزافزون حجم داده ها و نیاز به کاهش زمان پاسخ نرم افزارها، اهمیت کارایی حافظه بارزتر شده است. هدف این پژوهش بررسی عوامل موثر بر کارایی حافظه، و یافتن راه های افزایش کارایی آن می باشد. برای رسیدن به این هدف، موضوع کارایی حافظه از جنبه های مختلف مورد مطالعه قرار می گیرد. این موارد عبارتند از: انتقال داده ی میان پردازنده ی مرکزی و پردازنده ی گرافیکی، اجرای برنامه بر روی پردازنده ی گرافیکی و دسترسی به سلسله مراتب حافظه، تاثیر بستر های برنامه نویسی بر کارایی، و تحلیل آماری کد سطح میانه. در این پژوهش، از الگوریتم های پردازش تصویر دیجیتال به عنوان مطالعه ی موردی استفاده شده است. علت انتخاب حوزه ی پردازش تصویر دیجیتال این است که از لحاظ پیچیدگی الگوهای دسترسی و میزان مصرف حافظه، متنوع می باشند. نتایج به دست آمده نشان می دهند که در آزمایش های انتقال داده، کارایی تا 1/2 برابر افزایش می یابد. نتایج آزمایش های سلسله مراتب حافظه حاکی از افزایش کارایی تا 21 برابر نسبت به پیکربندی پایه، و نیز تا 146 برابر نسبت به پیاده سازی پردازنده ی مرکزی است. نتایج آزمایش های بستر برنامه نویسی نشان دادند که در یک مقایسه ی منصفانه، کارایی بستر های cuda و opencl در انتقال داده کاملا مشابه است، و در اجرای کرنل به طور میانگین اختلاف کارایی این دو بستر کمتر از 10% می باشد. از نتایج تحلیل کد سطح میانه ی ptx برای مقایسه ی بستر ها استفاده می شود، و رابطه ی بین تناسب ptx با کارایی نسبی را ارزیابی می شود. سرانجام، نشان داده می شود که چگونه می توان با استفاده از تحلیل آماری ptx، گلوگاه یک کرنل را شناسایی و برطرف کرد. در مجموع، نتایج یک تصویر کلی از عوامل موثر بر کارایی حافظه را ترسیم می کنند.
نوید یمینی اشکان سامی
یکی از عواملی که برای کیفیت نرم افزار در نظر گرفته می شود، پایین بودن میزان خطاهای آن بعد از ارائه به مشتری است. روش های قدیمی بازبینی کد، تنها شصت درصد خطاها را پیدا می کنند. در این مطالعه، رویکردی بر اساس داده کاوی برای پیش بینی خطا بر اساس معیارهای توسعه دهندگان ارائه شده است. در این تحقیق هشت معیار جدید برای توسعه دهندگان تعریف کرده ایم. معیارهای مورد نیاز را از شش نسخه از نرم افزار اکلیپس و از دو منبع جدا استخراج کردیم. اثبات کرده ایم که شش مورد از معیارهای ما تاثیر گذار هستند. مدل های جدید و بهتری با معیارهای خود برای پیش بینی خطا ارائه کرده ایم و پنج قانون جدید را از داده ها استخراج کرده ایم.
حسین رحمانی اشکان سامی
بهبود فرآیندهای نرم افزاری (spi) یکی از نواحی چالش برانگیز در مهندسی نرم افزار است که امروزه بیش از پیش مورد توجه جوامع صنعتی و آکادمیک قرار گرفته است. در این میان پیاده سازی spi در محیط های چند-مدلی (mme) به عنوان یکی از چالش های مهم در این زمینه مطرح شده است. نتایج تحقیقات صورت گرفته در مورد پیاده سازی spi در محیط های mme نشان دهنده وجود مسائل مختلفی در این زمینه است که از جمله مهمترین آن ها می توان به ایجاد دوباره کاری، سردرگمی، اتلاف زمان و سایر منابع اشاره کرد. بروز این گونه مسائل با افزایش ریسک برنامه spi، ممکن است حتی موجب شکست آن شود؛ بویژه در مورد شرکت های کوچک و متوسط (sme) که با محدودیت منابع مواجه هستند. امروزه به منظور رفع یا کاهش چالش های مذکور، از تکنیک های هماهنگسازی جهت شناسایی ارتباطات و نواحی مشترک میان مدل های موردنظر و دستیابی یک راهکار هماهنگ یا یکپارچه استفاده می شود. در این میان، سه مدل cmmi-dev، iso 9001 و pmbok بر اساس نتایج یک تحقیق قبلی جزء معروفترین مدل های استفاده شده در پروژه های هماهنگسازی سطح جهان بوده، همچنین بر اساس مطالعه انجام شده بر روی sme های نرم افزاری سطح کشور، این مجموعه دارای بیشترین میزان پیاده سازی یا درخواست جهت پیاده سازی می باشند. بنابراین مقایسه، نگاشت و یکپارچه سازی مجموعه این سه مدل می تواند کمک شایانی برای رفع چالش های مذکور در بسیاری از شرکت-های ایرانی و خارجی باشد؛ اما بر اساس آخرین بررسی های ما، این کار تاکنون انجام نشده است. از طرف دیگر، با توجه به اینکه عوامل بسیاری می توانند بر موفقیت پیاده سازی spi تاثیرگزار باشد، شناسایی و اولویت بندی آنها می تواند نقش بسزایی در برنامه ریزی، پیاده سازی و ارزیابی صحیح برنامه spi داشته باشد. با وجود انجام تحقیقات متعدد در زمینه فاکتورهای موفقیت spi در سطح جهان، بر اساس آخرین بررسی های ما این کار تاکنون در سطح ایران انجام نشده است. این در حالی است که کشور ما دارای ویژگی ها و شرایط خاص اقتصادی، اجتماعی و فرهنگی بوده و به تبع انتظار می رود در این زمینه دارای فاکتورهای متفاوتی با سطح جهان باشد. از اینرو در بخش اول از این تحقیق، آخرین نسخه های منتشرشده از سه مدل cmmi-dev، iso 9001 و pmbok مورد مقایسه و نگاشت قرار گرفته و نتایج حاصله تحت عنوان مدل یکپارچه cip-uqim ارائه شده است. نتایج این بخش از تحقیق نشان می دهد که اکثر نواحی فرآیندی و اهداف عمومی سطح دوم و سوم بلوغ cmmi-dev توسط pmbok و iso 9001 پوشش می یابند. همچنین این یافته ها نشان می دهد که فرآیندهای pmbok و iso 9001 به ترتیب می توانند جهت پیاده سازی اکثر فرآیندهای واقع در بخش های "مدیریت پروژه" و "مدیریت فرآیند" از cmmi-dev مورد استفاده مجدد قرار گیرند. در بخش دوم از این تحقیق، به منظور برنامه ریزی و هدایت صحیح روند پیاده سازی spi در شرکت های نرم افزاری سطح کشور، مهمترین فاکتورهای موفقیت spi با استفاده از روش های بررسی زمینه، دلفی و تحلیل سلسله مراتبی (ahp) شناسایی و اولویت بندی شد که نتیجه آن دستیابی به 75 فاکتور در هشت دسته کلی بود. از میان این فاکتورها 42 مورد جزء فاکتورهای اصلی موفقیت spi شناسایی شده و مورد اولویت بندی قرار گرفتند که در نهایت فاکتورهای واقع در سه دسته "پشتیبانی و مشارکت مدیریت"، "محوریت یافتن کسب وکار" و "مشارکت پرسنل" به ترتیب با وزن های نسبی 34.5%، 19.5% و 16% (یعنی مجموعا وزن 83.1%)، به عنوان مهمترین فاکتورها شناسایی شدند. در پایان به منظور نشان دادن نحوه استفاده و مزایای حاصل از نتایج بخش اول و دوم تحقیق، یک مورد مطالعاتی از بکارگیری cip-uqim طی برنامه spi در یک شرکت نرم-افزاری ایرانی گزارش شده است.
آرمان ابراهیم پور اشکان سامی
پس از ایجاد هر تغییر در کد نرم افزار، آزمون رگرسیون برروی نرم افزار تغییر یافته اجرا می شود تا بخش های دیگر کد که تحت تاثیر اثرات جانبی این تغییرات قرار گرفته اند شناسایی گردند. به دلیل محدودیت در زمان و منابع، از تکنیک های اولویت بندی موارد آزمون استفاده می شود تا موارد آزمون بر حسب تواناییشان در شناسایی خطاها رتبه بندی شوند. به طور کلی، تکنیک های اولویت بندی موارد آزمون به دو دسته تکنیک های مبتنی بر شباهت و تکنیک های مبتنی بر پوشش تقسیم می شوند. تکنیک های اولویت بندی پویای مبتنی بر شباهت تلاش می کنند تا به موارد آزمون با عملکرد متفاوت تر، اولویت بالاتری داده شود و برای این منظور از معیارهای فاصله، برای محاسبه فاصله میان اطلاعات پوششی موارد آزمون استفاده می کنند. با وجود اهمیت بسیار زیاد نحوه محاسبه اختلاف میان موارد آزمون در این دسته از تکنیک ها، تاکنون تنها به استفاده از معیار دودویی جاکارد بسنده شده است. از سوی دیگر، تکنیک های اولویت بندی مبتنی بر پوشش، از اطلاعات پوشش موارد آزمون بر روی کد، به صورت دودویی استفاده می کنند. این در حالی است که به نظر می رسد استفاده از اطلاعات فراوانی پوشش می تواند برای اولویت بندی کارامدتر موارد آزمون، بسیار سودمند باشد. در این پژوهش برای اولین بار، اطلاعات پوششی به شکل فراوانی استخراج شده است. این تحقیق، در دسته تکنیک های مبتنی بر شباهت، علاوه بر پیشنهاد یک معیار فاصله جدید، برای اولین بار کارایی 19 معیار فاصله مختلف در تکنیک های اولویت بندی مبتنی بر شباهت را مورد ارزیابی قرار داده است. نتایج آزمایش ها بر روی 12 برنامه استاندارد نشان می دهند که برخلاف باور قبلی، معیار جاکارد کارایی بسیار پایین تری نسبت به سایر معیارهای فاصله مورد بررسی دارد. همچنین استخراج اطلاعات فراوانی پوشش و استفاده از آن ها در معیارهای فاصله عددی برای محاسبه فاصله میان موارد آزمون، کارایی تکنیک های اولویت بندی مبتنی بر شباهت را به طور قابل توجهی بهبود می بخشند. از سوی دیگر، برای اثبات اثربخشی اطلاعات فراوانی پوشش بر قابلیت کشف خطای تکنیک های اولویت بندی مبتنی بر پوشش، تکنیک مطرح افزایشی به عنوان نماینده این دسته از تکنیک ها برگزیده شده و چندین نسخه تعمیم یافته جدید برای این تکنیک پیشنهاد داده شده است. روش های ارائه شده بر روی 12 برنامه استاندارد اجرا شده اند. نتایج حاصل بر روی برنامه های با سایز کوچک، بیانگر برتری آماری معنادار روش های ارائه شده نسبت به نسخه سنتی تکنیک افزایشی می باشند. هرچند نتایج حاصل بر روی برنامه های بزرگ، تفاوت آماری معناداری را میان نتایج روش های جدید و روش سنتی نشان نمی دهند.
حمیده حق پرست اشکان سامی
اخیراً اپیدمی جهانی ایدز ابعاد مختلف زندگی بشر را تحت تاثیر خود قرار داده است. گسترش این بیماری در میان گروه های پرخطر از جمله معتادان تزریقی، تن فروشان، مردان هم جنس باز و زندانیان شیوع بیشتری دارد. اپیدمی ایدز در کشور ما تاکنون سه موج داشته که موج اول در سال 1366 استفاده از فرآورده های خونی آلوده، موج دوم در سال 1374 گروه معتادان تزریقی و اخیراً موج سوم شیوع بیشتر از طریق انتقال جنسی می باشد. داده کاوی برگرفته از علومی چون ریاضی، آمار و هوش مصنوعی است. یکی از کاربردهای اصلی دانش داده کاوی در بیماری ایدز است. با بهره گیری از تکنیک های مختلف داده کاوی در بانک های اطلاعاتی بیماری ایدز می توان به کشف قوانین، روابط، الگوهای متفاوت در این بیماری دست یافت و بر اساس آن نتایج، پزشکان و دست اندرکاران علوم پزشکی در پیشگیری آن بیماری ها اقدام کنند. در این پژوهش با استفاده از تکنیک های قدرتمند و ابزارهای مختلف داده کاوی و آماری بر روی چهار مجموعه داده جمع آوری شده، توسط مرکز تحقیقات ایدز شیراز و مرکز منطقه ای تحقیقات ایدز کرمان اجرا گردید. این مجموعه ها شامل دو دسته زنان تن فروش شیراز و کرمان، معتادان تزریقی کرمان و زندانیان کرمان توسط پرسشنامه و مصاحبه با افراد، داده ها جمع آوری شده و سپس پیش پردازش شده و الگوریتم های داده کاوی بر روی آنها اجرا شده است. در جلسات متعدد با متخصصین و گروه پزشکان نتایج به آنها ارائه شده و در صورت لزوم مجدداً چرخه فرآیند داده کاوی اجرا گردید. در این پژوهش با استفاده از تکنیک انتخاب ویژگی و الگوریتم های مختلف داده کاوی مانند الگوریتم های درخت تصمیم و الگوریتم شبکه بیزی، قوانین همبستگی و شبکه عصبی بر روی هریک از بانک های اطلاعاتی داده ایدز بکار گرفته شد. همچنین ارزیابی دقت الگوریتم ها بررسی و نتایج نیز مورد مقایسه قرار گرفته است. بر اساس نتایج، بهترین الگوریتم برای کشف قوانین مربوط در مجموعه داده های ایدز الگوریتم درخت تصمیم و شبکه بیزی می باشند.
محمد علی بهرامی کوروش زیارتی
مسائل ترکیبی در مقیاس بزرگ از جمله مسائل ان پی- سخت هستند که حدود نیم قرن محققان در پی کشف راه هایی برای حل آنها بودند. مسائل زمانبندی، مسیریابی، حمل و نقل و غیره نمونه هایی از مسائل ترکیبی هستند که در علوم مختلف وجود دارند. در یک دسته بندی کلی بهینه سازی مسائل ترکیبی بزرگ به دو روش ابتکاری و روش های دقیق ریاضی انجام می گیرد. در روش های ابتکاری هدف بدست آوردن یک جواب خوب در سریع¬ترین زمان ممکن است، اما از آنجایی که در بسیاری از مسائل یافتن جواب بهینه سراسری از اهمیت ویژه ای برخوردار است، از روش های دقیق ریاضی برای این منظور استفاده می شود. وجود تعداد زیاد جواب ها و متغیرهای یک مسئله یافتن بهینه ترین جواب را در روش های دقیق ریاضی سخت و زمانبر می کند. الگوریتم ستون سازی از جمله الگوریتم های دقیق ریاضی است که از ایده تجزیه برای غلبه بر تعداد متغیر زیاد استفاده می کند. از آنجایی که توانایی و کارا بودن این روش به اثبات رسیده ¬است، برای استفاده از این روش تلاش¬های بسیاری شده است که حاصل این تلاش¬ها تولید چندین نرم افزار می باشد. که البته همه ی آنها در خارج از کشور تولید شده اند و با توجه به عدم دسترسی به این نرم افزارها در ایران، در این رساله طراحی و پیاده سازی الگوریتم ستون سازی انجام گرفته است و به منظور تست صحت، و نشان دادن کارا بودن آن، سه مسئله مسیریابی وسایل نقلیه با ظرفیت محدود، مسیریابی وسایل نقلیه با پنجره زمانی محدود و مسئله بیشینه دوره حیات در شبکه های حسگر بی سیم، توسط آن بهینه سازی شده اند.
آرمین دانش پژوه اشکان سامی
در سالهای اخیر، اختلاس مالی 1 که شامل سوء استفاده از کارتهای اعتباری، کلاهبرداریهای دست جمعی و انتقال و گردش غیر قانونی پول می شود، توجه زیادی را به خود جلب کرده است. فرهنگ لغت آکسفورد ] 1 [ واژه اختلاس را به صورت زیر تعریف کرده است: "عملکرد فریبکارانه ای که به صورت غیر قانونی و مجرمانه در جهت منافع مالی و یا شخصی انجام می گردد."همچنین اختلاس به معنای سوء استفاده از سیستم های یک سازمان برای کسب منافع از طریق فرآیندهای غیر قانونی نیز تفسیر شده است ] 2 [ . اگرچه هنوز معنای قابل قبولی در سطح جهانی برای اختلاس مالی وجود ندارد، در ] 3 [ اختلاس اینگونه تعریف شده است: "عملی که خلاف قانون، مقررات و رویه یک مجموعه بوده و به صورت تعمدی و در جهت کسب منفعت مالی غیر مجاز صورت می گیرد." از لحاظ اقتصادی، اختلاس مالی به یک مشکل بسیار بزرگی تبدیل شده است. سرآمد اینگونه فعالیت ها مربوط می شود به طرح ponzi ، که توسط berbard madoff رئیس سابق nasdaq جاودانه شده است. این طرح منجر به زیانی معادل تقربیاً 5 میلیارد دلار در سراسر جهان شد ] 4 [. مثالی دیگر از این فعالیت ها، مسئله joseph hirko ، مدیر اجرایی شرکت enron broadband services(ebs) 8 میلیون دلار اعتراف کرده بود / است که در دادگاه به اختلاس نزدیک به 7 ] 4 [ . بر اساس گزارش اخبار bbc در سال 2557 کلاهبرداری های انجام شده از طریق شرکت های بیمه انگلیس، باعث ضرر 1 میلیارد پوند در سال شده است / کردن این شرکت ها به میزان 6 ] 0 [ . به طور کلی ضررهای ناشی از اختلاس های مالی قابل محاسبه نیست ] 6 [ . شناسایی اختلاس مالی یک مسئله حیاتی در زمینه جلوگیری از عواقب ویران کننده این گونه اختلاس ها می باشد. شناسایی اختلاس های مالی شامل تمییز دادن بین داده های مالی نادرست از داده های مالی موثق می باشد که در نتیجه آن بتوان رفتارها و عملکردهای کلاهبردارانه را فاش کرد و افراد تصمیم گیرنده را قادر ساخت تا برای کاهش اثرات اختلاس، استراتژی های مناسبی را اتخاذ کنند. داده کاوی نقش مهمی در شناسایی اختلاس مالی دارد. برای مثال، داده کاوی اغلب برای استخراج و کشف کردن حقایق پنهان درون داده های با کمیت بسیار زیاد به کار می رود. در ] 7 [ داده کاوی به عنوان پروسه ای در جهت شناسایی الگوهای جالب توجه در پایگاه های داده که می توانند در تصمیم سازی مورد استفاده قرار گیرند، تعریف شده است. همچنین در ] 8 [ تعریف داده کاوی اینگونه آمده است: پروسه ای که با استفاده از آمار، ریاضیات، هوش مصنوعی، و تکنیک های یادگیری ماشین به استخراج و شناسایی اطلاعات مفید و متعاقباً به دست آوردن دانش از پایگاه داده بزرگ می پردازد. در ] 9 [ ذکر شده است که هدف داده کاوی بدست آوردن اطلاعات مفید و غیر واضح از داده های ذخیره شده در انبارهای بزرگ می باشد. همچنین در ] 15 [ یکی از مزایای مهم داده کاوی، ساخت و توسعه کلاسی جدید از مدلها جهت شناسایی حمله های جدید قبل از شناسایی توسط افراط خبره ذکر شده است. شناسایی اختلاس به یکی از بهترین کاربردهای ثابت داده کاوی هم در زمینه صنعتی و هم دولتی مبدل شده است. تکنیک های مختلفی از داده کاوی در زمینه کشف اختلاس به کار رفته است. از جمله آنها می توان به شبکه های عصبی، مدلهای رگرسیون، روش naïve baye و درختهای تصمیم گیری 2 ] 11 [ اشاره کرد.
محمد محمدی خواه اشکان سامی
امروزه از چالش های حوزه امنیت رایانه ای، وجود آسیب پذیری در سورس کد نرم افزار است. آنالیز ایستا امکان بررسی تمام مسیرهای اجرایی برنامه را فراهم می آورد. از معایب آنالیز ایستا، مثبت کاذب و منفی کاذب بالا می باشد. زبان برنامه نویسی c به دلیل اجرای سریع دستورات و مصرف پایین منابع، در تولید نرم افزارهای صنعتی-نظامی استفاده می گردد. گرچه اولین نمونه های بررسی ایستا در سال 1980 ابداع شده اند اما هنوز شناسایی برخی از آسیب پذیری های چالش بر انگیز است. در این پژوهش، راهکار آنالیز ایستا برای پنج آسیب پذیری مهم زبان برنامه نویسی c طراحی و پیاده سازی شده است. معماری پیشنهادی مبتنی بر جریان داده، جریان کنترل و ارتباط آن ها برای افزایش دقت و کارایی می باشد. راهکار ارائه شده توسط 5,446 محک استاندارد با چند ابزار متن باز و تجاری مقایسه شده است. نتایج محک، دلالت بر پایین بودن مثبت کاذب و منفی کاذب معماری پیشنهادی دارد. علاوه بر این روش های ارائه شده براحتی می تواند برای برخی آسیب پذیری های مشابه مورد استفاده قرار گیرد.
سعید صلاحی اشکان سامی
وزارت بهداشت دارای تعداد زیادی مرکز شناسایی بیماری میباشد که در صورت وقوع بیماریهای واگیر اطلاعات بیماران را در یک سامانه اینترنتی وارد میکنند. به منظور ورود اطلاعات در این سامانه هزینه های بسیار بالایی برای سخت افزار و خود سامانه شده است. پس از بررسی های ما مشخص شد که داده ها نه تنها دارای کیفیت پایین هستند ، بلکه تعداد آنها از آمار های تجمعی کمتر است.
مارال اصفهان پور فرشاد خون جوش
در سال های اخیر، دستگاه های تلفن همراه تنها برای تماس تلفنی و متنی استفاده نمی شدند بلکه برای کارهای محاسباتی و برنامه های عکاسی نیز استفاده می شدند. برای برآورده کردن این نیاز ها، پردازنده های تلفن همراه پیشرفت کردند و برای دستیابی به قدرت پردازش مورد نیاز خود به پردازنده های چند هسته ای روی آوردند. با پیدایش تلفن های همراه با پردازنده ها ی چند هسته ای، تلفن های همراه فرصتی برای اجرای برنامه های با محاسبات زیاد پیدا کردند و برای این کار نیاز به برنامه نویسی موازی پیدا کردند. در سال های اخیر، شرکت گوگل یک تکنیک موازی سازی برای ساخت برنامه های موازی بر روی این دستگاه ها به نام renderscript معرفی کرده است. در این پایان نامه قدرت محاسباتی تلفن های همراه چند هسته ای با چندین الگوریتم پردازش تصویر مورد آزمون قرار گرفته است. به همین منظور این الگوریتم ها را با چندین روش پیاده سازی کرده و بر روی عکس هایی با سایز های مختلف بر روی یک دستگاه اندروید چهار هسته ای مورد آزمون قرار گرفت. نتایج آزمون نشان داد که تکنیک renderscript از دیگر تکنیک ها بهتر عمل میکند و همچنین میتوان توسط تکنیک renderscript تا 26 برابر افزایش سرعت در زمان استفاده از واحد پردازش مرکزی به تنهایی و همچنین تا 44 برابر افزایش سرعت در زمان استفاده از واحد پردازش گرافیکی بدست آورد. همچنین نتایج تکنیک opencl تقریبا مشابه renderscript بود ولی این تکنیک علاوه بر مشکلات دیگری که داشت بر روی عکس های با سایز بزرگ نیز قابل اجرا نبود.