نام پژوهشگر: احمد براآنی دستجردی
محسن ادیبی سده احمد براآنی دستجردی
با افزایش حجم اطلاعاتی که باید ذخیره شود تا در اختیار بقیه قرار بگیرد و یا بعدا توسط خود سیستم پردازش شود ، نیاز به یک ساختار ساده تر و مفهومی تر برای ذخیره و دسته بندی اطلاعات است . ساختار مورد نظر همان ساختار سلسله مراتبی یا درختی می باشد که اطلاعات بر اساس تقسیم بندیهای جغرافیایی یا سازمانی یا هر معیار مناسب دیگری در آن قرار می گیرند . این ساختار در مقیاس بزرگ و برای حجم زیاد اطلاعات سرعت دسترسی بالایی را پدید می آورد که نتیجه آن ، استفاده از دایرکتوری ها در کنار پایگاه داده های رابطه ای می باشد . بدیهی است که دایرکتوریها باید به طور فیزیکی توزیع شوند تا هم کارایی سیستم بالاتر رود و هم اینکه قابلیت اطمینان اطلاعات برآورده شود . امروزه از دایرکتوری ها به عنوان انباری بزرگ ، جهت نگهداری انبوه اطلاعات به منظور اشتراک منابع و پردازشهای تکمیلی استفاده می شود . سرعت بالای دسترسی به اطلاعات و سادگی پیاده سازی آن باعث گسترش استفاده از آن در تمام زمینه ها شده است . با این حال این تکنولوژی نیز عاری از نقطه ضعف نبوده و با گسترش کاربرد آن در تمام زمینه ها ، این نقاط ضعف نمود بیشتری پیدا کرده و تلاش برای حل این نقاط ضعف نیز بیشتر شده است . یکی از برجسته ترین نقاط ضعف دایرکتوری ها ، مسئله تغییر اطلاعات و باخبر کردن کاربران از این تغییرات می باشد . به طور مثال اگر در سیستم دایرکتوری دانشگاه ، نمرات یک درس اعلام شود ، تغییر نمره و تغییر معدل هر کدام یک از دانشجویان باید به اطلاع آنها برسد . در بعضی از محیط ها ، سرعت مطلع کردن کاربران حیاتی بوده و در تصمیم گیری آنها عامل تعیین کننده می باشد. مثلا در محیطی مانند بورس ، تغییر قیمتها مهمترین عامل برای خرید یا فروش سهام می باشد و تاخیر در ارسال تغییرات می تواند موجب ضرر و شکایت کاربران قرار بگیرد . در محیط های معمولی مانند دانشگاه و مسئله اعلام نمره ، شاید سرعت مطلع کردن کاربران خیلی حیاتی به نظر نرسد و بتوان آنرا به عهده خود کاربران گذاشت به این ترتیب که کاربران در هر بازه زمانی مشخص ( مثلا روزی یکبار ) با ارسال درخواستی به سیستم دایرکتوری ، از وضعیت نمرات خود آگاه شوند . ولی در محیطی مانند بورس اگر قرار باشد هر کاربر در فاصله زمانی کوتاه ( هر 10 دقیقه ) تمام اطلاعات بورس را بازیابی کند مطمئنا سیستم با مشکل مواجه خواهد شد . البته بعضی ها معتقدند که در چنین محیط هایی بهتر است از سرویسهای دایرکتوری استفاده نکنیم . بعضی از روش های ارائه شده جهت حل این مسئله ، کاربران یا کلاینتها را وادار می کنند که خودشان با یک سرعت مراجعه مشخصی به سرورهای مورد نظر سرکشی کرده و درخواست خود را تحویل دهند ، سپس با پردازش جواب به دست آمده از تغییرات به وجود آمده مطلع شوند . بعضی روشها نیز یک سرور خاص را موظف به جمع آوری تغییرات رخ داده در سرور های دیگر می کند تا کلاینتها با مراجعه به فقط یک سرور از بروز تغییرات مطلع شوند و در صورت نیاز به اطلاعات کاملتر ، به سرور مبدا که تغییرات در آن رخ داده مراجعه کنند . بعضی دیگر ، سرور واسطه را موظف می کنند علاوه بر جمع آوری تغییرات ، موارد مورد نیاز کلاینت ها را برای آنها ارسال نمایند . به این منظور باید کلاینتها قبلا موارد مورد نیازشان را در سرور واسطه ثبت نمایند. در محیط های محاسباتی مبتنی بر گرید و همچنین محیط های محاسباتی منتشر شونده ، نیاز شدیدی به سرویس دایرکتوری کارا و مقیاس پذیر وجود دارد . در این محیط ها ، مطلع بودن کلاینتها از وضعیت اشیا و تغییرات آنها بسیار حیاتی بوده و گاه این تغییرات بایستی در حداقل زمان ممکن و با کمترین تاخیر به دست کلاینت برسد . این تغییرات ممکن است هرگونه تغییری باشد . تغییر مقدار خصوصیت یک شی یا مدخل ، اضافه شدن یا حذف یک خصوصیت از یک شی و یا اضافه شدن یک مدخل جدید ... . در بعضی محیط ها ، سرعت تغییر اطلاعات محدود بوده و حجم تغییرات قابل تحمل می باشد . مثلا در محیط دانشگاه فرکانس تغییرات کم است و یک نمره خاص یکبار در ترم تغییر می کند ( حداکثر دو بار ! ) ولی ممکن است یک دانشجو برای مطلع شدن از نمره خود بارها و بارها به سرور مراجعه کند ( افزایش بار شبکه ولی بدون نتیجه ) . در این نوع محیط ها بدیهی است که مطلع کردن کلاینت از تغییر مورد نیازش ، باعث کاهش شدید دسترسی های بی مورد می شود . حالا فرض کنید در محیطی مانند بورس ، تعداد کلاینتها بسیار و اشیا مورد نظر که تغییراتشان مهم می باشد نیز زیاد می باشد . مسئله اصلی آن است که تعداد تغییرات هر کدام از این اشیا نیز زیاد و غیر قابل پیش بینی می باشد . هر گونه تغییری نیز باید در سریعترین زمان و کمترین تاخیر به دست کلاینت مورد نظر برسد . شاید اولین راهی که به نظر برسد آن باشد که هرگونه تغییر به اطلاع تمام کلاینتها برسد ! این روش پهنای باند زیادی را بیهوده اشغال می کند ( بیهوده به این دلیل که خیلی از این تغییرات مورد نیاز خیلی از کلاینتها نیست ) و حتی کارایی کلاینتها را نیز کاهش می دهد زیرا آنها باید مدام در حال بررسی انبوه پیام های رسیده باشند تا تشخیص دهند که ، آیا تغییر مورد نظر به دردشان می خورد یا نه . در نتیجه دسته بندی کلاینتها بر اساس موارد مورد نیازشان و فیلتر کردن تغییرات قبل از ارسال آنها به کلاینتها ضروری به نظر می رسد. مسئله بعدی آن است که شاید نوع نیاز کلاینتها نیز در حال تغییر باشد . مثلا یک کلاینت نیاز خود را در سرور واسطه اینگونه تعریف کرده باشد : " تمام سهامی که در حال افزایش بیش از 3 درصد می باشند " . پس از مدتی کلاینت سهام مورد نیازش را یافته و خرید خود را انجام می دهد و سپس تصمیم می گیرد از سبد سهام خود ، موردی را که در حال کاهش ارزش است بفروشد . این تغییر نیاز باید در سرور ثبت شود . یعنی فیلترکردن تغییرات باید به صورت پویا انجام گیرد ، زیرا تغییر اطلاعات ممکن است خود باعث تغییر نیاز ها شود و این مسئله باید مورد پشتیبانی سیستم قرار بگیرد . در کنار این موضوع , مسئله دیگری وجود دارد که اهمیت ویژه ای دارد و آن بحث امنیت است . می توان به طور خلاصه این طور گفت که هدف از اِعمال سیاست های امنیتی عبارتند از حفظ محرمانگی اطلاعات ( حفظ حریم خصوصی کاربران ) ، حفظ سازگاری اطلاعات ( مخصوصا در محیط های توزیع شده ) و در دسترس نگه داشتن سیستم و جلوگیری از رفتارهای مخرب کاربران . سیستم openldap از نسخه 2.3 به بعد ، با تکنیکهای مختلفی این اهداف را برآورده کرده است . ارزش و اهمیت وجود امنیت در محیط های واقعی اطلاعاتی نظیر دانشگاه ، بورس ، بانک و ... واضح است و سیستمی که فاقد سیاست های امنیتی باشد ، در این محیط ها هیچ ارزشی ندارد . متاسفانه • سیستم pds که کاراترین سرویس دایرکتوری با قابلیت مطلع کردن کاربران از تغییرات می باشد هیچ چهارچوب امنیتی تعریف شده ندارد ! • همچنین سیستم openldap که پیاده سازی موفقی از سرویس دایرکتوری می باشد و کارایی و امنیت بسیار خوبی دارد ، هیچ مکانیزمی جهت مطلع کردن کاربران از تغییرات اطلاعات نداشته و حتی تکنیک جستجوی دائم ( که در بخش تاریخچه ، معرفی و نواقص و نقاط ضعفش بررسی می شود ) نیز در آن پیشتیبانی نمی شود . پروتکل dap که برای سیستمهایx.500 طراحی شده فوق العاده پیچیده بوده و مبتنی بر استاندارد شبکه osi می باشد، به همین دلیل با وجود تمام قدرت و ابزارش مورد استقبال قرار نگرفت و کنار گذاشته شد. موفقترین پروتکل برای دسترسی به اطلاعات درون یک فهرست ، پروتکل ldap می باشد که مبتنی بر tcp بوده و در محیط اینترنت قابل استفاده است . البته این پروتکل ، عملا پوششی ساده و سریع برای کار با سیستمهای x.500 می باشد . بدین معنی که سرور ldap واسطی بین کلاینتهای ldap و سرورهای x.500 می باشد( شکل 2 ) . [1][3][4][9][19] گرچه استفاده از سرور ldap به عنوان front-end ، تا حد زیادی از مشکلات سیستمهای x.500 را برطرف می کند ولی پیچیدگی ذاتی این سیستم و ناهمخوانی آن با پروتکل اینترنت همچنان لاینحل باقی می ماند . لذا در کنار این روش ، روش دیگری مطرح شده است که در آن ازیک سرور ldap متکی به خود به نام slapd استفاده می شود . این سرور تمام وظایف و اعمال یک سرورldap شرح داده شده در بالا را انجام می دهد، با این تفاوت که پشت قضیه دیگر از x.500 خبری نیست . openldap اولین پیاده سازی موفق کلاینت و سرور slapd می باشد که در سیستم عامل linux و دیگر سیستمهای عامل باز از آن به عنوان نرم افزار زیربنایی سرویس فهرست استفاده می شود. 4-1- روش جستجوی دائم یکی از ساده ترین روش های ارائه شده جهت مطلع کردن کاربران از تغییرات مورد نیازشان ، که کارایی نسبتا خوبی از خود نشان داده است ، روش جستجوی دائم ، پیشنهاد شده توسط smith et al. می باشد . این روش که توسعه ایی برای نسخه 3 پروتکل ldap است با افزودن دو کنترل جدید به تقاضای جستجو باعث می شود تا یک کلاینت بتواند گزارش تغییرات انجام شده در سرور مورد نظر را دریافت کند . مکانیزم این روش بسیار ساده بوده و طوری طراحی شده تا بتوان با اندک دستکاری در کد برنامه سرویس دایرکتوری ، آنرا فعال نمود . مکانیزم این روش به زبان ساده به این صورت است که وقتی درخواست کلاینتها به سرور می رسد ، به جای آنکه جواب آن درخواست ارسال و ارتباط قطع شود ، ارتباط همچنان برقرار می ماند تا کلاینت صریحا درخواست قطع اتصال کند و در این فاصله هر گونه تغییری در دایرکتوری که درخواست کلاینت را برآورده کند ، به کلاینت گزارش می شود . 4-2 روش پویشگرایانه مکانیزم این روش کمی پیچیده تر است ولی در عوض نیازها را به طور کاملتر و بهینه تر برطرف می کند . در این روش ، یک سرور واسطه موظف به ثبت درخواست مورد نظر کلاینتها می باشد . این سرور اشیاء مورد نظر را در بقیه سرور ها جستجو کرده و آنها را موظف می کند تا در صورت هرگونه تغییر ( در مقدار صفت ها ، خود صفت ها و یا حتی ورود شیء جدید به محیط یا حذف شیئی از آن محیط ) ، آن تغییرات را به سرور واسطه گزارش دهند . سرور واسطه با دریافت گزارش تغییرات ، آنها را بین کلاینتهای مقصد منتشر می کند. قبل از آنکه روش پویشگرا مطرح شود ، روش غیرفعال استفاده می شد. در روش غیر فعال ، کلاینتها ، خود با یک فرکانس مشخص به اشیاء مورد نظرشان مراجعه کرده و شرط را بررسی می کردند . پایین بودن کارایی و اشغال بیش از حد پهنای باند ، در این روش قابل پیش بینی است و در محیط های محدودی می توان از آن استفاده کرد . 4-2-1 فیلتر کردن گزارش ها جهت افزایش کارایی سیستم ، گزارش ها فیلتر می شوند . می توان این فیلتر را جزئی از پردازشی که قرار است در کلاینت انجام شود دانست . برای بیان فیلتر از زبان ecl که زیر مجموعه از زبان c می باشد استفاده شده است . البته می توان از خود زبان c و java را نیز استفاده نمود . شاید فیلتر کردن گزارش ها در مقصد یعنی توسط کلاینتها لازم و کافی به نظر برسد ، زیرا بعضی ها معتقدند موظف کردن سرور به فیلتر کردن گزارشات بار کاری زیادی بر دوش سرور قرار داده و کارایی آنرا کاهش می دهد . بر خلاف چنین نظری می توان با اطمینان گفت که اگر قرار باشد فیلتر کردن گزارش ها در کلاینتها انجام شود آنگاه سرور تمام گزارش ها را برای کلاینتها ارسال خواهد کرد و در نتیجه همین ارسال گزارشها ، هم بار پردازشی برای سرور و کلاینت به وجود می آید ، هم پهنای باند اشغال می شود و نهایتا اینکه آن فیلتر بالاخره باید اجرا شود ! ولی در این حالت روی کلاینت . به همین دلیل پیشنهاد می شود فیلتر کردن گزارشها بهتر است در سرور واسطه انجام شود . در چنین حالتی بار کاری سرور و کلاینتها کاهش می یابد . ارزیابی ها و مدلسازی ها صحت این ادعا را ثابت کرده اند . اگر گزارشات بدون فیلتر شدن در سرور به سمت کلاینتها گسیل شوند آنگاه ، کلاینتها خود را در انبوهی از گزارش های تغیرات می بینند که باید آنها را پردازش کنند و در صورت مطابقت با شرط عکس العمل مناسبی در مقابلشان ، نشان دهند . این روش ، بهبود فوق العاده ایی جهت کاهش بار کاری کلاینتها و سرور ها به وجود می آورد ، لیکن ، هیچ نوع سیاست امنیتی در آن دیده نشده و هیچ سطحی از امنیت در آن وجود ندارد. لذا سیستم pds ، برای کار در محیط های واقعی نظیر بورس که حریم خصوصی اطلاعات افراد بایستی حفظ شود ، دسترسی هر گروه از کاربران باید محدود به اعمال مشخصی باشد و کاربران نتوانند با ایجاد تغییرات کاذب و زیاد سیستم را از دسترس خارج نمایند ، قابل استفاده نبوده و فعلا در سطح یک سیستم آزمایشی مطرح شده است . از طرفی سیستم openldap ، که یک سرویس دایرکتوری موفق از نظر کارایی و امنیت می باشد به طوریکه اکثر نیاز های امنیتی یک محیط واقعی را پیاده سازی کرده ، هیچ قابلیتی جهت مطلع کردن کاربران از تغییرات انجام شده روی اشیا و اطلاعات مورد علاقه آنها ندارد و حتی تکنیک جستجوی دائم ، با تمام نواقص و نقاط ضعفش هم در نسخه های جدید پشتیبانی نشده است . متاسفانه تا به امروز ، هیچ سرویس دایرکتوری که کارایی ، امنیت و پویشگرایی را همزمان داشته باشد طراحی و پیاده سازی نشده است . هدف از این تحقیق ، اضافه نمودن سرویس دایرکتوری پویشگرا به معماری سیستم openldap می باشد.
احسان خون سیاوش احمد براآنی دستجردی
با رشد فزاینده و لجام گسیخته اطلاعات دیجیتالی و نیاز به دستیابی به اطلاعات مورد نظر از میان خیل انبوه متون و اسناد موجود در زمان معقول، نیاز به سیستم های بازیابی اطلاعاتی که بتوانند نیاز اطلاعاتی کاربران را کامل تر و دقیق تر تشخیص داده و متون و اسناد مرتبط با آن را بازیابی کند، بیش از پیش احساس می شود. به دلیل ویژگی های خاص زبان طبیعی نظیر چند معنایی عبارت، ارتباطات معنایی نهفته و ... ، تنها مقایسه عبارات موجود در پرس جوی کاربران با اسناد موجود به منظور جستجوی نیاز اطلاعاتی کاربران در نمایه سیستم، کافی نبوده و نتایج حاصل نمی تواند به طور مطلوب پاسخ گوی نیاز کاربران باشد. هدف از انجام این تحقیق شناسایی مفاهیم مستتر در دامنه معنایی متون و اسناد، به منظور استفاده در نمایه سازی و بهبود عملکرد سیستم های بازیابی اطلاعات می باشد. برای انجام این کار دامنه معنایی متن را با استفاده از دامنه معنایی مفاهیم که در پایگاه دانش سیستم تعریف شده، شناسایی می نماییم. سپس مفاهیم مستتر در دامنه معنایی متن را استخراج و بر اساس ارتباط معنایی که با متن(مفاهیم موجود در متن) دارند، رده بندی می کنیم. مفاهیم موجود در صدر رده بندی فوق به عنوان مهم ترین مفاهیم مستتر در دامنه معنایی متن به نمایه متن افزوده می شوند تا در زمان مقایسه پرس جوها با نمایه مدنظر قرار بگیرند. پیاده سازی ایده فوق به ابداع دو روش اکتشافی، یکی در زمینه مهندسی دانش و هستی شناسی و دیگری در زمینه پردازش زبان طبیعی انجامید. در زمینه هستی شناسی یک روش جدید برای نمایش مفاهیم توسط یک بردار معنایی در فضای n-بعدی دامنه ارائه شد. برای نگاشت متن به پایگاه دانش سیستم، مفهوم هسته های معنایی متن بر اساس زنجیره های معنایی ارائه شده و مورد استفاده قرار گرفت. برای ارزیابی ایده های موردنظر، سیستم فوق به صورت یک ماجول پیش پردازش گر به یک سیستم بازیابی اطلاعات فضای برداری وزن دار(vsm) افزوده شده و تغییرات عملکرد این سیستم در حالت عادی (بدون وجود ماجول پیش پردازش گر) و هنگامی که ورودی آن از سیستم مورد نظر ما تامین می شود، مقایسه شد. در پیاده سازی ماجول پیش پردازش گر معنایی از wordnet به عنوان پایگاه دانش سیستم استفاده شد. نتایج ارزیابی عملکرد سیستم بر روی 4 مجموعه از اسناد آزمایش سیستم های بازیابی اطلاعات، حاکی از عملکرد نوید بخش در صورت تعیین مقادیر مناسب برای پارامترهای ورودی و استفاده از پایگاه دانش مناسب می باشد.
فریا نصیری مفخم احمد براآنی دستجردی
در حراج ترکیبی دوسویه چندخصیصه ای ، ترجیحات فروشندگان و خریداران بر چندین کالا که ارزش هم افزاینده دارند به بهترین وجه برآورده می شود. ولی در این حراج، نه تنها مسئله تخصیص از نظر محاسباتی دشوار است، بلکه نمایش و ارایه پیشنهادات و تحلیل رفتار استراتژیک پیشنهاددهندگان نیز مستلزم مدیریت پیچیدگی مسئله است. در تحقیقات انجام شده در حراج ترکیبی فرض شده است که پیشنهاددهندگان، بسته های ترکیبی از کالاها و قیمت مورد نظرشان را برای بسته ها می دانند. اما هنگامی که پیشنهاددهندگان با ترکیبات ممکن بسیاری مواجه هستند و روش کارایی برای ارزیابی آنها ندارند این فرض برقرار نیست. این تحقیقات، خواسته های پیشنهاددهنده ها را برای معامله یک بسته از بین ترکیبات معین و مشخص مدلسازی نکرده و بیان نمی کنند که بهترین بسته ای که پیشنهاددهنده بیشتر به آن راغب است چگونه است. با بالارفتن تعداد کالاها، محاسبه بهترین بسته برای پیشنهاد در مکانیزم حراج ترکیبی چندخصیصه ای دوسویه بسیار پیچیده و چالش برانگیز می شود. پیشنهاددهی در بازار ترکیبی، در هر مسئله ای که با عرضه و تقاضای دوسویه و تخصیص یک شیء یا خدمتِ ترکیبی همراه باشد، کاربرد دارد و یک نیاز است. در این پژوهش، استراتژی پیشنهاددهی ترکیبی چندخصیصه ای برای عاملهای خریدار و فروشنده ارائه می شود. این استراتژی به رفتار، ترجیحات و مجموعه کالاهای عامل پیشنهاددهنده و نیز وضعیت بازار توجه می کند. برای طرح پیشنهاد، نکات مهمی همچون تعیین اندازه ی بسته، نوع کالاها در بسته، تعداد هر نوع کالا در بسته، ارزش ویژگی های کل بسته، قیمت کل بسته، محدودیت تعداد کالا برای فروشندگان، و محدودیت بودجه پیشنهاددهنده برای خریداران نیز مد نظر قرار می گیرد. با گسترش مدل شخصیت و نظریه پرتفوی مارکویتز ، کالاهای مکمل با توجه به اطلاعات بازار و نیز مجموعه کالاها و شخصیت پیشنهاددهنده دسته بندی می شود. سپس با توسعه ی الگوریتم یادگیری نزدیکترین همسایگی به صورت ترکیبی و چندمقداری، دسته ی تدوین شده توسط مقادیر جایگزین برای خصیصه ها بسته بندی می شود. انتخاب پیشنهاد ترکیبی چندخصیصه ای از میان این جایگزین ها ، با توسعه مدل شخصیت و نظریه سودمندی چندخصیصه ای صورت می گیرد. استراتژی های موجود برای یک عامل سودجو طراحی شده اند در حالی که استراتژی پیشنهادی مطابق خواست پیشنهاددهنده و بر اساس رفتارهای متفاوت و بازه های مقادیر قیمت در بازار تدوین می شود. برای ارزیابی این استراتژی در برابر استراتژی های محک، یک بستر آزمون در حراج ترکیبی دوسویه چندخصیصه ای تدوین می شود. این بستر، الگوریتم هایی برای تولید داده های بازار و نیز شخصیت، ترجیحات و مجموعه کالاهای پیشنهاددهندگان ارائه می دهد. نتایج حاصل از شبیه سازی نشان می دهد که احتمال موفقیت بسته ی پیشنهادی استراتژی پیشنهاددهی ترکیبی چندخصیصه ای برای فروش و خرید به ترتیب دارای برتری 5/1 و 44/1 برابری نسبت به استراتژیهای موجود است و در عین حال، خطای خصیصه های آن نیز کمتر و به ترتیب 952/0 و 94/0 برابر درصد خطا در این استراتژیها است. همچنین، در میان عاملهای فروشنده و خریدار که با این استراتژی پیشنهاددهی ترکیبی چندخصیصه ای پیشنهاد می دهند، فروشندگان ریسک پذیر و خریداران مذاکره گر پیشنهادهای موفق تری نسبت به سایرین ارایه می کنند.
محمد دقاق زاده احمد براآنی دستجردی
امروزه معماری سرویس گرا به عنوان یک راه حل برای افرایش چابکی مطرح است. اما تجربه نشان داده که این معماری جز در موارد نادری در تحقق این نویدش موفق نبوده است. علت این موضوع این است که معماری سرویس گرا اصل هایی را ارائه می دهد که پیروی از آن ها بسیار سخت، زمان گیر و پرهزینه است. همچنین، هنوز هیچ راهبرد یا روش دقیقی برای پیروی از اصل های معماری سرویس گرا ارائه نشده است. یکی از مرحله های اولیه و حساس در چرخه حیات معماری سرویس گرا، مرحله شناسایی سرویس می باشد. در این مرحله عنصرهای سازنده معماری، یعنی سرویس ها شناسایی می شوند. اما به دلیل هایی که گفته شد، به طور معمول، اصل های معماری سرویس گرا در هنگام شناسایی سرویس ها رعایت نمی شوند. در پی آمد، اغلب خشت اول سیستم سرویس گرا توسط معمار نرم افزار کج نهاده شده و در نهایت سیستم سرویس گرایی خواهیم داشت که تا ثریّا کج رفته و تنها نام سرویس گرا بودن را یدک می کشد. برای حل این مشکل، معماری سرویس گرا و به خصوص مرحله حساس شناسایی سرویس باید با روش های مدل-رانده انجام شود. به مدد روش های مدل-رانده می توان سد های مطرح شده را شکست و به آرمان شهری که توسط اصل های معماری سرویس گرا نوید داده شده نزدیک تر شد. با توجه به آن چه گفته شد، تصمیم گرفته شد تا در این پایان نامه در جهت رسیدن به یک آرزوی جدید، یعنی انجام شناسایی سرویس به صورت مدل-رانده سهمی داشته باشیم. با مطالعه کارهای مرتبط به این نتیجه رسیده شد که هنوز کار زیاد و جدی در جهت نیل به یک رهیافت شناسایی سرویس مدل-رانده انجام نشده است و هنوز شناسایی سرویس به صورت مدل-رانده دوران اولیه خود را سپری می کند. با این وجود، مشکل های این کارها را برشمرده شد و سعی شد که در راستای از میان برداشتن آن ها نقشی ایفا شود. دو مدل موجودیت و فرآیند کسب وکار به عنوان مدل های ورودی روش شناسایی سرویس در نظر گرفته شد. همچنین، برای قابل پردازش شدن و رسمی تر شدن مدل فرآیند کسب وکار قاعده هایی وضع شد. با مطالعه کارهای مرتبط به این نتیجه رسیدیم که قاعده های تجربی که طراحان سرویس بر اساس آن ها سرویس ها را شناسایی می کنند همه به صورت غیرمستقیم در جهت بالا بردن چسبندگی و کاهش پیوستگی هستند. بنابراین، برای این که رهیافت شناسایی سرویس به صورت خودکار باشد، معیارهای سنجشی جهت ارزیابی و اندازه گیری سطح این دو معیار کیفی نرم افزار ارائه داده شد. این معیارهای سنجش نه تنها به ساختار کنترلی و ارتباط فعالیت های فرآیندهای کسب وکار بها می دهند، بلکه ارتباط بین داده های پردازش شده توسط فعالیت ها را نیز در نظر می گیرند. همچنین، این معیارهای سنجش با توجه به مدل ورودی قابل محاسبه هستند. سپس، از معیارهای سنجش پیشنهادی به اضافه یک معیار برای کنترل سطح دانه بندی به عنوان تابع های برازش یک الگوریتم خوشه بندی ژنتیک چندهدفی استفاده شد. در این الگوریتم، فعالیت های کسب وکار در قالب سرویس خوشه بندی شده و در هر خوشه(سرویس) عمل ها شناسایی شده و تابع های برازش بر هر خوشه اعمال می شود. در نهایت الگوریتم تکاملی ژنتیک خوشه های شناسایی شده در قالب سرویس را به عنوان خروجی می دهد. برای ارزیابی رهیافت پیشنهادی، از دو مورد مطالعه استفاده شد. نشان داده شد که سرویس های بدست آمده از طریق رهیافت شناسایی سرویس ارائه شده با سرویس های مورد نظر افراد خبره به طور تقریبی یکسان هستند. همچنین تفاوت های موجود با توجه به مدل های کسب وکار توجیه شدند. با این وجود، هنوز راهبند های زیادی وجود دارند که باید از میان برداشته شوند. در کارهای آینده این راهبند ها شرح داده شده و افقی روشن تر از آن چه پژوهش گران باید در آینده به دنبال آن باشند ترسیم گشته است.
علی کرمی احمد براآنی دستجردی
پایگاه داده سیار، یکی از انواع پایگاه داده های توزیع شده است. دسترسی به داده ها در هر زمان و در هر مکان از جمله ویژگی های مطلوب این نوع از پایگاه داد ه ها می باشد این ویژگی سبب استفاده گسترده از پایگاه داده های سیار در سیستم های پردازش داده از جمله تجارت الکترونیک، بانکداری سیار و کنترل ترافیک می شود. از پروتکل های کنترل همروندی به منظور کنترل تاثیرات تراکنش های همروند بر یکدیگر استفاده می شود. قطع شدن مشتری های سیار از سرویس دهنده، در زمان نامشخص و به مدت نامعلوم، به دلیل متحرک بودن مشتری های سیار، از جمله محدودیت های وسایل سیار هستند. این محدودیت ها سبب می شود که کنترل همروندی تراکنش ها در پایگاه داده های سیار با مدل مشتری- سرویس دهنده با چالش هایی روبرو باشد. در پروتکل های همروندی متعارف بدبینانه بر اساس قفل گذاری، در زمان قفل گذاری یا قفل برداری، و در پروتکل های بدبینانه بر اساس مُهرزمانی در زمان خواندن یا نوشتن می بایست ارتباط بین مشتری سیار و سرویس دهنده وجود داشته باشد. در صورتی که این ارتباط پیوسته و دائمی نباشد تراکنش های همروند با مشکلاتی از قبیل بلوکه شدن و انتظارات طولانی مدت مواجه هستند. این مسئله سبب می شود که پروتکل های بدبینانه در محیط سیار مناسب و کارا نباشند. در پروتکل های خوش بینانه نیاز به ارتباط پیوسته مشتری سیار با سرویس دهنده نیست اما این نوع پروتکل ها برای محیط های خوش بینانه که برخورد بین عملگرهای تراکنش ها کم می باشد، مناسب می باشند. در سایر محیط های غیرخوش بینانه نرخ ساقط شدن تراکنش ها بر اساس پروتکل های خوش بینانه بالا می باشد. در این تحقیق یک پروتکل کنترل همروندی بر اساس روش های خوش بینانه معرفی شده است. کاهش ارتباطات بین مشتری سیار و سرویس دهنده ، کاهش نرخ بلوکه شدن و بن بست تراکنش ها و افزایش درجه همروندی مهمترین انگیزه استفاده از روش خوش بینانه بعنوان روش پایه پروتکل معرفی شده می باشد. به منظور کاهش نرخ ساقط شدن تراکنش ها که مهمترین مشکل روش های خوش بینانه می باشد به عملگرهای تراکنش ها در هنگام اجرا برچسب زمانی تخصیص داده می شود از برچسب زمانی تخصیص داده شده در هنگام نهایی شدن تراکنش روی سرویس دهنده، به منظور بررسی ویژگی مرتب بودن زمانبند بر اساس زمان نهایی شدن، استفاده می شود. سریال بودن زمانبندهای ایجاد شده بر اساس پروتکل معرفی شده با کمک از گراف سریال اثبات شده است. ارزیابی نتایج حاصل شده از شبیه سازی نشان داد که استفاده از پروتکل کنترل همروندی معرفی شده در این تحقیق نسبت به پروتکل کنترل همورندی قفل گذاری دو مرحله ای و پروتکل کنترل همروندی خوش بینانه نرخ ساقط شدن و زمان انتظار تراکنش را کاهش می دهد.
نسرین مظاهری احمد براآنی دستجردی
پرس وجوهای اولویت کاربر، پرس وجوهایی هستند که کاربر در آن ها خواسته دقیقی ندارد و می خواهد داده هایی را بیابد که بیشترین تطبیق را با ترجیحات او دارند. بررسی پرس و جوهای اولویت کاربر در پایگاه داده های فضایی کاربردهای زیادی دارد. با کمک این پرس وجوها می توان بهترین مکان از بین نقاط ذخیره شده در پایگاه داده را بر حسب خواسته های کاربر یافت. در بسیاری از مواقع کاربر بهتر بودن یک مکان را از لحاظ فاصله مکان از نزدیکترین همسایه هایش از بین نقاط مورد نظر خود ارزیابی می کند. به مسئله ارزیابی یک مکان توسط فاصله آن تا نزدیکترین همسایه ها، کمتر در پرس وجوهای اولویت کاربر فضایی پرداخته شده است. این مسئله کاربردهای زیادی در سیستم های پیشنهاد دهنده خدمات و برنامه ریزی برای سرمایه گذاری و غیره دارد. مقاله های موجود در این زمینه بر مبنای پرس و جوهای k –بالاترین هستند. ایراد پرس و جوهای k-بالاترین اینست که کاربر باید اوزان و تابع تجمیع صفات را خودش تعیین کند که در اکثر موارد مشکل است. در این تحقیق سعی شده زیر مجموعه ای از پرس وجوهای اولویت کاربر به نام پرس وجوهای خط افق نزدیکترین همسایه فضایی در پایگاه داده های فضایی بر مبنای پرس وجوهای خط افق معرفی شود که در آن کاربر چند دسته نقطه به عنوان پارامتر پرس وجو دارد و صفات هر نقطه در پایگاه داده عبارتند از فاصله نقطه از نزدیکترین همسایه آن از هر دسته نقطه پرس وجو. با جدا کردن این پرس وجو به عنوان زیر مجموعه ای از پرس وجوهای خط افق پویا در این تحقیق سعی شده تا با توجه به پرکاربرد بودن این پرس و جو الگوریتم خاصی برای محاسبه آن ارائه شود. این الگوریتم که n2s2 نامیده شده است،کارایی خوبی در مقایسه با الگوریتم کلی شاخه وحد برای محاسبه پرس وجوهای خط افق پویا از لحاظ تعداد عملیات ورودی و خروجی و زمان پردازنده دارد.
ماندانا پنجه پور احمد براآنی دستجردی
یکی از حمله های رایج در شبکه های کامپیوتری، حمله های رد سرویس توزیع شده می باشد. امروزه با گسترش روش های مقابله با حمله ddos لایه شبکه، مهاجمین به حمله های لایه کاربرد روی آورده-اند. حمله ddos در درخواست های http، نمونه ای از حمله ی لایه کاربرد است. با توجه به اینکه در لایه کاربرد حجم بیشتری از اطلاعات مورد پردازش قرار می گیرد، بررسی آن زمان بر و همراه با سربار زیادی می باشد و تمایز آن از ترافیک های خاصی چون ترافیک پر باری دشوار است. از سوی دیگر الگوریتم های الهام گرفته از سیستم ایمنی بدن انسان، با نام الگوریتم های سیستم ایمنی مصنوعی در مسائل مختلف چون مسائل داده کاوی، پردازش تصویر، شناسایی ویروس ها اعمال شده است و موفقیت چشمگیری داشته است. یکی از این الگوریتم ها که در سال 2007 مطرح گردید، الگوریتم dca می باشد. این الگوریتم که به شناسایی ناهنجاری می پردازد، به جای طبقه-بندی، با تخمین میزان خطر یک موجودیت و بررسی شرایط محیطی، احتمال خطرناک بودن و وجود ناهنجاری در آن موجودیت را تشخیص می دهد. با توجه به نو بودن این الگوریتم و موفقیت آن در مسائلی چون پویش پورت و شناسایی bot، این نوشتار با اعمال الگوریتم dca به همبندسازی هشدارها و شناسایی حمله ddos لایه کاربرد می پردازد. بدین منظور با استفاده از اطلاعات فایل ثبت سرویس دهنده ی وب، سیگنال های ورودی مشخص می شود. این سیگنال ها معرف شرایط محیطی هستند. پس از آن سیگنال های ورودی و آنتی ژن ها که همان درخواست های http کاربران است، به الگوریتم dca ارائه می شود و با استفاده از نمونه برداری های مختلف هر dc از محیط و تولید سیگنال های خروجی، وضعیت نرمال یا ناهنجار مشخص شده و حمله های ddos لایه کاربرد شناسایی می شود. ارزیابی راهکار ارائه شده، نشان دهنده ی کارایی و موفقیت این روش است. این الگوریتم دارای پیچیدگی زمانی n3 می باشد. این روش دارای نرخ شناسایی 96% می باشد که نشان دهنده ی انتخاب صحیح سیگنال ها و موفقیت الگوریتم می باشد. می توان الگوریتم را تعمیم داد و جهت شناسایی ناهنجاری های وب از آن بهره جست.
مهسا جمال ویشکایی کمال جمشیدی
با افزایش محبوبیت معماری سرویس گرا استفاده از وب سرویس ها در برنامه های کاربردی افزایش زیادی یافته است. در این محیط کامپوننت های برنامه کاربردی به صورت شبکه ای از سرویس هایی با پیوند سست هستند، که از آنها برای پشتیبانی در توسعه برنامه های کاربردی سریع و بسیار توزیع شده استفاده می شود. در چنین محیطی وب سرویس ها رفتار بسیار پویایی دارند و ممکن است محیط اجرایی با محیطی که در زمان طراحی در نظر گرفته شده است متفاوت باشد. در نتیجه امکان دارد وب سرویس مناسبی انتخاب شود ولی با گذشت زمان، آن وب سرویس کارایی لازم را از خود نشان ندهد و یا بنا به شرایطی نتوان از آن استفاده نمود. بروز این مشکلات در وب سرویس ها باعث کاهش کیفیت و یا از کار افتادن فرایندها و برنامه های کاربردی می شود که از آن سرویس ها استفاده می کنند. برای رفتن به سمت محیط سرویس گرای انعطاف پذیر و قابل اطمینان با خصوصیات تطبیق خودکار نیاز می باشد در صورت بروز این مشکلات به صورت خودکار وب سرویسی مشابه با وب سرویس اولیه انتخاب شده و جهت جایگزینی معرفی شود. بازیابی وب سرویس مشابه، مشخص کردن سرویسی مناسب می باشد که نیازمندی های سرویس قبلی را مرتفع سازد. از سرویس مشابه در شرایطی که سرویسی از کار بیفتد و یا به دلایلی مثل وجود بار زیاد روی میزبان آن قادر به پاسخگویی نباشد، استفاده می شود. در اکثر کارهای ارائه شده تا به حال بر اساس شباهت عملکردی،k تا از بهترین سرویس ها انتخاب و مرتب می شوند. در این روش ها، کاربر باید در ادامه بر اساس ترجیحات خود یکی از آنها را انتخاب نماید. یکی از معیارهای مهم در بازیابی وب سرویس مشابه، درنظر گرفتن خصوصیات کیفی و در نظر گرفتن ترجیحات کاربر در این زمینه می باشد. به دلیل اهمیت این موضوع در این پایان نامه چارچوبی ارائه شده است که از ویژگی های کیفی و ترجیحات کاربر برای تصمیم گیری در انتخاب سرویس مشابه علاوه بر ارزیابی شباهت عملکردی استفاده کرده است. با استفاده از چارچوب پیشنهادی میزان بهره حاصل از بازیابی سرویس مشابه افزایش یافته است و سرویس های مشابه با بهترین ترتیب به کاربر معرفی می شوند. این امر باعث بهینه سازی در انتخاب سرویس مشابه شده است.
محمد زنجانی احمد براآنی دستجردی
خوشه بندی یا دسته بندی بدون نظارت با سازمان دهی پیکره های بزرگ متنی، نقش کلیدی در پیمایش و مرور آسان انبوهی از متون دارد. نقش این سازمان دهی در موتورهای جستجو برای ارائه خوشه های معنادار مرتبط با پرس و جو، جهت پیشگیری از سردرگمی کاربر در حجم عظیمی از اسناد بازیابی شده بیشتر نمایان می شود. علاوه بر مشکلاتی نظیر تعداد ابعاد بسیار زیاد و تحلیل خوشه ای، متاسفانه دیدگاه متعارف خوشه بندی های افرازی و سلسله مراتبی، به متن، همانند کیسه ای از کلمات است که در نتیجه در مقایسه ها فقط شباهت های ظاهری اسناد مورد توجه قرار می گیرد. در این نوع دیدگاه، کلمات یا تِرم ها کاملا ناهمبسته اند و به روابط کلمات (مثل هم معنایی و شمول) توجهی نمی شود. همچنین تلاشی برای رفع ابهام از کلمات چند معنایی صورت نمی گیرد. عدم توجه به این گونه مسائل غالبا منجر به خوشه بندی با کیفیت پایین و یا غیرمعنایی می شود. در این تحقیق، زبان فارسی با توجه به اهمیت آن به عنوان یکی از زبان های زنده دنیا و رشد روزافزون متون الکترونیکی به زبان نوشتاری فارسی، مورد توجه قرار گرفته است. ایده اصلی یافتن توصیف های مناسب برای دانش پس زمینه و غنی سازی متن فارسی با استفاده از آن جهت افزایش کیفیت خوشه بندی است. برای نیل به این مقصود از منبع دانش خارجی با نام واژ-هستان شناسی فارس نت استفاده شده است. با کمک فارس نت عملیات رفع ابهام از دسته های معنایی کلمه صورت پذیرفته، روابط هم معنایی و شمول مربوط به معنای کلمه رفع ابهام شده، وارد بردار کلمات متن می شود. همچنین برای خوشه بندی متنی بر رهیافت نمایش مبتنی بر اجزاء یا فاکتورگیری نامنفی ماتریس ترم-متن تاکید شده است. نتایج ارزیابی های صورت گرفته بر روی پیکره استاندارد متنی همشهری، نشان از بهبود کیفیت خوشه بندی متون فارسی غنی شده (بخصوص با رابطه شمول) در مقایسه با خوشه بندی خام دارد. همچنین تاثیر این روابط در بهبود کیفیت خوشه بندی و نیز توضیح خوشه ای بر پایه فاکتورگیری نامنفی ماتریس بیشتر از خوشه بندی bisecting kmeans بوده است.
نرجس میرزاپور احمد براآنی دستجردی
مفهوم اعتماد در زمینه های مختلف از جمله روانشناسی، فلسفه، جامعه شناسی و علوم کامپیوتر مورد استفاده قرار میگیرد. تاکنون مدلهای زیادی برای ارزیابی اعتماد ارائه شده است. با توجه به اینکه تور اعتماد یکی از مهمترین بسترهای کاربرد اعتماد است، لازم است مدلسازی مناسبی از این مفهوم در تور اعتماد صورت گیرد. تعداد کمی از مدلهایی که تاکنون ارائه شدهاند توانسته اند همه ی ویژگیهای یک اجتماع واقعی را در تور اعتماد به کار برند. در این پایان نامه یک مدل اعتماد مبتنی بر شهرت در تور اعتماد ارائه شده است. در ابتدا یک مطالعه ی میدانی جهت یافتن فاکتورهای موثر در تعیین اعتماد صورت گرفته است. فاکتورهای به دست آمده در چهار دسته طبقه بندی می شود. این چهار دسته عبارتند از : تایید دیگران، تواناییهای امین، ویژگیهای شخصی امین و ویژگیهای عمل. در ادامه یک مدل محاسباتی مبتنی بر شهرت بر اساس این فاکتورها توسعه یافته است. مدل پیشنهادی دارای امکانات قدرتمندی مانند تاثیر میزان خوشبینی افراد و پویایی اعتماد نیز میباشد. ارزیابی مدل پیشنهادی در محیط شبیه سازی art یا agent reputation and trust انجام گرفته و نتایج آن نشان می دهد که اگر فرد کاملا خوشبین نباشد، مدل قادر است نتایج سودمندی را به دست دهد. از روش انسانی نیز جهت ارزیابی مدل پیشنهادی استفاده شده است. با استفاده از این روش ارزیابی نشان داده شد که مدل با دقت بالایی قادر به پیش بینی قابلیت اعتماد، خواهد بود.
مهدی باطنی احمد براآنی دستجردی
سیستم تشخیص نفوذ (ids) وظیفه ی نظارت بر رویدادهایی که در یک کامپیوتر و یا شبکه ی کامپیوتری رخ میدهد و تحلیل این رویدادها برای یافتن نشانه های نفوذ را بعهده دارد. منظور از نفوذ، تلاشی از طرف یک کاربر مجاز یا غیر مجاز است که نتیجه ی موفقیت آن به خطر افتادن محرمانگی، یکپارچگی، در دسترس بودن و یا عبور از مکانیزمهای امنیتی میباشد. معمولا ids در صورت تشخیص یک نفوذ با تولید یک هشدار مدیر امنیتی سیستم را از خطر بوجودآمده آگاه میکند. اما در یک شبکه ی کامپیوتری گسترده با دهها و یا صدها کاربر، تعداد هشدارهای تولید شده آنقدر زیاد خواهد شد که مدیر امنیتی سیستم قادر به تحلیل هشدارها و استفاده از آنها نخواهدبود. شناخته شده ترین راه حل برای مواجه با مشکلِ تعداد زیاد هشدارها، همبسته کردن آنهااست. همبسته سازی هشدارها روند تحلیل هشدارهای تولیدشده توسط یک یا بیش از یک ids و ایجاد یک دید کلی و سطح بالا نسبت به مخاطرات و یا حملاتِ در شرف وقوع میباشد. سیستم همبسته ساز معمولا این کار را با حذف هشدارهای کاذب، گروه بندی هشدارهایی که به یک رویداد مربوط میشوند و اولویت بندی هشدارها انجام میدهد. روشهای مختلفی برای انجام همبسته سازی هشدارها استفاده شده اند که آنها را به سه دسته ی کلیِ مبتنی بر همجوشی هشدارها، مبتنی بر فیلترکردن هشدارها و مبتنی بر کشف روابط سببی بین هشدارها تقسیم کرده اند. هیچ یک از روشهای مطرح شده به تنهایی قادر به تامین همه ی اهداف همبسته سازی نیستند. ضمن آنکه هریک دارای کاستی های خاص خود نیز میباشند. روشهای ترکیبی از ترکیبی از روشهای سه گانه ی فوق برای دستیابی به بهترین نتیجه استفاده میکنند. اما چالش اصلی برای روشهای ترکیبی یافتن ساختار ترکیبی مناسبی است که علاوه بر داشتن نقاط قوت هر یک از روشها از کاستیهای آنها نیز به دور باشند. رویکردهای مختلفی برای ارائه ی معماریها ترکیبی وجود داشته است. در این پایان نامه یک معماریِ ترکیبیِ سه لایه به نام icorrelator پیشنهاد شده است. هدف icorrelator آن است که همبسته سازی هشدارها با کمترین نیاز به دانش اولیه و بصورت پویا انجام شود در عین حال و بصورت همزمان کارایی و دقت همبسته سازی نیز بهبود یابد. معماریِ سه لایه ی icorrelator با الهام گرفتن از ساختار سیستم ایمنی بدن انسان طراحی شده است که مبتنی بر پاسخهای سیستم ایمنی مادرزادی، پاسخهای اولیه ی سیستم ایمنی اکتسابی و پاسخهای ثانویه ی سیستم ایمنی اکتسابی میباشد. علاوه بر این از لحاظ عملکردی نیز icorrelator از یکی از الگوریتمهای شناخته شده ی سیستم ایمنی مصنوعی به نام airs برای یادگیری با نظارت استفاده میکند. معماری سه لایه ی icorrelator از ترکیبی از دانش اولیه ی محدود در قالب قوانین عمومیِ غیر وابسته به حملاتِ خاص برای مواجه با حالات پیشبینی شده، یک الگوریتم یادگیریِ بانظارت برای مواجه با حالات جدید و پیشبینی نشده و همچنین سلولهای حافظه ی ایمنی برای بخاطر سپردن این حالات جدید برای مواجه های بعدی استفاده میکند. هدف از بکارگیری این ساختار ترکیبی سه لایه در icorrelator برخورداری از دقت در عین کارایی و پویایی میباشد. مجموعه های داده ای drpa2000 و netforensics honeynet برای بررسی دقت و کارایی icorrelator مورد استفاده قرار گرفته اند. سه معیار کمال، درستی و نرخ خطا در همبسته سازی برای بررسی دقت و همچنین زمان اجرا برای بررسی کارایی icorrelator مورد استفاده قرارگرفته است. برای کلیه ی داده های مورد استفاده، icorrelator توانسته است به صورت پویا و بدون داشتن دانش اولیه ای از حملات موجود در مجموعه های داده ای، حملات را استخراج و گراف حمله را نمایش دهد. icorrelator از لحاظ دقت قابل مقایسه با روشهایی است که با استفاده از تعداد بسیار زیادی از قوانینِ ویژه همین حملات را تشخیص میدهند (پویا نیستند) و از لحاظ کارایی نیز از روشهای پویای موجود بهتر عمل میکند بطوری که زمان آموزش آن بسیار کوتاه است و فرآیند یادگیری با جمع آوری اطلاعات به صورت پویا و در حین پردازش هشدارها انجام میشود. توانایی icorrelator در استخراج حملاتی که هیچ گونه اطلاع قبلی از کیفیت وقوع آنها ندارد و ارائه ی گراف حمله ی آنها، شاهدی بر صحت عملکرد پویای آن میباشد.
مایده عاشوری تلوکی احمد براآنی دستجردی
با گسترش روزافزون تجهیزات موبایل، خدمات متنوعی توسعه یافتند که براساس محیط جاری، اطلاعات سفارشی را به کاربران تحویل می دهند. یکی از انواع پُرکاربرد این گونه خدمات، سرویس های مبتنی بر موقعیت است که با توجه به موقعیت مکانی کاربران، اطلاعات سفارشی را به آن ها تحویل می دهند. استفاده از این خدمات نیاز به افشای اطلاعات موقعیت کاربران دارد، بنابراین حریم خصوصی موقعیت کاربران را با خطر مواجه می کند. برای حفاظت از حریم خصوصی موقعیت، تحقیقات بسیاری انجام شده و حاصل، دسته ی وسیعی از مکانیزم ها برای حفاظت از حریم خصوصی موقعیت یک فرد است. اما در مورد حفاظت از حریم خصوصی موقعیت گروهی از افراد در هنگام استفاده از خدمات مبتنی بر موقعیت، پژوهش چندانی صورت نگرفته است. به علاوه استفاده از تکنیک های حفاظت از حریم خصوصی فردی در کاربردهای گروهی، منجر به فاش شدن اطلاعات و ناکارآمدی خدمت می شود. در این پژوهش مسئله ی حفاظت از حریم خصوصی موقعیت گروهی در نظر گرفته شده، نیازمندی های امنیتی آن شناسایی و دو پروتکل برای پاسخ به آن ها طراحی شده است. به عبارت بهتر، در این تحقیق گروهی از افراد فرض شده اند که قصد برگزاری جلسه ای فوری در محلی را دارند که کم ترین فاصله ی جمعی از کل گروه را داشته باشد. در این شرایط لازم است اطلاعات موقعیت اعضای گروه از دید دیگر اعضا محفوظ باقی بماند (حریم خصوصی درون گروهی) و نیز اطلاعات موقعیت اعضای گروه و موقعیت محل جلسه (در صورت نیاز به برگزاری جلسه ی سرّی، مثلاً در کاربردهای نظامی) از دید افراد خارج از گروه شامل سرویس دهنده و مهاجمان خارجی مخفی باقی بماند (حریم خصوصی برون گروهی). اولین پروتکل پیشنهادی با نام glp مبتنی بر شبکه ی وتوی بی نام و رمزنگاری همریخت است و از حریم خصوصی درون گروهی و حریم خصوصی برون گروهی (در شرایطی که نیازی به برگزاری جلسه ی سرّی نباشد) محافظت می کند. این پروتکل قادر به حفاظت از حریم خصوصی افراد گروه در مقابل حمله ی تبانی و نیز حمله ی توقف است. به علاوه، این پروتکل با کاهش تعداد پرس وجوهای ارسالی و کاهش تعداد پاسخ های دریافتی باعث کمینه شدن هزینه ی ارتباطات می شود. پروتکل دوم با نام cloaked-centroid، که مبتنی بر تکنیک نادقیق سازی فضایی موقعیت، شبکه ی وتوی بی نام و پروتکل تشکیل کلید کنفرانس است، از حریم خصوصی درون گروهی و حریم خصوصی برون گروهی (در شرایط جلسه ی سرّی) محافظت می کند. این پروتکل علاوه بر کاهش تعداد پرس وجوهای ارسالی برای سرویس دهنده و تعداد پاسخ های دریافتی، باعث کاهش سربار سرویس دهنده در هنگام پردازش پرس وجو نیز می شود؛ به علاوه با فراهم آوردن خصوصیت بی نامی مجموعه ی پاسخ و طراحی یک محاسبه ی چندسویه ی امن، باعث بی نامی محل جلسه از دید سرویس دهنده و مهاجمان خارجی می شود. این پروتکل نسبت به حملهی تبانی کاربران، حمله ی توقف و نیز حمله ی اطلاعات زمینه ایمن است. جهت بهبود کارایی، با انجام تغییراتی در پروتکل های پیشنهادی نسخه های کاراتری از آن ها ارائه شده است. پروتکل glp-extend با کاهش یک عمل توان رسانی برای نماینده ی گروه و حذف عملیات رمزگشایی در سرویس دهنده، باعث بهبود پروتکل glp میشود. پروتکل های cloaked-centroid-e1 و cloaked-centroid-e2 با حذف عمل جستجوی فراگیر، نسخه های بهبود یافته ی پروتکل cloaked-centroid هستند. به علاوه پروتکل cloaked-centroid-e2 روشی جدید جهت پوشش گذاری داده ها پیشنهاد می دهد که در آن اجتماع پوشانه ها منجر به خلق کلیدی می شود که تنها توسط اعضای شرکت کننده در پروتکل قابل ساخت است.
علیرضا یوسفیان احمد براآنی دستجردی
با افزایش روزافزون کاربران اینترنت، این بستر به منبعی غنی از اطلاعات تبدیل شده و با همگانی شدن آن، بیان نظرات و عقاید کاربران در مورد کالا ها، سازمان ها و اشخاص با سادگی بیشتری انجام می شود. با توجه به تحقیقاتی که در سال 2009 انجام گرفت، موثرترین عامل در تصمیم گیری مشتریان در خرید الکترونیک، نظرات ارائه شده توسط کاربران در مورد کالا ها می باشد. ولی با افزایش نظرات کاربران در مورد کالا ها تصمیم گیری و نتیجه گیری از نظرات مشکل شده است. در این پایان نامه مدل جدیدی از نظرکاوی ارائه شده است. در این مدل بر خلاف کارهای گذشته، برای کلمات بیان کننده احساسات، شدت گرایش تعیین می شود و در شناسایی گرایش شخص نسبت به یک کالا لحاظ می شود. همچنین در این مدل روشی برای تخصیص وزن به ویژگی ها ارائه شده است. کارایی مدل پیشنهادی بر روی مجموعه داده تهیه شده از وب سرویس آمازون ارزیابی و با سایر مدل ها مقایسه شده است. خلاصه سازی با استفاده از مدل پیشنهادی دارای جزئیات دقیق تر و کامل تر نسبت به مدل های گذشته می باشد و همچنین شناسایی رتبه کالا از نظرات با استفاده از این مدل نسبت به سایر مدل های با دقت بالاتری انجام می شود.
فرخ شهریاری احمد براآنی دستجردی
بحث رمزنگاری یکی از مباحث کلیدی امنیت اطلاعات است. با توجه به اینکه امروزه تمامی شرکت ها و سازمان ها، اطلاعات و داده های خودشان را به صورت ساخت یافته یا غیرساخت یافته در پایگاه داده ها ذخیره می کنند، بحث رمزگذاری و حفاظت اطلاعات بیش از پیش حائز اهمیت است. چنانچه داده ها به صورت رمزشده در پایگاه داده ها ذخیره شوند، نیاز است که به ازای هر پرس وجو، داده های موجود در پایگاه داده رمزگشایی شده تا با شرط پرس وجو عمل مقایسه را انجام دهند که چنین عملی بسیار زمان گیر و هزینه بر است. همچنین استفاده از پایگاه داده های رابطه ای جهت ذخیره داده های غیرساخت یافته و یا رشته طولانی از کاراکترها در حجم بسیار بالا هزینه بالایی دارد و نیاز است از پایگاه داده های غیررابطه ای مانند hbase استفاده شود. hbase، پایگاه داده توزیع شده ای است که از لحاظ ساختاری، تفاوت زیادی با پایگاه داده های رابطه ای دارد. بنابراین مسئله ارائه روشی کارا برای رمزگذاری رشته طولانی از کاراکترها در پایگاه داده hbase است که بتواند در حالت رمزشده داده ها، عمل پرس وجو را نیز انجام دهد. راه حل ارائه شده مبتنی بر الگوریتم فیلتر بلوم است. در روش پیشنهادی، با استفاده از الگوریتم فیلتر بلوم یک امضا برای هر یک از داده ها ایجاد کرده به گونه ای که امکان اجرای پرس وجو روی داده های رمزشده را بدون آنکه نیازی به عمل رمزگشایی/رمزگذاری برای هر ردیف باشد ممکن می سازد. در آخر نشان داده می شود که روش پیشنهادی از عملکرد قابل قبولی در بازیابی اطلاعات از پایگاه داده hbase برخوردار است.
پروین رستگار احمد براآنی دستجردی
فرض مهمی که الگوریتم های داده کاوی و یادگیری ماشین دنبال می کنند این است که، داده های آموزشی و آزمایشی از یک فضای ویژگی و با توزیع یکسانی برداشته می شوند. معمولا در دنیای واقعی این فرضیات در نظر گرفته نمی شود. زمانی که نحوه توزیع داده ها متفاوت باشد، می بایست تمامی مد ل های آماری با کمک داده های آموزشی جدید از ابتدا ساخته شوند که این کار بسیار هزینه بر خواهد بود. در چنین حالت هایی است که نیاز به استفاده از انتقال دانش یا یادگیری انتقالی بوجود می آید. بنابراین یادگیری انتقالی، توانایی یک سیستم برای استخراج و اعمال دانش از کارهای قبلی به کار جدید می باشد. یکی از چالش-های مهمی که اعتماد استفاده از یادگیری انتقالی را در بین کاربران از بین می برد، وقوع انتقال منفی است. انتقال منفی هنگامی رخ می دهد که منبع و مقصد هیچ ارتباطی با یکدیگر نداشته باشند (به هم شبیه نباشند) که در این صورت در زمان انتقال دادها از منبع به مقصد، کارآیی یادگیری در مقصد بدتر از زمانی خواهد بود که از انتقال داده برای یادگیری استفاده نمی شود. بنابراین هدف از این تحقیق ارائه راه حلی برای کاهش انتقال منفی در یادگیری انتقالی می باشد. در حوزه یادگیری انتقالی، الگوریتم های زیادی مطرح شده که در این پایان نامه از الگوریتم multisourcetradaboost استفاده شده است. در این الگوریتم به دلایلی از جمله وابستگی وزن دهی اولیه به کاربر و عدم رضایت کاربران در وارد کردن وزن اولیه در زمانی که تعداد زیادی داده وجود دارد، دقت الگوریتم کاهش یافته و به بروز خطا منجر می گردد. برای کاهش انتقال منفی فرض شده است که با استفاده از فراداده ها که به همراه منبع و مقصد وجود دارد به ارزیابی منابعی پرداخته می شود که شباهت بیشتری به مقصد دارند و داده ها از آن منابع استخراج می شوند. برای این منظور به کمک روش هایی از جمله فاصله اقلیدسی وزن دار، میانگین وزن دار و الگوریتم های همسانی رشته ها از جمله hd، ld و lcs و الگوریتم همبستگی داده ها، شباهت بین منبع و مقصد و فراداده های آن ها بدست می آید. در نهایت وزنی براساس شباهت بدست آمده، به منابع اختصاص داده می شود که براساس این وزن ها بخشی از داده ها از منابع به صورت تصادفی برای انتقال به مقصد استخراج می شوند. پس از این مرحله بر روی مقصد و داده های بدست آمده از منبع پیش پردازش هایی صورت می گیرد تا آن ها را برای تزریق به الگوریتم multisourcetradaboost آماده نماید. آزمایشات بر روی تعدادی مجموعه داده های واقعی، نتایج خوب و بهبود 25 درصدی را با استفاده از الگوریتم یادگیری انتقالی شباهتی نشان می د هند.
حسین پیرحیاتی احمد براآنی دستجردی
اهمیت فناوری اطلاعات و توسعه آن بر کسی پوشیده نیست. از مهمترین اهداف در توسعه فناوری اطلاعات، توسعه نیروی انسانی متخصص و کارآمد و نیز بالا بردن سواد علمی و کامپیوتری در جوامع می باشد. اما این مهم جزء با گسترش فضاهای آموزشی جهت آموزش به طیف بیشتری از مردم فراهم نمی گردد. از آنجا که فضاهای آموزش سنتی به تنهایی جوابگوی این نیاز نمی باشند، اکثر کشورهای پیشرفته به سمت فضاهای مجازی برای آموزش روی آورده اند و تحقیقات گسترده ای را بر روی آموزش و فراگیری الکترونیکی انجام داده اند. در همین راستا مدلهای مختلفی که مشخص کننده وظایف آموزش الکترونیکی می باشند، پیشنهاد شده است. هدف از ارائه این مدلها مشخص شدن دقیق اجزاء مرتبط با بحث آموزش و ارتباطات میان این اجزاء می باشد. اما کارهای انجام شده تا رسیدن به یک آموزش الکترونیکی ایده آل یعنی آموزش انفرادی، فاصله زیادی دارد. سیستم های آموزش الکترونیکی تنها در صورتی موفقیت لازم و نتایج قابل قبولی را بدست خواهند آورد که تمامی نیازهای کاربران سیستم و فراگیرندگان دانش را مد نظر قرار داده و امکانات لازم را در اختیارشان قرار دهند. برای رسیدن به این مقاصد، استفاده از سیستم های هوشمند آموزش الکترونیکی، ضروری به نظر می رسد. هدف اصلی این سیستم ها ارائه یک آموزش اختصاصی به هر فراگیرنده با توجه به نیازهای منحصر بفرد آن فراگیرنده می باشد. پس از بررسی مدلهای موجود آموزش الکترونیکی متوجه شدیم که برای نزدیک شدن به آموزش انفرادی به دو مسأله می بایست توجه شود، اول اینکه طراحی این مدلها می بایست به گونه ای باشد که اجزاء مدلها قابلیت عمل کردن بصورت هوشمند را داشته باشند و دوم اینکه در طراحی مدلها بایستی جایگاهی برای انواع مشاورین در نظر گرفته شود تا در حل مشکلات فردی به آموزش گیرنده ها کمک نمایند. با توجه به اینکه در مدلهای موجود نقش مشاورین مشخص و مشهود نیست و موضوع هوشمند بودن اجزاء مدل نیز کمتر مورد توجه قرار گرفته است، تصمیم گرفته شد که در این تحقیق یک مدل مشاور یادگیری الکترونیکی هوشمند طراحی شود. در این مدل نقش مشاورین بطور کامل مشخص شده و اجزاء قابلیت عمل کردن بصورت هوشمند را دارند. برای انجام تحقیق، پس از مطالعه مباحث زیادی از قبیل سیستم های آموزش الکترونیکی، سیستم های هوشمند آموزشی و سیستم های مشاوره به طراحی مدل پرداخته شد. توسعه دهندگان با ایده برداری از این مدل می توانند برنامه های کامپیوتری مفیدی برای کمک به آموزش گیرنده ها تولید کرده و در اختیار آنها قرار دهند.
زهرا زمانی علویجه احمد براآنی دستجردی
در سال های اخیر استفاده از شبکه های اجتماعی بسیار عمومیت یافته و به بخش مهمی از فعالیت های روی خط تبدیل شده است. در حالی که تعداد کاربران شبکه های اجتماعی در حال افزایش است، نیاز به برخورد با چالش های مختلف در آن ها نیز رو به گسترش است. امروزه کاربران شبکه های اجتماعی با انواع روابط مختلف مانند دوستی، خویشاوندی، هم کلاسی وغیره می توانند به یکدیگر متصل شوند. بنابراین تعیین نوع یک رابطه در یک شبکه ی اجتماعی به عنوان یک چالش جدید مطرح شده است. وجود نوع روابط در شبکه های اجتماعی مزایای زیادی مانند بهبود حفظ حریم شخصی کاربران، تسهیل اشتراک گذاری یا فیلترگذاری مطالب انتشار یافته از سوی کاربر، بهبود سیستم پیش گویی پیوند وغیره را به همراه دارد. برای این که بتوانیم از مزایای وجود نوع پیوند در یک شبکه بهره ببریم نیاز به سیستمی داریم که به طور خودکار با توجه به پیوندهای دارای نوع، بتواند نوع روابط ناشناخته را پیش بینی نماید. هر چند در اکثر موارد از الگوریتم های پایه کلاس بندی مانند درخت تصمیم یا الگوریتم بیز برای حل این گونه مسائل بهره می برند اما این الگوریتم ها برای این گونه مسائل دقت کافی ندارند. در این پایان نامه الگوریتمی مبتنی بر احتمالات، برای پیش بینی نوع پیوند برای رابطه هایی که نوع آن ها مشخص نیست، ارائه شده است. این الگوریتم از ویژگی های گره ها و ویژگی های ساختار شبکه برای پیش بینی دقیق بهره برده است. الگوریتم جدید در دو مرحله ارائه شده است که مرحله اول شامل محاسبه احتمالات برای هرگره است که تقریبا شبیه روش بیز است و مرحله دوم شامل یک روش وزن دهی به احتمالات است که همسایگان مشترک میان گره ها ونوع رابطه ی آن ها را نیز درگیر می کند و باعث پیش بینی دقیق نوع پیوند می گردد. نتایج حاصل از ارزیابی این روش، با الگوریتم های پایه کلاس بندی (بیز، درخت تصمیم و svm) حاکی از آن بودندکه این روش نسبت به روش های مطرح شده قبلی کارایی بهتری دارد. علاوه بر این به مقایسه ی اهمیت ویژگی های توصیفی و ساختاری در حل مسئله پیش بینی نوع پیوند پرداخته شد. نتایج نشان دادند که محاسبه ویژگی های ساختاری باعث بهبود دو برابری دقت در پیش بینی نوع پیوند، نسبت به حالتی که تنها ویژگی های توصیفی گره ها را در اختیار داریم، می گردد. همچنین با کنار هم قرار دادن ویژگی های توصیفی و ساختاری، دقت پیش بینی ها، نسبت به حالتی که تنها ویژگی های ساختاری را داریم، حدود 15 درصد و نسبت به حالتی که تنها ویژگی های توصیفی را داریم حدود 55 درصد، بهبود یافته است.
فاطمه اعظم احمد براآنی دستجردی
با توجه به اینکه انتظار می رود داده هایی که از لحاظ موقیت مکانی به هم نزدیک هستند رفتار مشابهی نیز داشته باشند، لذا عموما برون افتادگی فضایی به صورت محلی و در همسایگی های نزدیک بررسی می شود. در بسیاری از پدیده ها رفتار اشیاء فضایی تحت تاثیر فرآیند ها و اشیاء پیرامون است. بنابراین برای انجام هرگونه تحلیل موثر لازم است ویژگی های فضایی و غیر فضایی اشیاء، روابط فضایی ضمنی و شفاف آن ها با دیگر اشیاء و ناحیه تاثیر گذاری هر شیء، در تحلیل در نظر گرفته شود. ناحیه تاثیر یک شیء فضایی شامل فرآیند های فضایی و غیر فضایی زیر بنایی است که رفتار آن شیء و اشیاء مجاور آن را تحت تاثیر قرار می دهد. بنابراین شناخت الگوهای رفتاری مشابه بین اشیاء داده مستلزم تعریف گسترده تری از همسایگی است به نحوی که شباهت معنایی میان اشیاء داده در نظر گرفته شود. روش پیشنهادی این است که مجموعه اشیاء، فرآیند ها و پارامترهای موثر بر رفتار شیء فضایی مورد مطالعه را از مجموعه داده های مختلف استخراج کرده و به کمک آن برای هر شیء فضایی یک ناحیه تاثیر گذاری تشکیل شود. به این صورت مفهوم همسایگی به روش فاصله فضایی به همسایگی معنایی تغییر داده شده و با اندازه گیری شباهت معنایی امکان دسته بندی اشیاء بر اساس الگوهای رفتاری آن ها فراهم می گردد.
مریم بارانی بهمن زمانی
اشکال زدایی نرم افزار به صورت دستی فرایندی بسیار دشوار و پرهزینه است. مکان یابی و رفع خطاهای پنهان نرم افزار پرهزینه ترین عمل در فرایند اشکال زدایی برنامه است. تاکنون راهکارهای متعددی برای خودکارسازی مکان یابی خطا ارائه شده است. بسیاری ازاین راهکارها مکانیابی خطا را با فرض وجود یک خطا در هر بار اجرای برنامه انجام می دهند و پس از رفع یک خطا در برنامه، عملیات مکانیابی را مجدداً تکرار می کنند. فرض وجود یک خطا در هر بار اجرای برنامه فرضی غیر واقعی است و علاوه بر اینکه تأثیر وقوع چندین خطا را بر نتیجه برنامه در نظر نمی گیرد، به علّت کشف یک خطا در هر بار اجرای عملیات مکانیابی، سربار بالایی ایجاد کرده و این روش ها را ناکارآمد می سازد. در این تحقیق راهکاری جدید برای حل مسئله مکانیابی خطا با فرض وجود چندین خطا در هر بار اجرای برنامه ارائه شده است. روش پیشنهادی، با استفاده از خوشه بندی مبتنی بر چگالی(density based) گزاره های مظنون به خطای موجود در برنامه، خوشه هایی که به علت وجود یک خطا ایجاد می شوند را کشف و سپس با استفاده از الگوریتم liblit05 گزاره های مظنون به خطا در هر خوشه را شناسایی می نماید. نتایج ارزیابی نشان می دهد که در روش پیشنهادی این تحقیق برای مکانیابی خطاهای چندگانه نیاز به بررسی درصد کمتری از کد برنامه می باشد و این امر باعث کاهش هزینه اشکال زدایی برنامه میگردد.
نجمه سعید احمد براآنی دستجردی
تاکنون راه¬کارهای مختلفی برای خودکارسازی مکان¬یابی خطا در برنامه¬ها ارائه شده است. برخی از روش-ها از اطلاعات پوششی موارد آزمون بر روی واحدهای کد و برخی دیگر از اطلاعات مربوط به دنباله¬های اجرایی برای نیل به این هدف استفاده می¬کنند. روش¬های مبتنی بر اطلاعات پوششی، برای شناسایی مکان-های خطا فقط به اجرا شدن یا نشدن واحدهای کد (اطلاعات دودویی) در اجراهای موفق و ناموفق توجه دارند. در این پژوهش بر خلاف روش¬های پیشین اطلاعات پوششی به صورت فراوانی استخراج شد تا تاثیر استفاده از تعداد دفعات پوشش هر واحد از کد بر دقت روش¬های مکان¬یابی خطا، مورد ارزیابی قرار گیرد. از سوی دیگر، دنباله¬های اجرایی حاوی اطلاعات سودمندی هستند که می¬توانند برای کمک به مکان¬یابی خودکار خطا مورد استفاده قرار گیرند. در همین راستا برای اولین¬بار، به منظور استفاده از اطلاعات فراوانی روی دنباله¬های اجرایی دو مدل سه¬گانه برای اجراهای موفق و ناموفق ساخته شد. میزان اختلاف بین دو مدل ساخته شده به ازای هر واحد کد، میزان مظنون به خطا بودن واحد کد مذکور را مشخص می¬کند. نتایج آزمایش¬ها بر روی هفت برنامه استاندارد زیمنس حاکی از کارایی روش¬های مبتنی بر اطلاعات فراوانی نسبت به روش¬های سنتی می¬باشد. روش¬های مبتنی بر اطلاعات فراوانی به طور متوسط بین چهار تا هفت درصد بهتر از سایر روش¬ها عمل می¬کنند. از سوی دیگر، با بررسی تاثیر تعداد موارد آزمون ناموفق بر کارایی روش¬های مکان¬یابی خطا، مشخص شد این عامل بیشترین تاثیر را در شناسایی واحدهای کد مظنون دارد. به همین دلیل از این عامل به عنوان یک فیلتر برای بهبود عملکرد سایر روش¬ها استفاده شد. همچنین با در نظر گرفتن سایر عوامل موثر بر مکان-یابی خطا، یک تابع اکتشافی جدید برای مکان¬یابی موثر خطا ارائه شد. نتایج به دست آمده بر روی دیتاست زیمنس نشان می¬دهد، این روش در مقایسه با روش¬های تارانتولا، کراس¬تب و اوکای به طور متوسط بین 5 تا 15 درصد بهتر عمل کرده است.
محبوبه عباسی احمد براآنی دستجردی
به طور معمول وجود مشکل در نرم افزارها و برنامه های کاربردی امری اجتناب ناپذیر است. امروزه کاربرد نرم افزار های تحت وب در تحقیقات و پژوهش های علمی رو به افزایش است و به همین دلیل اثرات و هزینه های ناشی از خطاها در برنامه های کاربردی تحت وب مورد توجه قرار گرفته است. برنامه های کاربردی تحت وب دارای ماهیت توزیع شدگی و پویا هستند. با توجه به قابلیت حمل برنامه های تحت وب و عدم توجه توسعه دهندگان به تنظیمات پیکربندی در زمان طراحی نرم افزار تحت وب، همواره جلوگیری از بروز مشکلات و عدم پشتیبانی برچسب در مرورگرها امری اجتناب ناپذیر است. تنظیمات پیکربندی سرویس گیرنده ها شامل طیف وسیع و گسترده ای از تنظیمات مرورگرهای متفاوت قدیمی و جدید می باشد و این تنوع ممکن است باعث ناسازگاری اجرای برنامه های کاربردی تحت وب شود. روش های موجود برای مکان یابی خطا در برنامه ها با استفاده از استخراج اطلاعات پوششی مربوط به اجراهای موفق و ناموفق برنامه و مقایسه آنها به شناسایی نقاط مظنون به خطا می پردازند. در این پژوهش با توجه به اینکه خطاهای ناشی از پیکربندی در برنامه های کاربردی تحت وب تحت تاثیر برچسب های html می باشند، مشاهده و عدم مشاهده برچسب ها در اجراهای موفق و ناموفق برای شناسایی برچسب های مظنون به خطا مورد بررسی قرار گرفت. هدف از این پژوهش یافتن خطاهای چندگانه ناشی از پیکربندی در برنامه های کاربردی تحت وب است. لذا به این منظور با در نظر گرفتن برچسب های مجاز در پیکربندی های متفاوت، برای اولین بار صفحات وب با استفاده از تابع شباهت کسینوسی و اعمال الگوریتم خوشه بندی فازی به هفت دسته براساس پیکربندی های متفاوت خوشه بندی گردید. همچنین برای اولین بار فراوانی هر یک از برچسب ها در صفحات وب در محاسبات مکان یابی خطا دخالت داده شد. نتایج حاصل از این تغییر بر مجموعه داده های آماده شده از سایت w3school نشان می دهد، استفاده از اطلاعات فراوانی برچسب در صفحات وب، مکان یابی خطا را به صورت دقیق انجام داده و لیستی از الویت بندی ها ارائه می شود که در آن تمام خطاهای موجود در برنامه های کاربردی تحت وب را شناسایی می کند.