loading...
دانلود سرای دانشجویی
نوع فایل: word (قابل ویرایش)
تعداد صفحات : 110 صفحه
حجم : 2547 کیلوبایت
چکیده:
پردازش ابری و محیط ابر و پایگاه داده های ابری محل ذخیره سازی اطلاعات روی وب می باشد و برای بالا بردن امنیت در آن ها باید بهترین راه حل را استفاده کرد. مساله ما در اینجا طبقه بندی داده های محرمانه و فوق محرمانه و سپس رمزگذاری آن ها برای ذخیره در ابر می باشد برای این کار سرعت و دقت بسیار مهم می باشد. در این پژوهش یک الگوریتم طبقه بندی داده فازی، در محیط ابری استفاده شده است که در نهایت با زبان جاوا و در شبیه ساز کلودسیم شبیه سازی شد و توانست طبقه¬بندی موثری برای داده¬ها در محیط ابر ایجاد کند.
 الگوریتم طبقه بند ارایه شده، الگوریتم k-نزدیک ترین همسایه فازی است. با توجه به خصوصیات خوبی که الگوریتم k-نزدیک¬ترین همسایه فازی دارد توانست با سرعت و دقت بیشتر داده های محرمانه،  فوق محرمانه و عمومی را طبقه بندی کند و برای رمزگذاری مناسب برای ذخیره سازی در ابر آماده کند و کارایی طبقه بندی داده برای ذخیره سازی در ابر را بهبود بخشد.
روش کار بدین صورت می باشد که داده های یک پایگاه داده ۱۵۰۰۰ رکوردی ابتدا توسط الگوریتم k-نزدیک ترین همسایه عادی طبقه بندی می شود و داده ها به مرحله رمزگذاری فرستاده می¬شوند و در نهایت  در ابر ذخیره می شوند و در مقابل آن همان پایگاه داده توسط الگوریتم k-نزدیک ترین همسایه فازی طبقه-بندی می شود و به سه کلاس فوق محرمانه، محرمانه و عمومی به مرحله بعدی که رمزگذاری و ذخیره در ابر می باشد فرستاده می شود. در پیاده سازی این روش از زبان جاوا و شبیه ساز کلودسیم استفاده شده است و نتایج حاصل به خوبی بیانگر کارایی بهتر الگوریتم k-نزدیک ترین همسایه فازی می باشد که موجب تولید نتایج بهتر نسبت به الگوریتم k-نزدیک ترین همسایه عادی می¬شود .
واژه های کلیدی:
پردازش ابری، امنیت، طبقه بندی k-نزدیک ترین همسایه، طبقه بندی k-نزدیک ترین همسایه فازی

مقدمه

استفاده از شبکه هاي کامپیوتري در چندین سال اخیر رشد فراوانی کرده و سازمان ها ومؤسسات اقدام به برپایی شبکه نموده اند .شبکه هاي کامپیوتري زیر ساخت هاي لازم را براي به اشتراك گذاشتن منابع در سازمان فراهم می آورند؛در حالی که این زیر ساختها به درستی طراحی نشوند، در زمان استفاده از شبکه مشکلات متفاوتی پیش آمده و باید هزینه هاي زیادي به منظور نگهداري شبکه وتطبیق آن با خواسته هاي مورد نظر صرف شود. پس قبل از طراحی یک شبکه باید هدف ایجاد آن شبکه ،حجم ترافیکی که در شبکه عبور خواهد کرد و بسیاری مسائل دیگر را درنظر داشت به همین منظور باید آشنایی کافی با شبکه های مختلف و تجهیزات مورد استفاده در زیر ساخت شبکه را داشته باشیم .

در طول دهه اخیر، اینترنت از پروژه هاي تحقیقاتی ارتباطات که دنیاي ما را براي همیشه دچار تحول ساخته اند فراتر رفته است.پیام هاي کوتاه ،ام ام اس،تلفن ip،فیلم و موسیقی هاي درخواستی،بانکداري؛تنها بخشی از کاربرد هاي فراوانی هستند که زندگی ما را راحت تر کرده اند،اما تکنولوژي و فناوري که ما را قادر به استفاده از این امکانات می کند شبکه هاي کامپیوتري و نحوه ي ارتباط بین این شبکه ها میباشد.اینترنت که بزرگترین ابزار براي ارائه خدمات فوق می باشد از چندین هزار شبکه کوچک تشکیل شده است که براي برقراري ارتباط و تبادل اطلاعت بین این شبکه ها به یک شبکه گسترده دیگر نیاز دارد که backbone نامیده می شود، و داراي device هاي مختلف از جمله router است ،نحوه ي رد و بدل شدن پیام ها بین router ها اساس کار این backbone میباشد، به دلیل اهمیتی که این تکنیک ارسال و دریافت پیام از یک نقطه به نقطه دیگر دارد روش هاي مختلف انجام این کار بررسی می شوند و در نهایت بهترین و مناسب ترین روش انجام کار به صورت کامل بررسی می شود.

ارائه‌ی یک رویکرد نوین مبتنی بر داده‌کاوی، به منظور بهبود کیفیت هشدارها در سیستم‌های تشخیص نفوذ
نوع فایل: word (قابل ویرایش)
تعداد صفحات : 124 صفحه
حجم : 1192 کیلوبایت

چکیده:
همزمان با پیشرفت و گسترش روزافزون اینترنت و کاربردهای مبتنی بر آن، بر تعداد و پیچیدگی حملات سایبری نیز افزوده می‌شود. بنابراین، استفاده از ابزارهای مختلف امنیتی برای حفاظت از سیستم‌ها و شبکه‌های کامپیوتری به یک نیاز حیاتی تبدیل شده است. در میان این ابزارها، سیستم‌های تشخیص نفوذ از مؤلفه‌های ضروری دفاع در عمق می‌باشند. یکی از بزرگ‌ترین مشکلات سیستم‌های تشخیص نفوذ، تولید سیلی از هشدارهاست؛ هشدارهایی که اغلب آن‌ها هشدارهای غلط، تکراری، و بی‌اهمیت هستند. در میان رویکردهای مختلف برای حل این مشکل، روش‌های داده‌کاوی از سوی بسیاری از محققان پیشنهاد شده است. با این حال، بسیاری از روش‌های قبلی نتوانسته‌اند مشکلات را به طور کامل حل کنند. به علاوه، اغلب روش‌های پیشین، از مشکلاتی نظیر وابستگی به نیروی انسانی و برون‌خط بودن رنج می‌برند.
در این پژوهش، یک رویکرد برخط برای مدیریت هشدارهای تولیدشده توسط سیستم‌های تشخیص نفوذ پیشنهاد می‌شود. رویکرد پیشنهادی، قابلیت دریافت هشدارهایی از چندین سیستم تشخیص نفوذ را داراست. این رویکرد با استفاده از مجموعه داده‌ی استاندارد DARPA 1999 و مجموعه داده‌ی شبکه‌ی اداره‌ی بنادر و دریانوردی شهید رجایی ارزیابی شده است. ارزیابی‌های انجام شده نشان می‌دهد که راهکار ارائه شده با کاهش حجم هشدارها به میزان ۹۴٫۳۲%، می‌تواند تأثیر بسزایی در مدیریت هشدارها داشته باشد. این رهیافت، به دلیل استفاده از رویکرد تجمعی داده‌کاوی و به‌کارگیری الگوریتم‌های بهینه، می‌تواند متخصص امنیت شبکه را به صورت برخط، از وضعیت شبکه‌ی تحت نظارت، آگاه سازد.


کلمات کلیدی:
سیستم‌های تشخیص نفوذ، داده‌کاوی، دسته‌بندی هشدارها، خوشه‌بندی هشدارها، هشدارهای غلط، الگوریتم برخط

چکیده

در عصر اطلاعات، وب امروزه به یکی از قدرتمند ترین و سریع ترین ابزارهای ارتباطات و تعـامل میان انسان ها بدل شده است. موتورهای جستجو به عنوان برنامه های کاربردی وب به طور خودکار پهنه وب را پیمایش نموده و مجموعـه ای از اسناد و مـدارک بروز موجـود را دریافـت می کننـد. فرآینـد دریافت، ذخیره سازی، رده بندی و شاخص دهی بر اساس الگوریتم های نيمه هوشمند به صورت خودکار انجـام می شود. اگر چه بسیاری از حقایق در مورد ساختار این برنامه های کاربردی به عنـوان اسـرار تجاری پنهان باقی مانـده است، ادبيات تحقيق در شاخه ی موتورهای جستجو و ابزارهای بازيابی اطلاعات تلاش در يافتن بهترین راهکارها برای عملکرد بهينه ی هر ماژول در ساختار موتورهای جستجو دارد. با توجه به زمان محدود کاربران وب امروزی، ارائه مرتبط ترين و تازه ترين اسناد به آنها اغلب مهمترين چالشی برای موتورهای جستجو می باشد. برای انجام اين مهم، هر ماژول در معماری موتور جستجو باید به گونه ای هوشمند طراحی شود که نه تنها اسناد مرتبط را ارائه دهد بلـکه به پاسخگویی در سريع ترين زمان ممکن بپردازد. در میـان این ماژول ها بخش حساس و حیاتی به نام خزنده وجود دارد. یکی از مسائل قابل بحث در بهینه سازی عملکرد موتورهای جستجو این است که، سیاست خزیدن پیکربندی مجـدد گردد به طریقی که لینک های خارجی مرتبطی که به محتوای مرتبط با صفحات منبع پيوند می خورند دنبال گردد. ماژول خزنده مسئول واکشی صفحات برای ماژول رتبه بندی است. اگر صفحات با کیفیت بالاتر با انحراف موضوع کمتر توسط خزنده نمایه سازی شوند، رتبه بندی سریع تر انجام خواهد شد.

با در نظر گرفتن ساختار وب به صورت گراف، نحوه ی پیمایش وب به صورت روش های جستجوی گرافی می باشد. در این پژوهش، با بکار بردن تجربی روشهای مختلف جستجوی گراف و ترکیبات مختلف آنها و با صدور پرس و جوهایی به موتور جستجوی گوگل جهت اندازه گیری کیفیت صفحات دریافتی و با ثابت در نظر گرفتن فاکتور عمق پيمايش به شناسایی بهترین روش با پیچیدگی زمانی و فضایی معقول به منظور بکار گيری در بخش خزنده در معماری موتور جستجو پرداخته خواهد شد.

کلمات کلیدی: خزنده وب، پيمايش گراف، موتورهاي جستجو، انحراف موضوع.

الگوریتم های شبیه سازی سازگار برای ارزش گذاری اختیارمعامله های آمریکایی و برمودایی توسط تحلیل های موضعی بازار مالی WORD

چكيده

در مباحث ریاضیات مالی، اختيارمعامله هاي آمريكايي به قراردادهاي مالي اطلاق میشود كه در هر زمان قبل از سررسيد قابل اجرا باشند. ولی از آن جایی که، برای ارزش گذاری بسیاری از قراردادهای اختیارمعامله مثل اختیارمعامله ی آمریکایی، جواب تحلیلی وجود ندارد لذا تلاش هایی برای یافتن راه حل های مبتنی بر روش های عددی، مانند مونت کارلو، صورت گرفته است. روش هاي مونت كارلو مشكل پيچيدگي نمايي زمان را ندارد، بنابراین تصور می شود که روش مناسبی برای ارزش گذاری قرادادهای اختیارمعامله باشند. ولی مطالعات نشان داده است به علت این كه شبيه سازي مونت كارلو حركتي رو به جلو است در حالي كه ارزشگذاري اختيارمعاملات آمريكايي فرآيند برگشت به عقب، اعمال روش های مونت کارلو ممکن است باعث بروز برخی مشکلات شود. همچنين در اين پايان نامه رويكردي براي ارزش گذاري اختيارمعامله هاي آمريكايي و برمودايي در حالت گسسته ارائه شده است. در اين رويكرد از اين واقعيت استفاده شده است كه هر اختيارمعاملهي آمريكايي و برمودايي با اختيارمعاملهي اروپايي توأم با فرآيند مصرف معادل است. در حقيقت با استفاده از شبيه سازي مونت كارلو مي توان دو كران بالا و پايين براي ارزش واقعي اختيارمعاملهي برمودايي پيدا كرد، و با انتخاب مناسب كران هاي پايين موضعي و استفاده از تكنيك درون يابي هستهاي، كارآيي اين روش را بالا برد .

كلمات كليدي : اختيارمعاملههاي آمريكايي و برمودايي، كران هاي بالا و پايين، شبيه سازي مونت كارلو، فرآيند مصرف

 نقش طراحی پایگاه داده‌های توزیع شده و Grid Database Design در پیشبرد اهداف تجارت الکترونیک و بررسی راهکارهای جدید در این زمینه

نوع فایل: Word و (قابل ویرایش)
تعداد صفحات : 50 صفحه

پروژه حاضر با بهره گیری از روش نگارش صحیح و استفاده از منابع معتبر، کاملترین و جامع ترین پروژه در ایران می باشد.



چکیده
در این گزارش مزایای ترکیب سیستم‌های پایگاه داده‌ و تکنولوژی گرید برای برنامه‌های کاربری که حجم داده‌ای بسیار بالایی دارند بررسی می‌کنیم. علوم امروزی با سیل عظیمی از داده‌ها رو به رو است. پیشرفت‌هایی که در تکنولوژی‌های کامپیوتر و ردیاب‌ها صورت گرفته چندین ترابایت داده تولید می‌کنند. تحلیل تمام این اطلاعات نیازمند منابعی است که هیچ موسسه‌ای به تنهایی نمی‌تواند از عهده هزینه‌های مالی آن برآید. برای پاسخ به این تقاضا بود که محاسبات گرید به عنوان یکی از مهمترین حوزه‌های تحقیقاتی در آمدند. این محاسبات از محاسبات توزیع شده و خوشه‌بندی نیز متفاوت هستند. ما در این تحقیق گرید را به عنوان یک ساختار و مجموعه‌ای از پروتکل‌ها می‌دانیم که استفاده تجمعی از کامپیوترها، شبکه‌ها، پایگاه ‌داده‌ها و ابزارهای علمی که توسط چندین موسسه مدیریت می‌شود، را به یک سازمان مجازی منتسب می‌کند.
نیاز به مجتمع‌سازی پایگاه‌های داده و تکنولوژی پایگاه‌داده‌ها  در گرید کاملا محسوس است، زیرا که همانند نیاز به پشتیبانی پایگاه‌ دادة برنامه‌های علمی و تجاری می‌باشد. تلاش‌های قابل‌ توجهی برای توصیف نیازمندی‌ها، پروتکل‌ها و پیاده سازی میان‌افزار برای دسترسی به پایگاه‌داده‌ها در محیط گرید صورت گرفته‌ است. اگرچه سیستم‌های مدیریت پایگاه‌داده‌ها (DBMS) به عنوان وسیله‌ای مفید برای مدیریت متادیتا و داده‌ها و منابع و غیره معرفی شده‌اند ولی در برنامه‌های کاربردی که بر روی گرید اجرا می‌شوند حضور پایگاه داده‌ها کمرنگ است. امروزه برنامه‌های کاربردی گرید هنوز از فایل‌ها برای پردازش و ذخیره داده‌ها استفاده می‌کنند و نمی‌توانند از مزایا و قدرت پایگاه داده‌ها بهره ببرند.
كلمات کلیدی: پایگاه داده توزیع شده، محیط Grid،‌ پایگاه داده‌های Grid،مدیریت پایگاه داده‌ها، تکرار داده‌ه
 

عنوان:پایان نامه ارائه روشی برای تشخیص هویت بر مبنای ویژگی بعد فراکتال

فرمت فایل اصلی : doc قابل ویرایش با نرم افزار ورد

تعداد صفحات: 166


1-1- مقدمه‌ای بر تشخیص هویت

افراد در زندگی روزمره‌ی خود با توجه به ویژگی‌های چهره، صدا و حتی نحوه راه رفتن اطرافیان می‌توانند دوستان و آشنایان خود را بشناسند. در واقع همه‌ی افراد ویژگی‌های خاص و منحصربفردی دارند که موجب تمایز آن‌ها از دیگران می‌شود. این ویژگی‌ها و مطالعه آن‌ها موجب پدید آمدن شاخه‌ای از علم به نام علم بیومتریک یا زیست سنجی شده‌ است. علم بیومتریک پیشینه‌ی طولانی در احراز هویت افراد دارد. در دورانی که هنوز رایانه‌ اختراع نشده بود و ابزارهای خودکار توسعه‌یافته‌ی امروزی وجود نداشت علم بیومتریک با شیوه‌های سنتی و غیرخودکار بکار می‌رفت. طی سال‌های متمادی از مدارکی مانند شناسنامه و کارت شناسایی به عنوان سندی برای شناسایی افراد استفاده می‌شد. به دنبال گسترده‌شدن دنیای مجازی و ابزارهای الکترونیکی استفاده از رمزها و کدهای دیجیتالی برای انجام امور مختلف جایگاه ویژه‌ای پیدا کرده است. پیشرفت‌های سریع و فراگیر‌شدن ابزارها از سویی و تمایل افراد به دنیای مجازی از سوی دیگر موجب شده است تا امنیت در سیستم‌های مختلف اهمیت بالایی پیدا کند. استفاده از رمزهای عبور در کنار مزیت‌های کاربرد آن، با چالش‌هایی مانند امکان فراموش یا فاش شدن روبرو هستند. از این رو علم بیومتریک دریچه‌ی تازه‌ای به دنیای امن و مطئمن گشوده است که در آن به احراز هویت افراد با شیوه‌های سریع و کم‌خطر می‌پردازد که نه قابل سرقت هستند و نه فراموش می‌شوند. منظور از احراز هویت، تایید صحت و درستی داده و اطلاعات است که به طور کلی با روش‌های مختلفی صورت می‌گیرد که عبارتند از:
1- احراز هویت مبنی بر مدارک، اسناد و یا ابزاری که فرد به همراه دارد (مبتنی بر توکن).
2- احراز هویت مبنی بر اطلاعاتی که افراد از آن آگاه هستند (مبتنی بر دانش خصوصی).
3- احراز هویت فرد، مبنی بر آنچه هست (مبتنی بر بیومتریک).
عوامل بیومتریک در دو دسته‌ی کلی عوامل رفتاری و عوامل فیزیکی دسته‌بندی می‌شود. دسته‌ی اول شامل ویژگی‌هایی مانند الگوی ضربات صفحه‌کلید، الگوی صدا، نحوه‌ی راه رفتن و … بوده و در دسته‌ی دوم ویژگی‌هایی مانند اسکن صورت، اسکن عنبیه، الگوی ضربان قلب و … بررسی می‌شوند. نتایج حاکی از آن است که عوامل فیزیکی کارایی بهتری نسبت به عوامل رفتاری از خود نشان داده‌اند. عامل بیومتریک باید به گونه‌ای باشد که تحت شرایط زیست‌محیطی و با گذر عمر تغییر نکند. از طرفی باید قابل استفاده برای عموم افراد باشد. یکی از پارامترهای مهم در سیستم‌های تشخیص هویت میزان کارایی عامل بیومتریک از نظر سرعت، هزینه و دقت است. هر چه با سرعت و دقت بالاتر و هزینه‌ی کم‌تری بتوان فرآیند شناسایی را انجام داد می‌توان گفت عامل بیومتریک مناسب و مؤثرتر از عوامل دیگر است. در واقع یک سیستم بیومتریک با اندازه‌گیری عوامل بیومتریکی به تشخیص الگوها می‌پردازد. فرآیند تشخیص هویت مراحل کلی اکتساب تصویر، استخراج ویژگی و تطبیق و تصمیم‌گیری را شامل می‌شود. مهم‌ترین بخش در این فرآیند استخراج ویژگی‌های مؤثر و مناسب است که توسط عملیات پردازش تصویر و روابط ریاضی انجام می‌شود. با استفاده از ویژگی‌های استخراج شده از الگوها، بردار ویژگی‌ها تولید می‌شود که برای تطبیق و تصمیم‌گیری در پایگاه داده‌ای ذخیره می‌شوند. البته روش‌های متعددی برای استخراج ویژگی بیان شده است که یکی از آنها با تکیه بر محاسبه‌ی بعد فراکتال تصاویر به این عمل می‌پردازد. از آنجائیکه در این پژوهش با راهبردی مبتنی بر فراکتال اقدام به استخراج ویژگی شده است در ادامه شرح مختصری از فراکتال و بعد آن بیان می‌شود.


1-2- مقدمه‌ای بر فراکتال و بعد آن

پدیده‌های طبیعی پیرامون ما مانند شکل ابرها، شبکه‌ی رودخانه‌ها، پشته‌های شن و … همگی دارای ساختاری تکراری و پرهرج‌ و مرج هستند. مطالعه‌ی این ساختارها و کشف الگوهای تکرارشونده و روابط ریاضی آنها موجب پدیدآمدن هندسه‌ی فراکتالی شده است. فراکتال یا برخال اولین بار توسط دانشمند انگلیسی به نام مندلبروت کشف و معرفی شد. اساساً فراکتال متشکل از زیرمجموعه‌هایی است که در جزء شبیه کل هستند. این ویژگی را خودمتشابهی می‌نامند که درجه‌ی خودمتشابهی در اشکال مختلف، متفاوت است. به دلیل داشتن این ویژگی، شیء فراکتال از دور و نزدیک یکسان به نظر می‌رسد. به عنوان مثال اگر یک قطعه‌ از برگ سرخس بریده و با مقیاسی بزرگنمایی شود نهایتاً نشان‌دهنده‌ی تمام ویژگی‌ها و جزئیات شکل اولیه‌‌ خود خواهد بود. دلیل این امر گسترش جزئیات شیء در همه‌ی ابعاد و جهات است که از آن به خودمتشابهی عینی یا کامل یاد می‌شود. احجامی مانند مکعب‌ها و استوانه‌ها در هندسه‌ی اقلیدسی می‌گنجند. این اشکال از قوانین خاص و روابط ریاضی پیروی می‌کنند که توسط آنها نمی‌توان به بررسی و توصیف اشکال فراکتالی پرداخت. به عبارتی دیگر هندسه‌ی اقلیدسی در بیان ویژگی‌ها و بررسی خواص فراکتال‌ها ناتوان است. از اینرو هندسه‌ی فراکتالی پدید آمد تا بتواند این کمبود را جبران کند. تمامی احجام در هندسه‌ی اقلیدسی بعدی صحیح دارند، مثلاً خط دارای بعد یک، صفحه دارای بعد دو و مکعب دارای بعد سه می‌باشد. این در حالیست که نمی‌توان برای شیء فراکتالی بعدی صحیح تعیین کرد بلکه آنها بعدی غیرصحیح و اعشاری دارند. به عنوان نمونه مثلث سرپینسکی دارای بعدی برابر با 58/1 می‌باشد که از نظر هندسی یعنی میان خط و صفحه قرار دارد (میزان پیچیدگی‌های آن بین خط و صفحه است). منظور از بعد، بیان میزان پیچیدگی‌های و ناهمواری‌ها در یک شیء است. حتی می‌توان با محاسبه‌ی بعد فراکتال مجموعه‌ای از داده‌ها، رفتار آنها را در آینده پیش‌بینی کرد. مانند کاربرد فراکتال‌ها در بررسی سری‌های زمانی و پیش‌بینی بازار بورس. به طور کلی در هندسه‌ی فراکتالی، هر شیئی که دارای ویژگی‌های خودمتشابهی، بعد اعشاری و پیچیدگی در مقیاس خرد باشد فراکتال شناخته می‌شود. روش‌های متعددی برای محاسبه‌ی بعد فراکتال بیان شده است که از معروف‌ترین و پرکاربردترین آنها می‌توان بعد جعبه‌شماری افتراقی را نام برد. روش‌های بعد جعبه‌شماری افتراقی نسبی، بعد جعبه‌شماری با اعمال شیفت و … به عنوان روش‌های اصلاحی بیان‌ شده‌اند. پژوهش حاضر با استفاده از این روش‌ها به محاسبه‌ی بعد تصاویر، جهت تشخیص هویت می‌پردازد.

پایان نامه

مقطع کارشناسی ارشد رشته: فناوری اطلاعات – گرایش مهندسی فناوری اطلاعات

عنوان/موضوع:ارائه چارچوبی راهبردی برای سیستم­های توزیع شده اجرایی تولید با استفاده از مدل محاسبات ابری

تعداد صفحات : 160

چکیده:

فرآیند تولید در سازمان­های مختلف، دارای سبک­های متفاوتی است که هدف هرکدام در نهایت تحویل محصول درست در زمان درست به مشتری است. ضمن اینکه با استقرار سیستم­های اجرایی تولید مزایای افزونتری در اختیار مدیران میانی نیز قرار می­دهد. در این تحقیق هدف از خلق چارچوب طرح ماژول­ها، روابط آن­ها و ملزومات پیاده­سازی هرکدام بوده است. چیزی که تا کنون در محیط ابرصورت نگرفته است. در مهمترین بخش که همان شناسایی ماژول­های این سیستم است، ماژول سفارش که در سیستم­های اجرایی اولید سنتی قابل مشاهده بود، مبنای کار قرار گرفته و با رویکرد تحلیلی و با استفاده از متدولوژی SOMA، سایر ماژول­ها از مله مدیریت منابع، زمانبندی، پس­گیری، مدیریت تعاریف و … از آن استخراج شده است. به عبارتی هدف هرچه کوچکتر کردن این ماژول بزرگ در سیستم اجرایی تولید سنتی است. با توجه به محدودیت­های طرح عملی این چارچوب در محیط ابر، یک مطالعه موردی تحت عنوان شرکت جمساز نتیجه نهایی این تحقیق است، مطالعه­ای که در آن فرآیند اصلی تولید جمساز با راه­حل مطرح شده مورد مقایسه قرار گرفته و باتوجه به نظر خبرگان این حوزه و مصاحبه با مدیران تولید و پرسنل مرتبط نتایج نهایی حاصل شد. در مقایسه با سیستم­های مشابه و سنتی و با در نظر گرفتن سبکتر کردن ماژول سفارش، انعطاف ­پذیری هرچه بیشتر و جامعیت و یکپارچگی بیشتر حاصل شد و مدل جدید کسب و کار ابری نیزدیدگاه ­های جدیدی را برای این سازمان­ها فراهم آورده است.

 

عنوان پایان نامه:

اندازه گیری بلوغ حاکمیت معماری سرویس گرایی سازمان با استفاده از چارچوب COBIT

تعداد صفحات :154

چکیده:

امروزه معماری سرویس گرا (SOA) به عنوان یک رویکرد مناسب برای بهبود چابکی و افزایش کارایی سیستم ها مورد توجه قرار گرفته است. از آنجا که سازمانها در فرایند استفاده از این فناوری با چالش های زیادی نظیر پیچیدگی طراحی ساختار تصمیم گیری، مدیریت و حاکمیت سرویس هاو نبود فرایندهای حاکمیت مواجه هستند، بنابراین نیازمند یک چارچوب جامع و قابل اجرا برای حاکمیت SOA هستند تا چالش های موجود را برطرف ساخته و ساختار حاکمیت و مکانیزم های کنترلی را تعریف نماید.همچنین برای تعیین یک نقشه راه برای استقرار معماری سرویس گرا نیازمند تعیین سطح بلوغ حاکمیت این معماری است.در این تحقیق  چارچوب های موجود و چالش های معماری سرویس گرا مورد مطالعه قرارمی گیرد. براین اساس ما برای استقرار معماری سرویس گرایی در سازمان از  COBIT ، که یک چارچوب استاندارد حاکمیت فناوری اطلاعات سازمانی است استفاده کرده  و سطح بلوغ حاکمیت   معماری سرویس گرا را مورد بررسی قرار می دهیم.چارچوب پیشنهادی  با تمرکز بر پوشش مولفه های حاکمیت SOA و معیاری برای تعیین سطح بلوغ حاکمیت،راه حلی مناسب برای حاکمیت موثر معماری سرویس گرا و تدوین  نقشه راه فراهم می سازد.

 

 

نوع فایل: word (قابل ویرایش)
تعداد صفحات : 100 صفحه
 چکیده:
امروزه هرزنامه  ها یکی از مشکلات اصلی موتورهای جستجو هستند، به این دلیل که کیفیت نتایج جستجو را نامطلوب می سازند. در طول سالهای  اخیر پیشرفتهای بسیاری در تشخیص صفحات جعلی وجود داشته است اما در پاسخ تکنیک های هرزنامه جدید نیز پدیدار شده اند. لازم است برای پیشی گرفتن به این حملات، تکنیکهای ضد هرزنامه بهبود یابد.
یک مساله عادی که ما با آن در این زمینه مواجه می شویم این است که خیلی از اسناد رتبه بالایی را توسط موتور جستجو بدست آورده اند در حالی که سزاوار آن نبوده اند. با توجه به گسترش روزافزون وب و همچنین ظهور تکنیک های جدید هرزنامه توسط هرزنامه نویسان، هدف از این پایان نامه بررسی روش های مبتنی بر داده کاوی جهت شناسایی هرچه بهتر صفحات هرزنامه از غیرهرزنامه است.
الگوریتم ها و نرم افزارهای داده کاوی از جمله ابزارهای مورد استفاده در این پژوهش هستند. از مجموعه داده استاندارد UK2007 و نرم افزار وکا جهت ارائه مدلهایی بهینه استفاده شده است و سعی  بر ارائه مدلهایی است که ضمن کاهش ویژگی های مورد استفاده جهت شناسایی صفحات هرزنامه از غیرهرزنامه کارایی مطلوبی را نیز ارائه دهد.
کلید واژه:هرزنامه-تکنیک های داده کاوی

تعداد صفحات : 20

اطلاعات کاربری
آمار سایت
  • کل مطالب : 4247
  • کل نظرات : 0
  • افراد آنلاین : 5
  • تعداد اعضا : 2926
  • آی پی امروز : 112
  • آی پی دیروز : 187
  • بازدید امروز : 717
  • باردید دیروز : 2,391
  • گوگل امروز : 16
  • گوگل دیروز : 32
  • بازدید هفته : 6,971
  • بازدید ماه : 3,108
  • بازدید سال : 117,021
  • بازدید کلی : 8,295,715
  • کدهای اختصاصی