جمع­آوری اطلاعات:
در جمع­آوری اطلاعات مربوط به متغیرهای ورودی توجه نکات زیر بسیار حائز اهمیت است:
هزینه­ جمع­آوری اطلاعات، چه از نظر زمانی و چه از نظر قیمتی، نباید غالب بر منافع آن باشد.
اطلاعات باید در دسترس باشند.
اطلاع می­بایست از منابع معتبر جمع­­آوری گردند.
روش محاسبه­ی داده ­های بنیادی، باید در طول زمان ثابت باشد.
داده ­های بنیادی بعد از انتشار اولیه، اصلاح نگردیده باشند.
پیش­پردازش اطلاعات:
به منظور حداقل نمودن سطح شوک، پر­رنگ کردن ارتباط­های مهم، شناسایی روند­ها و هموار­سازی توزیع متغیر­ها، معمولاً با دو روش تفاضل و لگاریتم طبیعی داده ­ها را پیش­پردازش می­نماییم.
آموزش، تست و اعتبار­سنجی:
مجموعه­ آموزش، بزرگترین بخشی است که شبکه­ عصبی به منظور یادگیری الگوی داده ­ها از آن بهره می­گیرد.
مجموعه­ تست، محدوده­ای از ۱۰% تا ۳۰% از مجموعه­ آموزش است که به منظور بررسی قابلت تعمیم شبکه­ مورد استفاده قرار می­گیرد. برای انتخاب مجموعه­ تست معمولاً از دو روش انتخاب تصادفی و مشاهدات نزدیک­تر (مشاهداتی که به دنبال مجموعه­ آموزش می­آیند) استفاده می­ شود. مزیت مدل تصادفی در کاهش خطر استفاده از بازار یکسان و مزیت روش دوم، در لحاظ کردن مشاهدات نزدیک­تر است.
(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت nefo.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))

مجموعه­ اعتبارسنجی، مجموعه ­ای از جدید­ترین مشاهدات است که منظور بررسی نهایی مدل از آن استفاده می­ شود. لازم به ذکر است که مجموعه­ اعتبار­سنجی باید طوری انتخاب شود که برای انتخاب مجموعه­ آموزش و تست، داده­ به اندازه­ نیاز، وجود داشته باشد.
پویایی عصبی[۱۲۱] و معماری شبکه:
به منظور تشریح راهی که شبکه­ عصبی در آن آماده­­سازی می­گردد، از دو مفهوم پویایی­عصبی و معماری شبکه استفاده می­ شود. پویایی­عصبی، خصوصیات فردی نرون­ها از قبیل تابع فعال سازی و معماری شبکه­ عصبی، ویژگی­هایی از قبیل تعداد نرون­ها و تعداد لایه­ های پنهان را دربرمی­گیرد.
از منظر تئوریک شبکه­ عصبی با یک و یا دو لایه­ی پنهان و تعداد مناسب نرون تخمین هر تابع پیوسته­­ای را دارا می­باشد و یک شبکه­ با بیش از چهار لایه کمتر می­توانند موجب بهبود شبکه­ عصبی گردند. اما برای پیدا کردن تعداد نرون بیهنه، هیچ فرمول جادویی وجود ندارد و با وجود روش­هایی از قبیل رابطه­ (m تعداد نرون لایه­ی خروجی و n تعداد نرون لایه­ی ورودی) که توسط مسترز[۱۲۲] مطرح شد، عمدتاً از آزمون و خطا برای پیدا کردن این نرون­ها استفاده می­ شود
معیار ارزیابی:
میانگین مجذور خطا، متداول­ترین تابعی است که در شبکه­ عصبی سعی در کاهش آن می­ شود. اما از توابعی مانند حداقل قدر مطلق انحرافات، حداقل توان چهارم و حداقل مربعات نا­متقارن نیز، در نرم­افزار­ها استفاده می­گردد.
آموزش شبکه­ عصبی:
آموزش شبکه، فرایندی است که در طی آن بردار وزن­ها و بایاس به منظور پیدا حداقل مطلق[۱۲۳] تابع خطا و افزایش قابلیت تعمیم شبکه­ عصبی تعدیل می­گردند. در طی آموزش شبکه­ عصبی، وجود حداقل­های منطقه­ای[۱۲۴] ممکن است مانع رسیدن شبکه­ به حداقل مطلق گردند، اما استفاده از روش اندازه­ حرکت[۱۲۵] و یا بهره­ گیری از پنج تا ده مجموعه­ تصادفی از وزن­های آغازین، می ­تواند منجر به افزایش احتمال رسیدن به حداقل مطلق گردد. بعد از آموزش شبکه­ عصبی، شبکه­ ای با کمترین میزان خطا در مجموعه­­ی تست مبنای استفاده مرحله­ بعد قرار می­گیرد.
کار­برد مدل:
اگر­چه کاربرد مدل به عنوان یک مرحله مجزا لحاظ گردیده است، اما می­توان اذعان داشت دقت در مراحل قبلی لازمه­ی کاربرد شبکه­ عصبی می­باشد و در حقیقت ثمره­ی مراحل قبل در کاربرد مدل برداشت خواهد شد.

۲-۱۳-۹) الگوریتم یادگیری Levenberg- Marquardt

این الگوریتم یادگیری یکی از سریع ترین الگوریتم­های یادگیری است که مانند روش­های شبه نیوتن، با بهره گرفتن از عدم محاسبه­ی ماتریس Hessian ، سعی در کاهش محاسبات دارد. زمانی­که تابع کارآیی به صوت مجموع مربعات باشد ماتریس Hessian به روش زیر قابل تخمین است:

J بیانگر ماتریس ژاکوبین است که شامل مشتقات اول از خطاهای شبکه نسبت به وزن­ها و بایاس­ها است و e بیانگر بردار خطای شبکه می­باشد.
ماتریس ژاکوبین از طریق تکنیک­های استاندارد BP قابل محاسبه است و پیچیدگی­های محاسباتی آن نسبت به محاسبه ­ی Hessian بسیار کمتر است.
الگوریتم L-M از تقریب زیر برای محاسبه­ی Hessian استفاده می­ کند.

زمانی که مقدار عددی  صفر است، این روش به یک روش نیوتن با تقریب ماتریس Hessian و زمانی که مقدار  یک عدد بزرگ است، این روش به روش گرادیان توأم با گام­های کوچک تبدیل می­ شود و با توجه به دقیق­تر بودن روش نیوتن نسبت به گرادیان توأم، میزان  بعد از هر گام موفق (کاهش تابع کارآیی) کاهش می­یابد و فقط زمانی افزایش می­یابد که گام آزمایشی، تابع کارآیی را افزایش دهد.

۲-۱۳-۱۰) مزایا و معایب شبکه­ عصبی

مزایا:
عناصر پردازشی با توان پردازش موازی
شبکه ­های عصبی توان تخمین رگرسیون حداقل مربعات معمولی، حداقل مربعات غیرخطی، رگرسیون ناپارامتریک و تحلیل سری­های فوریر را دارا می­باشند.[۴۱]
شبکه ­های عصبی تخمین زننده­ی عمومی از توابع و مشتقات آن می­باشد.[۴۱]
شبکه ­های عصبی با توجه به پاسخ­های محیطی می­توانند یاد گیرند که چگونه باید به ورودی­ ها پاسخ دهند.
شبکه ­های عصبی بر محدودیت خطی بودن مدل­های سنتی غلبه می­ کنند.
شبکه ­های عصبی نیازمند پیش فرض­های مدل­های سنتی نمی ­باشد.­[۶۷]
معایب:
در شبکه­ عصبی امکان محاسبه­ی چیزی شبیه ضرایب رگرسیون برای متغیرهای ورودی وجود ندارد.[۴۷]
شبکه­ عصبی، در مدل­های خطی نتایج پیچیده­ای از خود نشان می­دهد.[۶۱]
فرایند یادگیری نیازمند شمار بالای نمونه برای آموزش است، بنابراین زمان تخمین­زده شده برای عملکرد شبکه ­های عصبی معمولاً بالاست.[۴۷]
۲-۱۴) ماشین بردار پشتیبان (SVM) [۱۲۶]
روش ماشین بردار پشتیبان یکی از روش­های یادگیری ماشینی است که بر مبنای تئوری یادگیری آماری وپنیک[۱۲۷] در دهه ۹۰ میلادی توسط وپنیک و همکارانش ارائه گردید. در SVMاز اصول کمینه سازی ریسک ساختاری (SRM)[128] استفاده شده است، در حالی که سایر روش­ها از اصول کمینه کردن ریسک تجربی (ERM)[129] بهره می برند.[۵۱]
از ماشین بردار پشتیبان به طور کلی در مسائل طبقه بندی دو یا چند کلاسه و رگرسیون استفاده می­ شود. مانند بسیاری از روش­های یادگیری ماشینی، درماشین بردار پشتیبان نیز فرایند ساخت مدل شامل دو مرحله آموزش وآزمایش می باشد. در انتهای فاز آموزش ،قابلیت تعمیم یابی مدل آموزش داده شده با بهره گرفتن از داده های آزمایش ارزیابی می شود .
در روش­هایی مانند شبکه ­های عصبی مصنوعی برای رسیدن به بهترین جواب از اصول کمینه­سازی ریسک تجربی استفاده می­ شود، با کمینه کردن ریسک تجربی کارایی مناسب مدل بر روی داده ­های آموزش تضمین می­ شود، اما تضمینی برای قابلیت تعمیم یابی مناسب وجود ندارد، به همین دلیل در این روش طراحی مناسب شبکه برای بهبود عملکرد تعمیم یابی مدل ضروری است. هدف از کمینه سازی ریسک ساختاری ، بهینه کردن قابلیت تعمیم یابی همزمان با کمینه کردن ریسک تجربی است.

موضوعات: بدون موضوع  لینک ثابت


فرم در حال بارگذاری ...