يك شبكه عصبي جديد و كاربرد آن





چكيده

به منظور بهبود توانايي مدلسازي و شناسايي سيستم هاي غيرخطي با شبكه هاي عصبي، خواص نورون ها ، قوانين آموزش و شكل شبكه ها ، مورد بررسي قرار گرفته است. براي ايجاد شبكه هاي عصبي آشوبگونه، يك نورون آشوبي معرفي شده است. توانايي عمل بر روي اطلاعات در شبكه هاي برگشتي به دليل حضور حلقه هاي فيدبك، بيشتر از شبكه هاي معمولي است. در آموزش شبكه براي مدلسازي ، از الگوريتم پس انتشار خطا استفاده شده است. در مقايسه با شبكه هاي عصبي ديگر تعداد نورون لايه پنهان شبكه هاي آشوبگونه كمتر و توانايي تعميم دهي آن ها بيشتر است. از شبكه آشوبگونه برگشتي ارائه شده در مدلسازي ژنراتور سنكرون دريايي ، استفاده شده است.

1- معرفي

در اين مقالهANN, اي با توانايي مطلوب جهت بررسي سيستم هاي غيرخطي ارائه شده است. در مدلسازي سيستم ها ، توانايي تقريب به وسيله نورون ها ، شكل شبكه و قانون آموزش ، محدود مي گردد. چگونگي بهبود خاصيت ارگاديك ANN يك مسئله مهم جهت تحقيق و يررسي مي باشد. سيستم هاي آشوبگونه داراي مشخصاتي تصادفي هستند و الگوريتم آشوبي باعث ايجاد خاصيت قوي ارگاديك در شبكه مي گردد.
مدلسازي ژنراتور سنكرون دريايي در زمينه شبيه سازي و كنترل real time بسيار مفيد مي باشد. مدل هاي مرسوم براي اين ژنراتور اغلب با حل معادلات ديفرانسيل مرتبه بالايي سروكار دارند كه حل آن ها با محاسبات DSP به صورت real time ، ميسر نمي باشد. به همين دليل در اينجا ، مدلسازي و شناسايي اين سيستم توسط ANN مورد توجه قرار گرفته است.

2- نورون با خاصيت آشوبگونه

شكل نورون در شكل (1) نشان داده شده است. f(.) تابع فعالسازي نورون است كه يك نگاشت لجستيك با پارامتر شيب 0.04 مي باشد.

شكل1. شكل نورون آشوب گونه
رابطه (1) الگوريتم محاسبات مربوط به اين نورون را نشان مي دهد.

تابع لجستيك براي ايجاد خاصيت آشوبي در شبكه ، قرار داده شده است. شكل 2-a دياگرام اين تابع را نشان مي دهد. دو شاخه شدن تابع هنگامي رخ مي دهد كه پارامتر شيب آن با 0.04 برابر شود (شكل 2-b). نماي Lyapunov هم در شكل 2-c نشان داده شده است. وقتي كه نماي Lyapunov بزرگتر از صفر شود ، شبكه به صورت آشوبگونه رفتار مي كند. شكل 2-d و 2-e هم به ترتيب دوشاخه شدن تابع را هنگامي كه پارامتر شيب برابر با 0.01 و 0.06 شود ، ا نشان مي دهند. پريود دوبل دوشاخه شدن هم به وضوح در شكل 2-f ديده مي شود.

3- شكل شبكه

به دليل وجود توانايي بيشتر عمل بر روي اطلاعات توسط شبكه هاي برگشتي ، از يك شبكه برگشتي به فرم آشوبگونه استفاده شده است. اين شبكه معمولا سه لا با يك لايه پنهان است. فيدبك از نورون هاي لايه پنهان خروجي به نورون هاي لايه پنهان ورودي صورت مي گيرد. اتصالات برگشتي ، امكان آشكارسازي و توليد الگوهاي متغير با زمان را براي شبكه فراهم مي سازند. ساختار اين شبكه در شكل (3) نشان داده شده است.
تعدادي نورون خطي در لايه خروجي و تعدادي نورون آشوبگونه با تابع لجستيك در لايه برگشتي وجود دارند. به خاطر وجود خاصيت آشوبي در نورون ها ، توانايي تقريب شبكه افزايش مي يابد.
تركيب ارائه شده از اين نظر خاص مي باشد كه قادر است هر تابعي را با دقت دلخواه تقريب زند.

(a)خروجي تابع ( = 0.04ε) (b) دياگرام دو شاخه شدن ( = 0.04ε) (c) دياگرام نماي Lyapunov
(d) دياگرام دوشاخه شدن ( = 0.01ε) (e) دياگرام دوشاخه شدن ( = 0.06ε) (f) پريود دوبل دوشاخه شدن
شكل 2. نمودار مشخصه آشوبي نورون
البته بايد تعداد نورون هاي شبكه كافي باشد. فرق اين شبكه با يك شبكه سه لايه معمولي در اتصال برگشتي لايه دوم است. تاخير در اين اتصال مقاديري از پله زماني گذشته را ذخيره كرده كه مي توانند در زمان فعلي مورد استفاده قرار بگيرند. بنابراين حتي اگر دو شبكه با وزن ها و باياس هاي يكسان تحت يك ورودي قرار بگيرند ، به علت وجد فيدبك هاي حالت مختلف ممكن است خروجي هاي متفاوتي توليدكنند. خروجي هر لايه توسط معادلات زير محاسبه مي گردد :

شكل 3. شكل CNN

4- قانون آموزش شبكه

از الگوريتم پس انتشار خطا جهت آموزش استفاده مي شود. اگر ورودي p و خروجي y باشد ، الگوريتم BP به صورت زير قابل بيان است.
1- ابتدا تابع هدف را تعريف مي كنيم :

كه در آن Pd(τ) و a2(τ) به ترتيب خروجي داده هاي نمونه و خروجي شبكه مي باشند.
2- معادلات تنظيم به صورت زير تعريف مي شوند :



IW1.1 وزن بين لايه ورودي و لايه پنهان است ،

همانطور كه از معادله (6) پيداست الگوريتم پس انتشار خطا يك الگوريتم ديناميك مرحله اي و تكرار شونده است. اين الگوريتم را براي سه لايه مي توان به فرم زير خلاصه نمود :

براي افزايش سرعت و كاهش نوسان از الگوريتم gradient descent با ممنتم و نرخ آموزش تطبيقي جهت training استفاده شده است.مقدار وزن و باياس توسط معادله (11) محاسبه مي گردد.

كه در آن wmk-1Δ و bmkΔ به ترتيب مقدار هاي وزن و باياس m امين لايه و k امين تكرار هستند. γ ضريب ممنتوم ، α نرخ آموزش و Sm بردار درجه حساسيت است.
اساس تغييرات نرخ آموزش به اين ترتيب است كه اگر MSE از يك درصد خاصي (براي مثال 1 يا 5درصد) بيشتر شد ، update وزن متوقف شده ، ضريب ممنتوم مساوي صفر قرار داده شده و نرخ آموزش در يك فاكتور كوچكتر از يك ضرب مي شود. اگر MSE افزايش پيدا كند ولي از درصر مورد نظر بيشتر نشود ريال نرخ آموزش و ضريب ممنتوم بدون تغيير باقي مي مانند. اما اگر MSE كاهش پيدا كند ، آن وقت نرخ آموزش در يك فاكتور بزرگتر از يك ضرب شده و اگر ضريب ممنتوم از قبل صفر شده بود به مقدار اوليه اش ريست مي گردد.

5- مدلسازي ژنراتور سنكرون دريايي

5-1 روش مدلسازي ديناميك
از شبكه سه لايه مذكور در مدسازي ژنراتور سنكرون استفاده مي شود. آموزش به صورت باسرپرست و training به صورت off line صورت مي پذيرد. شبكه جهت بهتر نشان دادن مد ديناميك با خط تاخير TDL تركيب شده است. از حافظه هاي TDL جهت فيدبك به لايه ورودي استفاده مي شود. توان گشتاور خروجي موتور ديزل دريايي به عنوان پارامترهاي ورودي شبكه و ولتاژ ترمينال ژنراتور و خروجي فركانس به عنوان خروجي شبكه انتخاب مي شوند. اين سيستم در شكل (4) نشان داده شده است.
پاسخ مشخصه بين توان گشتاور ورودي و فركانس خروجي و همچنين بين جريان تحريك ورودي و و ولتاژ ترمينال خروجي ژنراتور اندازه گيري شده است.شكل (5) داده هاي نمونه توان گشتاور ورودي و منحني هاي فركانس خروجي را نشان مي دهد.
در شبيه سازي انجام شده = 0.9γ ، = 0.01α ، افزايش نرخ آموزش 1.05 و كاهش آن 0.7 در نظر گرفته شده است. فرآيند آموزش به صورت زير مي باشد :
1-به همه وزن ها و باياس ها مقدار اوليه مي دهيم.
2-داده هاي نمونه ورودي و خروجي را براي training به شبكه نشان مي دهيم.
3-خروجي شبكه بر طبق ورودي ، وزن ها و باياس ها محاسبه مي گردد. وقتي MSE بين داده هاي نمونه و خروجي شبكه از يك حدي كمتر شد training متوقف مي شود ، در غير اين صورت به مرحله (4) مي رويم.
1-وزن ها برطبق اختلاف بين مقدار مطلوب و خروجي شبكه ، تنظيم مي شوند.
2-برو به مرحله (2).

شكل 4. سيستم شناسايي ژنراتور سنكرون دريايي به وسيله شبكه عصبي
براي تنظيم وزن هاي شبكه از الگوريتم gradient descent با ممنتم و BP با نرخ آموزش تطبيقي استفاده شده است. شكل (7) تغييرات MSE را نشان مي دهد.

شكل 5. توان گشتاور ورودي و فركانس خروجي ژنراتور

5-2 نتايج مدلسازي
فركانس خروجي مدل با فركانس خروجي ژنراتور در شكل (8) با هم مقايسه شده اند. خطوط منفصل مربوط به خروجي ژنراتور و خطوط پيوسته مربوط به خروجي شبكه هستند. ژنراتور در سه حالت بدون بار ، با بار متوسط و بزرگ راه اندازي شده و نتيجه آن با خروجي مدل مقايه مي گردد. در شكل (9) هم خروجي مدل و ژنراتور ازلحاظ ولتاژ پايانه با هم مقايسه شده اند.

شكل 6. جريان تحريك ورودي و ولتاژ خروجي پايانه

شكل 7. منحني MSE هنگام trainin شبكه

شكل8. فركانس خروجي ژنراتور، شبكه و خطاي بين آن ها

6- نتيجه

نتايج به دست آمده را مي توان به شكل زير خلاصه كرد :
1-داده هاي نمونه بايد به درستي انتخابي شوند به نحوي كه حالت هاي مختلف راه اندازي ژنراتور را مجسم نمايند.
2-داده هاي نمونه بايد نرماليزه شده و اگر نويز با آن ها جمع شده توسشط فيلتر حذف گردد.
3-درجه مدل بايد طبق مطالعات قبلي و يا بررسي داده هاي نمونه ،تعيين گردد.
4-اگر سيستم متغير با زمان است بايد از الگوريتم on line تكرار شونده جهت تنظيم وزن ها استفاده نمود.

شكل 9. ولتاژخروجي ژنراتور، شبكه و خطاي بين آن ها
1-W.F. SHI & S.L. XUE ," A NOVEL CHAOTIC NEURAL NETWORKS AND 2-APPLICATION " , Department of electric automation, Shanghai Maritime 3University, Shanghai, 200135, China , 2005
4-www.articles.ir