يك شبكه عصبي جديد و كاربرد آن
چكيده
1- معرفي
مدلسازي ژنراتور سنكرون دريايي در زمينه شبيه سازي و كنترل real time بسيار مفيد مي باشد. مدل هاي مرسوم براي اين ژنراتور اغلب با حل معادلات ديفرانسيل مرتبه بالايي سروكار دارند كه حل آن ها با محاسبات DSP به صورت real time ، ميسر نمي باشد. به همين دليل در اينجا ، مدلسازي و شناسايي اين سيستم توسط ANN مورد توجه قرار گرفته است.
2- نورون با خاصيت آشوبگونه
شكل1. شكل نورون آشوب گونه
رابطه (1) الگوريتم محاسبات مربوط به اين نورون را نشان مي دهد.
تابع لجستيك براي ايجاد خاصيت آشوبي در شبكه ، قرار داده شده است. شكل 2-a دياگرام اين تابع را نشان مي دهد. دو شاخه شدن تابع هنگامي رخ مي دهد كه پارامتر شيب آن با 0.04 برابر شود (شكل 2-b). نماي Lyapunov هم در شكل 2-c نشان داده شده است. وقتي كه نماي Lyapunov بزرگتر از صفر شود ، شبكه به صورت آشوبگونه رفتار مي كند. شكل 2-d و 2-e هم به ترتيب دوشاخه شدن تابع را هنگامي كه پارامتر شيب برابر با 0.01 و 0.06 شود ، ا نشان مي دهند. پريود دوبل دوشاخه شدن هم به وضوح در شكل 2-f ديده مي شود.
3- شكل شبكه
تعدادي نورون خطي در لايه خروجي و تعدادي نورون آشوبگونه با تابع لجستيك در لايه برگشتي وجود دارند. به خاطر وجود خاصيت آشوبي در نورون ها ، توانايي تقريب شبكه افزايش مي يابد.
تركيب ارائه شده از اين نظر خاص مي باشد كه قادر است هر تابعي را با دقت دلخواه تقريب زند.
(a)خروجي تابع ( = 0.04ε) (b) دياگرام دو شاخه شدن ( = 0.04ε) (c) دياگرام نماي Lyapunov
(d) دياگرام دوشاخه شدن ( = 0.01ε) (e) دياگرام دوشاخه شدن ( = 0.06ε) (f) پريود دوبل دوشاخه شدن
شكل 2. نمودار مشخصه آشوبي نورون
البته بايد تعداد نورون هاي شبكه كافي باشد. فرق اين شبكه با يك شبكه سه لايه معمولي در اتصال برگشتي لايه دوم است. تاخير در اين اتصال مقاديري از پله زماني گذشته را ذخيره كرده كه مي توانند در زمان فعلي مورد استفاده قرار بگيرند. بنابراين حتي اگر دو شبكه با وزن ها و باياس هاي يكسان تحت يك ورودي قرار بگيرند ، به علت وجد فيدبك هاي حالت مختلف ممكن است خروجي هاي متفاوتي توليدكنند. خروجي هر لايه توسط معادلات زير محاسبه مي گردد :
شكل 3. شكل CNN
4- قانون آموزش شبكه
1- ابتدا تابع هدف را تعريف مي كنيم :
كه در آن Pd(τ) و a2(τ) به ترتيب خروجي داده هاي نمونه و خروجي شبكه مي باشند.
2- معادلات تنظيم به صورت زير تعريف مي شوند :
IW1.1 وزن بين لايه ورودي و لايه پنهان است ،
همانطور كه از معادله (6) پيداست الگوريتم پس انتشار خطا يك الگوريتم ديناميك مرحله اي و تكرار شونده است. اين الگوريتم را براي سه لايه مي توان به فرم زير خلاصه نمود :
براي افزايش سرعت و كاهش نوسان از الگوريتم gradient descent با ممنتم و نرخ آموزش تطبيقي جهت training استفاده شده است.مقدار وزن و باياس توسط معادله (11) محاسبه مي گردد.
كه در آن wmk-1Δ و bmkΔ به ترتيب مقدار هاي وزن و باياس m امين لايه و k امين تكرار هستند. γ ضريب ممنتوم ، α نرخ آموزش و Sm بردار درجه حساسيت است.
اساس تغييرات نرخ آموزش به اين ترتيب است كه اگر MSE از يك درصد خاصي (براي مثال 1 يا 5درصد) بيشتر شد ، update وزن متوقف شده ، ضريب ممنتوم مساوي صفر قرار داده شده و نرخ آموزش در يك فاكتور كوچكتر از يك ضرب مي شود. اگر MSE افزايش پيدا كند ولي از درصر مورد نظر بيشتر نشود ريال نرخ آموزش و ضريب ممنتوم بدون تغيير باقي مي مانند. اما اگر MSE كاهش پيدا كند ، آن وقت نرخ آموزش در يك فاكتور بزرگتر از يك ضرب شده و اگر ضريب ممنتوم از قبل صفر شده بود به مقدار اوليه اش ريست مي گردد.
5- مدلسازي ژنراتور سنكرون دريايي
از شبكه سه لايه مذكور در مدسازي ژنراتور سنكرون استفاده مي شود. آموزش به صورت باسرپرست و training به صورت off line صورت مي پذيرد. شبكه جهت بهتر نشان دادن مد ديناميك با خط تاخير TDL تركيب شده است. از حافظه هاي TDL جهت فيدبك به لايه ورودي استفاده مي شود. توان گشتاور خروجي موتور ديزل دريايي به عنوان پارامترهاي ورودي شبكه و ولتاژ ترمينال ژنراتور و خروجي فركانس به عنوان خروجي شبكه انتخاب مي شوند. اين سيستم در شكل (4) نشان داده شده است.
پاسخ مشخصه بين توان گشتاور ورودي و فركانس خروجي و همچنين بين جريان تحريك ورودي و و ولتاژ ترمينال خروجي ژنراتور اندازه گيري شده است.شكل (5) داده هاي نمونه توان گشتاور ورودي و منحني هاي فركانس خروجي را نشان مي دهد.
در شبيه سازي انجام شده = 0.9γ ، = 0.01α ، افزايش نرخ آموزش 1.05 و كاهش آن 0.7 در نظر گرفته شده است. فرآيند آموزش به صورت زير مي باشد :
1-به همه وزن ها و باياس ها مقدار اوليه مي دهيم.
2-داده هاي نمونه ورودي و خروجي را براي training به شبكه نشان مي دهيم.
3-خروجي شبكه بر طبق ورودي ، وزن ها و باياس ها محاسبه مي گردد. وقتي MSE بين داده هاي نمونه و خروجي شبكه از يك حدي كمتر شد training متوقف مي شود ، در غير اين صورت به مرحله (4) مي رويم.
1-وزن ها برطبق اختلاف بين مقدار مطلوب و خروجي شبكه ، تنظيم مي شوند.
2-برو به مرحله (2).
شكل 4. سيستم شناسايي ژنراتور سنكرون دريايي به وسيله شبكه عصبي
براي تنظيم وزن هاي شبكه از الگوريتم gradient descent با ممنتم و BP با نرخ آموزش تطبيقي استفاده شده است. شكل (7) تغييرات MSE را نشان مي دهد.
شكل 5. توان گشتاور ورودي و فركانس خروجي ژنراتور
5-2 نتايج مدلسازي
فركانس خروجي مدل با فركانس خروجي ژنراتور در شكل (8) با هم مقايسه شده اند. خطوط منفصل مربوط به خروجي ژنراتور و خطوط پيوسته مربوط به خروجي شبكه هستند. ژنراتور در سه حالت بدون بار ، با بار متوسط و بزرگ راه اندازي شده و نتيجه آن با خروجي مدل مقايه مي گردد. در شكل (9) هم خروجي مدل و ژنراتور ازلحاظ ولتاژ پايانه با هم مقايسه شده اند.
شكل 6. جريان تحريك ورودي و ولتاژ خروجي پايانه
شكل 7. منحني MSE هنگام trainin شبكه
شكل8. فركانس خروجي ژنراتور، شبكه و خطاي بين آن ها
6- نتيجه
1-داده هاي نمونه بايد به درستي انتخابي شوند به نحوي كه حالت هاي مختلف راه اندازي ژنراتور را مجسم نمايند.
2-داده هاي نمونه بايد نرماليزه شده و اگر نويز با آن ها جمع شده توسشط فيلتر حذف گردد.
3-درجه مدل بايد طبق مطالعات قبلي و يا بررسي داده هاي نمونه ،تعيين گردد.
4-اگر سيستم متغير با زمان است بايد از الگوريتم on line تكرار شونده جهت تنظيم وزن ها استفاده نمود.
شكل 9. ولتاژخروجي ژنراتور، شبكه و خطاي بين آن ها
مرجع
1-W.F. SHI & S.L. XUE ," A NOVEL CHAOTIC NEURAL NETWORKS AND 2-APPLICATION " , Department of electric automation, Shanghai Maritime 3University, Shanghai, 200135, China , 2005
4-www.articles.ir
/خ