Oʼzbekiston respublikаsi аxborot texnologiyalаri vа kommunikаtsiyalаrini rivojlаntirish vаzirligi muhаmmаd аl-xorаzmiy nomidаgi toshkent аxborot texnologiyalаri


Download 0.92 Mb.
bet4/9
Sana18.12.2022
Hajmi0.92 Mb.
#1029243
1   2   3   4   5   6   7   8   9
Bog'liq
5-Abdusattorov Mirzohid

w= Fbittad. (7.3)
Shunday qilib yo'l uchun o'rganish RBF tarmoqlari emas talab qilinadi iterativ jarayon!
Afsuski, bu natija faqat nazariy qiziqish uyg'otadi. Uning amaliy ahamiyati yo'q. Gap shundaki, ko'p sonli o'quv misollari bilan J = Q talabi ichki qatlamdagi neyronlar sonining haddan tashqari ko'payishi tufayli murakkab hisob-kitoblar zarurligiga olib keladi. Bundan tashqari, neyron tarmog'i tomonidan yaratilgan, mavzu sohasi nuqtalarini yaqinlashtirgan holda, o'quv misollarini ifodalovchi nuqtalardan aniq o'tadi. Yuqorida ta'kidlab o'tilganidek (6.1-bandga qarang), bu haddan tashqari moslashish yoki giperdimensiya deb ataladigan holat tarmoqning umumlashtiruvchi xususiyatlarini zaiflashtiradi. Shuning uchun, amalda qo'llaniladigan RBF tarmoqlarida yashirin qatlamdagi neyronlar soni o'quv misollari sonidan ancha kam tanlanadi, ya'ni J << Q. Bunday holda, p matritsa kvadrat emas, chunki undagi Q satrlar soni J ustunlar sonidan ancha ko'p, ya'ni (7.2) sistemada tenglamalar soni noma'lumlar sonidan ko'p. Shuning uchun wj og'irlik koeffitsientlarini (7.2) tenglamalar tizimidan emas, balki boshqacha tarzda, masalan, tarmoqning minimal kvadratik xatosi shartidan aniqlash kerak.
Q
e =X. (7.4)
q=1
Ko'p qatlamli perseptrondan farqli o'laroq, RBF tarmoqlarining xato funksiyasi (7.4) mahalliy minimallarga ega emas. Bu shuni anglatadiki, RBF tarmoqlarini o'rgatishda mahalliy minimallarni chetlab o'tish muammosi mavjud emas. Xato funktsiyasini (7.4) minimallashtirish muammosi chiziqli va shuning uchun bu erda ko'p qatlamli perseptronni o'rgatishdan ko'ra tezroq kattalik tartibini birlashtiradigan taniqli chiziqli optimallashtirish usullari qo'llaniladi. Bundan tashqari, w og'irliklarini aniqlash muammosi PH to'rtburchaklar matritsasining psevdo-inversiyasi bilan hal qilinishi mumkin:
w= p+d, (7.5) qaerda .
Gauss funktsiyasi ko'pincha RBF tarmoqlarida faollashtirish funktsiyasi sifatida ishlatiladi.

ph(kX . (7.6)
Bu funksiyaning shakli ikki parametr bilan aniqlanadi: uning markazini bildiruvchi Cj vektor va markaz Cj va joriy koordinata X o'rtasidagi Evklid masofasi ortishi bilan uning kamayish tezligini bildiruvchi skalyar s2j. Shaklda ko'rsatilganidek. 7.10, s2j parametri y o'qidan Gauss egri chizig'ining burilish nuqtasigacha bo'lgan masofani o'rnatadi. Bu parametr ba'zan Gauss funksiyasining oyna kengligi deb ataladi.

misollar (J = Q), faollashtirish funktsiyalari markazlarini o'quv namunasi vektorlarining koordinatalari bo'yicha o'rnatish mantiqan to'g'ri keladi, ya'ni Cj = Xq. Guruch. 7.10.Gauss funktsiyasi: s2j - funktsiyaning y o'qidan burilish nuqtasigacha bo'lgan masofa.

Yashirin qatlamdagi neyronlar soni oby soniga teng bo'lganda (j = q = 1, . Masalan, s2j ni Cj markazidan eng yaqin qo'shnisigacha bo'lgan Evklid masofasi sifatida berish mumkin.
, (7.7)
bu erda k - son eng yaqin qo'shni.
Ba'zan s2j eng yaqin qo'shni Pgacha bo'lgan o'rtacha masofa sifatida beriladi:
P
CjCpk, (7.8)
p=1
Bu erda P tavsiya etiladi o'rnatish ichida interval [3, 5].
Keyin bu aniqlanadi vazn bo'yicha imkoniyatlarw.
Haqiqiy vaziyatda J≪ Q, shuning uchun klasterlash oldindan amalga oshiriladi - ular bir-biriga yaqin Xq vektorlarini klasterlarga birlashtiradi. Keyin klasterlarning markazlari aniqlanadi, ularda faollashtirish funktsiyalari markazlari joylashtiriladi. Vektorlarni ma'lum miqdordagi klasterlarga klasterlash usullaridan biri § 7.5 da ko'rib chiqiladi.
Faollashtirish funksiyalarining markazlarini aniqlagandan so'ng, masalan, (7.7) formuladan foydalanib, ularning oynalarining kengligi s2j topiladi. Oxirgi bosqich funktsional (7.4) yoki formula (7.5) bo'yicha hisoblash yo'li bilan sinaptik og'irliklarni w aniqlashdan iborat.
Xulosa qilib shuni ta'kidlaymizki, yaqinda RBF tarmoqlari an'anaviy ravishda sigmasimon funktsiyalari bo'lgan neyron tarmoqlar tomonidan hal qilingan muammolarni hal qilish uchun muvaffaqiyatli qo'llanila boshlandi. Asosan, bular tanib olish va tasniflash masalalari, funksiyalarni yaqinlashtirish masalalari va prognozlash masalalari. RBF tarmoqlariga qiziqish ularning quyidagi afzalliklari bilan izohlanadi:

  1. RBF tarmoqlari faqat bitta yashirin qatlamga ega, bu tarmoq dizaynerini qatlamlar sonini aniqlashdan qutqaradi;

  2. RBF tarmog'ini o'qitish chiziqli optimallashtirish muammosini hal qilish uchun qisqartiriladi, shuning uchun mahalliy minimumga tushib qolish xavfi yo'q va o'quv jarayonining o'zi ko'p qatlamli perseptronni o'rganish jarayoniga qaraganda kamroq vaqtni oladi.

Biroq, RBF tarmoqlarini loyihalashda yashirin qatlamdagi neyronlarning optimal soni to'g'risida qaror qabul qilish, kirish o'rgatish vektorlarini klasterlashni amalga oshirish va faollashtirish funksiyasi oynalarining kengligini aniqlash kerak.
Ko'pgina tadqiqotchilar RBF tarmoqlarining ixtirosi neyroinformatika sohasidagi eng katta yutuqlardan biri ekanligiga ishonishadi va bu ixtironi orqaga tarqalish algoritmining kashfiyoti yoki genetik algoritmlarning ixtirosi bilan bir qatorga qo'yishadi.



Download 0.92 Mb.

Do'stlaringiz bilan baham:
1   2   3   4   5   6   7   8   9




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling