Oʼzbekiston respublikаsi аxborot texnologiyalаri vа kommunikаtsiyalаrini rivojlаntirish vаzirligi muhаmmаd аl-xorаzmiy nomidаgi toshkent аxborot texnologiyalаri


Vi(t + 1) = W i (t) + ēi(t) G(i, w) (X−V


Download 0.92 Mb.
bet8/9
Sana18.12.2022
Hajmi0.92 Mb.
#1029243
1   2   3   4   5   6   7   8   9
Bog'liq
5-Abdusattorov Mirzohid

Vi(t + 1) = W i (t) + ēi(t) G(i, w) (X−Vi(t)). (7.13)
Bu formulada o'rganish tezligi koeffitsienti ēi(t) t vaqt ortishi bilan kamayadi va G(i, w) funksiya masofaga bog'liq.

1-rasm.O'z-o'zini o'rganadigan neyron tarmog'i
g'olib neyron w va tarmoqning i-neyroni o'rtasida. Odatda u i = w uchun maksimal darajaga o'rnatiladi va i-neyrondan g'olib neyrongacha bo'lgan masofa oshgani sayin kamayadi. Masalan, Gauss funksiyasi shunday xususiyatga ega
G , (7.14)
ichida qaysi l koeffitsienti deyiladimahalla darajasi.
Boshqa variantda, faqat g'olib neyron Kohonen formulasi (7.13) bo'yicha o'qitiladi. Bunda G(i, w) funksiya shaklga ega
bitta, uchuni=w; 0, uchuni= w.
G(i, w) = 6 (7.15)
Bu algoritm WTA algoritmi deb ataladi. Ism inglizcha Winner Takes All so'zlarining bosh harflari bilan tuzilgan bo'lib, "G'olib hamma narsani oladi" degan ma'noni anglatadi. Ushbu algoritmdan farqli o'laroq, (7.14) formula WTM turidagi algoritmlar deb ataladi - Winner Takes Most, bu "G'olib ko'proq oladi" deb tarjima qilinadi.
Koxonenning iterativ formulasiga (7.13) ko'ra, g'olib neyron har bir davrda o'zining sinaptik vektori Ww ni X kirish vektoriga yaqinlashadi, rasmda ko'rsatilgan. 7.18. Bunday o'qitish natijasida klaster deb ataladigan bir-biriga yaqin X q kirish vektorlarining har bir alohida guruhi mos keladi.

bitta neyron. Ushbu vektorlar uchun trening jarayonida ushbu neyron g'olib bo'ldi va iterativ jarayon natijasida uning sinaptik vektori (7.13) ushbu klasterning markazida bo'ladi.
Biroq, kirish vektorlaridan dastlabki masofasi tufayli hech qachon g'olib bo'lmagan neyronlar bo'lishi mumkin. Hech qanday klaster bu neyronlarga mos kelmaydi, shuning uchun ular o'lik neyronlar deb ataladi.
O'lik neyronlarning mavjudligi istalmagan, chunki ular hisoblash algoritmining samaradorligini pasaytiradi. Guruch. 7.18.G'olib neyron o'zining sinaptik vektori W w ni kirish vektoriga yaqinlashtiradi
O'lik neyronlar muammosi neyrofiziologik kuzatuvlardan ma'lum bo'lgan charchoq ta'sirini simulyatsiya qiluvchi mexanizmni joriy etish orqali hal qilinadi. Bu ta'sir shundan iboratki, g'alabadan so'ng darhol biologik neyronlar bir muncha vaqt o'z faoliyatini yo'qotadi va musobaqada qatnashmaydi.
Neyron charchoq ta'sirini modellashtirishning bir necha usullari mavjud, masalan, har bir neyronning faollik potentsialini kiritish. Faoliyat potentsiallari har safar keyingi kirish vektori taqdim etilgandan keyin o'zgartiriladi:
(pi(t)−pmin, i = w uchun;
pi(t + 1) =pi(t) + bitta , i = uchun6w. (7.16)N
(7.16) N - neyron tarmoq neyronlari soni; pmin - neyronning raqobatda ishtirok etishiga imkon beruvchi potentsialning minimal qiymati, odatda pmin sifatida qabul qilinadi≈0,75.Agar har qanday neyron potentsialining joriy qiymati pmin dan pastga tushsa, bu neyron vaqtinchalik dam oladi va raqobat uchun boshqa neyronlarga joy beradi.
Bunday trening natijasida barcha neyronlarning og'irlik vektorlari shunday taqsimlanadiki, ular kirish vektorlaridan tashkil topgan turli klasterlarning markazlari bo'ladi va kirish vektorlari to'plami bo'linadigan klasterlar soni teng bo'ladi. tarmoq neyronlari soni.
Ko'rib chiqilayotgan neyron tarmoq amaliy qiziqish uyg'otadi, chunki undan, masalan, siqiladigan to'plamning global xususiyatlarini saqlab, ma'lumotni siqish kerak bo'lganda, paydo bo'ladigan ob'ektlarni klasterlash muammolarini hal qilish uchun foydalanish mumkin.

3-rasmTo'plamni klasterlash misoli: xochlar kirish parametrlarini, doiralar klaster markazlarini bildiradi
3-rasmda asl to'plamni uchta klasterga bo'lgan neyron tarmoq natijasi ko'rsatilgan.
Klasterlash muammolari inson faoliyatining turli sohalarida yuzaga keladi. Shunday qilib, pedagogikada ko'pincha barcha o'quvchilarni bir nechta sinflarga bo'lish muammosi paydo bo'ladi, masalan, vunderkindlar, a'lochilar, muvaffaqiyatli va muvaffaqiyatsiz talabalar. Bunday bo'linish uchun dastlabki ma'lumotlar uzoq vaqt davomida o'quvchilar faoliyatining turli xil ko'rsatkichlari hisoblanadi. Ushbu muammoni hal qilish uchun siz to'rtta neyronning Kohonen qatlamidan foydalanishingiz mumkin.
Kohonen qatlami boshqa neyron tarmoq paradigmalarini amalga oshiradigan neyron qatlamlari bilan birgalikda samarali ishlatilishi mumkin. Shunday qilib, ko'rib chiqilgan RBF tarmoqlaridan foydalanish, Kohonen neyron qatlami yordamida qulay tarzda amalga oshiriladigan kirish vektorlarini majburiy dastlabki klasterlashni nazarda tutadi. 3-rasmda Kohonen qatlamini o'z ichiga olgan gibrid tarmoq ko'rsatilgan, undan chiqish signallari an'anaviy perseptronning kirishiga uzatiladi. Gibrid neyron tarmog'ini o'qitish ikki bosqichda amalga oshiriladi.
Birinchi bosqichda Kohonen qatlamini o'z-o'zidan o'rganish sodir bo'ladi, buning natijasida kirish vektorlari to'plami klasterlarga bo'linadi. Klasterlar soni Koxonenning I qatlamidagi neyronlar soniga teng va bu qatlamning har bir neyroni uchun sinaptik og'irliklar vektorlari hosil bo'lgan klasterlarning markazlari tomonidan ifodalangan qiymatlarni oladi. Endi, har qanday kirish vektori tarmoq kirishiga berilganda, har bir neyron
N
Kohonen qatlami Si = winxn summasini hosil qiladi. Bu summalar nP=1 g'olib neyronning chiqish signali bittaga teng bo'lishi uchun normallashtiriladi va qolgan neyronlarning chiqish signallari (0;1) oraliqda qiymatlarni oladi. Ushbu normalizatsiya operatsiyasi, masalan, quyidagi formula yordamida amalga oshirilishi mumkin:

Download 0.92 Mb.

Do'stlaringiz bilan baham:
1   2   3   4   5   6   7   8   9




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling