6-amaliy ishi. Sigmoid faollashtirish funksiyasi va umumiylashtirilgan delta qoidasi


-AMALIY ISH. BIR QATTALI PERSEPTRONNI CHEKLASHTIRISH


Download 1.04 Mb.
Pdf ko'rish
bet2/10
Sana17.12.2022
Hajmi1.04 Mb.
#1025464
1   2   3   4   5   6   7   8   9   10
Bog'liq
2-Blok intelektual

7-AMALIY ISH. BIR QATTALI PERSEPTRONNI CHEKLASHTIRISH. 
Shunday qilib, olimlar perseptronni alifbo harflarini taniy olishga o'rgatishdi. Bu 
ulkan muvaffaqiyat edi: inson miyasining qiyofasi va o'xshashligida yaratilgan, 
odam kabi o'qitilgan elektron qurilma insonning intellektual funktsiyalarini 
muvaffaqiyatli simulyatsiya qildi. Bu inson tafakkurining mohiyatini tushunishda 
muvaffaqiyat edi. Miya o'z sirlarini oshkor qila boshladi. Eng murakkab 
g'ayriinsoniy va ozgina beradigan tabiiy tajribalarga murojaat qilmasdan, 
modellashtirish usullari bilan miyani o'rganish mumkin bo'ldi. Bu butun dunyo 
bo'ylab fikrlaydigan odamlarning e'tiborini tortgan sensatsiya edi. Aftidan, 
aqlning kaliti topilgan va inson miyasi va uning barcha funktsiyalarini to'liq 
ko'paytirish faqat vaqt masalasi edi. Fantast yozuvchilar, olimlar, muhandislar
biznesmenlar, siyosatchilar sun'iy intellekt g'oyalarini amaliy qo'llashning eng 
yorqin istiqbollarini ko'rdilar. Amerika Qo'shma Shtatlari hukumati istiqbolli 
yangi ilmiy yo'nalishni rivojlantirish uchun katta miqdorda subsidiyalar ajratdi. 
Sigmasimon faollashtirish funktsiyalari va gradient tushish algoritmi ixtirosi 
tufayli neyron tarmoqlar tomonidan hal qilinadigan muammolar sinfi kengaydi. 
Ob-havo, valyuta kurslari va zaxiralarni bashorat qilish kabi prognozlash 
muammolarini hal qilish uchun perseptronlardan foydalanishga urinishlar qilindi. 
Perseptronlardan elektrokardiogrammalarni tahlil qilish, tibbiy diagnostika 
muammolarini hal qilish uchun foydalanishga harakat qilindi. 
Ammo ilmiy tadqiqotlar jabhasi kengaygani sari qiyinchiliklar paydo bo'ldi. 
Kutilmaganda, perseptron ko'pgina yangi muammolarni hal qila olmasligi ma'lum 
bo'ldi, chunki davrlar sonining ko'payishi bilan o'rganish xatosi e nolga moyil 
emas edi. Agar ba'zi vazifalar uchun e ning t ga bog'liqligini ko'rsatadigan egri 
chiziq tezda abscissa o'qiga yaqinlashsa (4.14-rasm, a), keyin boshqa vazifalar 
uchun (va bu erda juda ko'p edi!) O'rganish xatosi e ni hattoki kamaytirish 
mumkin emas edi. ko'p sonli davrlar t (4.14-rasm, b). 
Misol tariqasida perseptron yordamida havo mudofaa tizimini yaratish bo'yicha 
Amerika loyihasining muvaffaqiyatsizligidir. Katta ilmiy grantlar ham, yuqori 
tezlikda ishlaydigan kompyuterlarni yaratishdagi muvaffaqiyatlar ham 


harakatlanuvchi harbiy ob'ektlarni "do'stlar" va "dushmanlar" sifatida tan olish 
muammosini hal qilish uchun perseptronni o'rgatishda yordam bermadi. Bundan 
tashqari, matematik shakllantirish nuqtai nazaridan bu yangi muhim vazifalar 
idrok etuvchi ilgari muvaffaqiyatli bajargan vazifalardan deyarli farq qilmadi. 
Vaqt o'tdi, takrorlashlar davom etdi va mashg'ulot xatosi tushmadi. Paradokslarni 
tushuntirish, chuqur tahlil qilish va neyroinformatikaning nazariy asoslarini 
yaratish zarurati tug‘ildi. 
Guruch. 4.14. O'rganish xatosi e davrlar sonining ko'payishi bilan nolga moyil 
bo'lgan holat t (a) va bunday tendentsiya bo'lmagan holat (b) 
Sun'iy intellekt tarixidagi keyingi davr 1969 yilda ikki mashhur amerikalik 
matematiklar M.Minski va S.Papertning "Perseptronlar" kitobining paydo bo'lishi 
bilan boshlandi [34]. Ushbu kitob mualliflari o'sha paytda qo'llanilgan bir qatlamli 
perseptronlar printsipial jihatdan ko'plab oddiy muammolarni hal qilishga qodir 
emasligini matematik jihatdan qat'iy isbotladilar. Neyroinformatika tarixiga XOR 
muammosi nomi bilan kirgan ana shu muammolardan birini batafsil ko‘rib 
chiqamiz. 
XOR ikkita argumentning mantiqiy funktsiyasi bo'lib, ularning har biri to'g'ri yoki 
noto'g'ri bo'lishi mumkin. Argumentlaridan faqat bittasi rost deb baholansa, uning 
o'zi rost deb baholaydi. Boshqa barcha holatlarda bu funktsiya "false" qiymatini 
oladi. Agar biz “haqiqiy” qiymatni bittaga, “noto‘g‘ri” qiymatini esa nolga 
kodlasak, u holda x1, x2 argumentlari va y funksiyaning o‘zi 
o‘rtasidagi kerakli muvofiqlikni jadval ko‘rinishida ko‘rsatish 
mumkin. 4.3, mantiqiy funktsiyaning haqiqat jadvali deb ataladi. 


"Exclusive OR" mantiqiy funktsiyasini mantiqiy formuladan foydalangan holda 
"VA" ("VA") mantiqiy ko'paytirish, "OR" ("OR") mantiqiy qo'shish va "YO'Q" 
("YO'Q") mantiqiy 
inkor 
qilish 
funktsiyalari orqali 
ifodalanishi 
mumkin. y = ( x1 
VA 
x2 
EMAS) 
YOKI (x2 VA x1 
EMAS). (4,25) 

4.6. Bir qavatli perseptronning cheklovlari 
4.3-jadval “XOR” mantiqiy 
funksiyasining 
haqiqat 
jadvali 
4.4-jadval haqiqat
"Exclusive OR" mantiqiy 
funktsiyasi, bajaring 
A, B, C, D nuqtalari bilan 
to'la 
Guruch. 4.15. 
bitta - 
ikkita kirish 
va 
bitta 
chiqishga ega 
neyron 
perseptron 
Muammo ikkita kirish x1 va x va bitta 
chiqish y bo'lgan bitta neyronli perseptron 
yordamida 
XOR 
funksiyasini 
modellashtirishni o'rganishdir (4.15-rasm). 
ball 
x1 
x2 







bitta 
bitta 

bitta 

bitta 

bitta 
bitta 



M. Minsky va S. Papert o'z kitoblarida [34] XOR 
muammosining geometrik talqinini taklif qildilar, u 
quyidagilardan iborat. Ular x1, x2 koordinata 
tekisligidagi kirish signallarining barcha mumkin bo'lgan kombinatsiyalarini 
to'rtta nuqta sifatida tasvirlashni taklif qildilar: A, B, C, D, rasmda 
ko'rsatilganidek. 4.16. A nuqtaning koordinatalari x1 = 0, x2 = 0; B nuqtasi 
jadvalga muvofiq x1 = 0, x2 = 1 va hokazo koordinatalarga ega. 4.4. 
U holda A nuqtada y perseptronning chiqishi nolga, B nuqtada bitta, C nuqtada 
bitta, D nuqtada esa nolga teng bo'lishi kerak. 
(4.1) – (4.2) formulalarga muvofiq, bir neyronli perseptron (4.15-rasmga qarang) 
transformatsiyani amalga oshiradi. 
S = w1x1 + w2x2; 
(4,26) 
bitta, 
agar S>th; 
y=(4,27) 
0, agar S < th. 
S = th bo'lgan vaziyatni ko'rib chiqing. Bu shuni anglatadiki, (4.26) ga ko'ra 
tenglik quyidagilarga ega: 
w1x1 + w2x2 = th. 
(4,28) 
Guruch. 4.16. Muammoni tushuntirish uchun geometrik talqin 
"XOR" 
Agar bu tenglamadagi x1 va x2 miqdorlar o'zgaruvchi, th, w1 va w2 esa doimiy 
bo'lsa, u holda x1, x2 koordinata tekisligida ko'rib chiqilayotgan tenglama to'g'ri 
chiziq shaklida tasvirlanadi, uning holati va qiyaligi. w1, w2 koeffitsientlari va th 
x1 
x2 





bitta 
bitta 
bitta 

bitta 
bitta 
bitta 



chegarasi qiymatlari bilan aniqlanadi. Bu chiziqda yotgan x1, x2 tekislikning 
barcha nuqtalari uchun S = th tengligi bajariladi va shuning uchun (4.27) 
formulaga muvofiq perseptronning chiqish signali bir ga teng. Bu chiziq ustida 
joylashgan nuqtalar uchun w1x1 + w2x2 yig'indisi th dan katta va shuning uchun 
(4.26)–(4.27) formulalarga ko'ra perseptronning chiqish signali ham bittaga teng. 
Bu chiziq ostidagi nuqtalar uchun w1x1 + w2x2 yig'indisi th dan kichik, 
perseptronning chiqishi esa nolga teng. Shuning uchun (4.28) tenglamani 
tasvirlaydigan chiziq chegara chizig'i deb ataladi. 
Endi XOR funksiyasining haqiqat jadvalini ko'rib chiqamiz (4.4-jadvalga qarang). 
Ushbu jadvalga ko'ra, A va D nuqtalarda perseptronning chiqishi nolga teng 
bo'lishi kerak, B va C nuqtalarda esa birlik bo'lishi kerak. Ammo buning uchun 
chegara chizig'ini shunday tartibga solish kerakki, A va D nuqtalari bu chiziq 
ostida, B va C nuqtalari esa yuqorida yotadi, bu mumkin emas. Bu shuni 
anglatadiki, perseptron qanchalik o'qitilgan bo'lishidan qat'i nazar, uning sinaptik 
og'irliklari va chegarasiga qanday qiymatlar berilgan bo'lishidan qat'i nazar, 
perseptron XOR funktsiyasining haqiqat jadvali talab qiladigan kirish va chiqish 
o'rtasidagi munosabatlarni qayta ishlab chiqara olmaydi. . 
XOR muammosiga qo'shimcha ravishda, yuqorida aytib o'tilgan kitobda M. 
Minsky va S. Papert, kirish signallarini ifodalovchi nuqtalarni chegara chizig'i 
bilan (ko'p o'lchovli hollarda, tekislik bilan) ajratib bo'lmaydigan bir qator boshqa 
muammolarni taqdim etdilar. giperplan). Bunday masalalar chiziqli ajralmas deb 
ataladi. 
M.Minski va S.Papertning “Perseptronlar” kitobi nashr etilgandan so‘ng, o‘sha 
davrda ko‘plab muammolarni hal qilishga perseptronlarni o‘rgatish bo‘yicha 
qilingan urinishlar, ma’lum bo‘lishicha, ular sinfiga tegishli ekanligi hammaga 
ayon bo‘ldi. chiziqli ajralmas bo'lganlar, boshidanoq muvaffaqiyatsizlikka 
uchragan. Bu vaqt, kuch va moliyaviy resurslarni behuda sarflash edi. 
Perseptronni lotin alifbosidagi harflarni tan olishga o'rgatish muvaffaqiyati 
baxtsiz hodisadir. Bu muammo hayotda juda kam uchraydigan chiziqli ravishda 
ajratilishi mumkinligi bilan izohlanadi. 


Shunday qilib, bitta neyronli perseptron XOR mantiqiy funktsiyasini 
modellashtirishga va boshqa chiziqli ajralmas muammolarni hal qilishga imkon 
bermasligi isbotlangan. 

Download 1.04 Mb.

Do'stlaringiz bilan baham:
1   2   3   4   5   6   7   8   9   10




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling