6-amaliy ishi. Sigmoid faollashtirish funksiyasi va umumiylashtirilgan delta qoidasi
-qadamTsiklning yopilishi yoqilganq. 6-qadam
Download 1.04 Mb. Pdf ko'rish
|
2-Blok intelektual
5-qadamTsiklning yopilishi yoqilganq.
6-qadamTakrorlash qadamlar 2–5 zarur miqdori bir marta. Algoritmning 2-bosqichidagi Xq va Dq o'rgatish misollarining vektorlari odatda birinchisidan oxirgisigacha ketma-ket taqdim etiladi, ya'ni q = 1, 2, . . ., Q, bu erda Q - misollarning umumiy soni. Misol uchun, rus alifbosining harflarini tanib olish holatida Q = 33. Perseptronning og'irlik koeffitsientlari har bir o'quv misoli uchun moslashtirilgandan so'ng, ya'ni 2-4 bosqichlar 33 marta takrorlanadi, algoritmning 6-bosqichida o'rtacha kvadrat xatosi hisoblab chiqiladi, barcha o'qitish misollari bo'yicha o'rtacha hisoblanadi: Q M e =vut (di−yi) . (4,41) q=1 i=1 O'rtacha kvadrat xatosidan tashqari, perseptronning istalgan va bashorat qilingan (perseptron hisoblagan) natijalari o'rtasidagi maksimal farqni ham baholash mumkin: ; i= 1, 2, . . ., M; q= 1, 2, . . ., Q. (4,42) 6-bosqichda belgilangan takroriy jarayon (4.40) yoki (4.42) formulalar boʻyicha hisoblangan e xatosi belgilangan qiymatga yetgandan soʻng yoki oʻrganish davrlarining chegaraviy soniga yetgandan soʻng tugaydi. Natijada perseptron istalgan kirish vektori Xq ning kerakli Dq vektoridan biroz kichik miqdor bilan farq qiluvchi Y q chiqish vektoriga kerakli xaritalashni bajarishni o'rganadi. Endi tasavvur qilaylik, boshqa shriftdagi qandaydir harfli karta fotoelementlarning kirish paneliga tushgan. Fotoelementlar o'quv misollari to'plamidagi vektorlarning hech biriga mos kelmaydigan X kirish vektorini hosil qiladi. Agar kirish harfining shrifti o'quv majmuasi misollari shriftidan unchalik farq qilmasa va perseptron yaxshi ishlab chiqilgan va o'qitilgan bo'lsa, u holda Y vektorini hisoblab chiqadi, unda neyronning chiqishi harfga mos keladi. kirishda taqdim etilgan maksimal qiymatga ega bo'ladi. Shunday qilib, perseptron, kirish tasvirining shovqini va buzilishiga qaramay, uning ma'lum bir sinfga tegishliligi haqida to'g'ri xulosa chiqaradi. Perseptronning o'quv misollari to'plamida bo'lmagan tasvirlarni "tanib olish" xususiyati umumlashtirish xususiyati deb ataladi. Yuqorida aytib o'tilganidek, bu mulk Keling, xulosa qilaylik tadqiqot natijalari o'rganish algoritmlari asabiy tarmoqlar. Birinchi algoritm Hebb qoidalari bo'lib, bosqichma-bosqich faollashtirish funktsiyalariga ega bo'lgan neyronlar bilan bir qatlamli perseptronni o'rgatish uchun mo'ljallangan. Keyin zarur neyron chiqishi di va uning haqiqiy qiymati yi o'rtasidagi farq sifatida neyron xato tushunchasi kiritildi. Natijada, Hebb qoidalaridan foydalangan holda perseptronni o'rganish algoritmi delta qoidasi algoritmi sifatida umumlashtirildi. Delta qoidasi algoritmining iterativ formulalarida o'rganish tezligi koeffitsienti ē paydo bo'ldi, bu sizga iteratsion qadam hajmiga ta'sir qilish imkonini beradi. Keyin sigmasimon faollashuv funksiyasi taklif qilindi va perseptronning kvadratik o'rganish xatosi tushunchasi kiritildi. Natijada, gradient tushish usulini amalga oshiradigan va nafaqat ikkilik, balki uzluksiz signallar bilan ishlashga imkon beruvchi umumlashtirilgan delta qoidasi paydo bo'ldi. Download 1.04 Mb. Do'stlaringiz bilan baham: |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling