2-Amaliy mashgʻulot: Sun’iy neyron modeli Reja
Download 427.86 Kb. Pdf ko'rish
|
1 2
Bog'liq2-mavzu
- Bu sahifa navigatsiya:
- Faollashtirish funksiyalari.
2-Amaliy mashgʻulot: Sun’iy neyron modeli Reja: 1. Sun’iy neyronning matematik modeli. 2. Faollashtirish funksiyalari. 3. Bir qatlamli sun’iy neyron to’rlari. 4. Ko’p qatlamli sun’iy neyron to’rlari. Berilgan k neyronning m + 1 ta x0 dan xm gacha bo’lgan signallar va wk0 dan wkm gacha og’irliklari bo’lgan kirishi bo’lsin. Odatda x0 kirish signaliga +1 qiymati beriladi va bunda kirish wk0=bk bo’ladi. Shuning uchun xaqiqatda m ta x1 dan xm gacha bo’lgan kirish qoladi. k neyronning chiqishi quyidagicha bo’ladi: Bu yerda φ faollashtirish funktsiyasi (asosan chegara funktsiyasi). Sun’iy neyronning chiqishi biologik neyronning axonga o’xshash bo’ladi va uning qiymati keyingi qatlam kirishiga sinaps orqali o’tadi. Yoki tarmoqning chiqishi, natijaviy vektor qismi sifatida ham bo’lishi mumkin. Faollashtirish funksiyalari. Sun’iy neyrondan chiquvchi vektor qiymatlarini faollashtirish funksiyalari va kiruvchi signal qiymatiga bo’g’liq bo’ladi. Ya’ni sun’iy neyronning faollashtirish funksiyalari kirish signallarini qiymatini o’zgartirib chiqishga uzatadi. Neyron tarmaqlaridagi faollashtiruvchi funksiya kirish signal qiymatlarining o’girliklarga ko’paytmasi yig’indisi neyronning chiqishga qay tarzda uzatilishini belgilab beradi. Neyron tarmoqlarining qatlamlari uch hil ko’rinishda bo’ladi: kirish qatlamlari, yashirin qatlamlari va chiqish qatlamlari. Kirish qatlamlari birlamchi signallarni qabul qiladi. Yashirin qatlam kirish signallarini bir qatlamdan olib ikkinchi qatlamga chiqarib beradi. Chiqish qatlamlari pragnoz qiluvchi bo’ladi. 1 rasm. Sun`iy neyron tarmog`i Barcha yashirin qatlamlar odatda bir xil faollashtirish funksiyalaridan foydalanadi. Chiqish qatlamlari odatda farqli faollashtiruvchi funksiyadan foydalanadi. Va bu nimani prognoz qilishga bog`liq holda o`zgaradi. Faollashtiruvchi funksiyalardan odatda xosila olish mumkin bo’ladi. Ya`ni berilgan kirish qiymati uchun birinchi darajali xosilani xisoblash mumkin bo’ladi. Bu xatolarning teskari tarqalish usulida juda qo’l keladi. Xatolarning teskari tarqalish usulida prognoz xatoligining xosilasidan tamoqning og’irlik qiymatlarini yangilashda foydalaniladi. Yashirin qatlamlar uchun faollashtiruvchi funksiyalar Odatda yashirin qatlamlar uchun nochiziqli xosila olish mumkin bo’lgan faollashtiruvchi funksiyalardan foydalaniladi. Bu tarmoqning chiziqli KIRISH QATLAMILA R YASHIRIN QATLAMLAR CHIQISH QATLAMILAR I faollashtiruvchi funksiyadan foydalangandagiga qaraganda murakkabroq funksiyalarni o’rganishiga imkon beradi. Quyidagi uchta asosiy faollashtiruvchi funksiyalni yashirin qatlamda foydalanish mumkin. Rectified Linear Activation Logistic (Sigmoid) Hyperbolic Tangent (Tanh) ReLU yashirin qatlam faollashtiruvchi funksiya ReLU funksiyasi Sigmoid va Tanh funksiyalariga qaraganda yashirin qatlamda ko’p qo’llaniladigan funksiyalarda xisoblanadi. U quyidagicha xisoblanadi: y = max(0, x) Agar kirish qiymati x manfiy bo’ladigan bo’lsa 0 qiymat qaytariladi, aks holda x ning qiymati qaytariladi. ReLU faollashtiruvchi funksiyasining grafigi quyida keltirilgan: Download 427.86 Kb. Do'stlaringiz bilan baham: |
1 2
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling