2-Amaliy mashgʻulot: Sun’iy neyron modeli Reja


Download 427.86 Kb.
Pdf ko'rish
bet1/2
Sana10.04.2023
Hajmi427.86 Kb.
#1348010
  1   2
Bog'liq
2-mavzu



2-Amaliy mashgʻulot: Sun’iy neyron modeli 
Reja: 
 
1. Sun’iy neyronning matematik modeli.
2. Faollashtirish funksiyalari.
3. Bir qatlamli sun’iy neyron to’rlari. 
4. Ko’p qatlamli sun’iy neyron to’rlari. 
 
 
 
Berilgan k neyronning m + 1 ta x0 dan xm gacha bo’lgan signallar va wk0 dan 
wkm gacha og’irliklari bo’lgan kirishi bo’lsin. Odatda x0 kirish signaliga +1 qiymati 
beriladi va bunda kirish wk0=bk bo’ladi. Shuning uchun xaqiqatda m ta x1 dan xm 
gacha bo’lgan kirish qoladi. 
k neyronning chiqishi quyidagicha bo’ladi: 
Bu yerda φ faollashtirish funktsiyasi (asosan chegara funktsiyasi). 
Sun’iy neyronning chiqishi biologik neyronning axonga o’xshash bo’ladi va 
uning qiymati keyingi qatlam kirishiga sinaps orqali o’tadi. Yoki tarmoqning 
chiqishi, natijaviy vektor qismi sifatida ham bo’lishi mumkin. 
Faollashtirish funksiyalari. 


Sun’iy neyrondan chiquvchi vektor qiymatlarini faollashtirish funksiyalari va 
kiruvchi signal qiymatiga bo’g’liq bo’ladi. Ya’ni sun’iy neyronning faollashtirish 
funksiyalari kirish signallarini qiymatini o’zgartirib chiqishga uzatadi.
Neyron tarmaqlaridagi faollashtiruvchi funksiya kirish signal qiymatlarining 
o’girliklarga ko’paytmasi yig’indisi neyronning chiqishga qay tarzda uzatilishini 
belgilab beradi.
Neyron tarmoqlarining qatlamlari uch hil ko’rinishda bo’ladi: kirish qatlamlari, 
yashirin qatlamlari va chiqish qatlamlari. 
Kirish qatlamlari birlamchi signallarni qabul qiladi.
Yashirin qatlam kirish signallarini bir qatlamdan olib ikkinchi qatlamga 
chiqarib beradi.
Chiqish qatlamlari pragnoz qiluvchi bo’ladi. 
1 rasm. Sun`iy neyron tarmog`i 
Barcha yashirin qatlamlar odatda bir xil faollashtirish funksiyalaridan 
foydalanadi. Chiqish qatlamlari odatda farqli faollashtiruvchi funksiyadan 
foydalanadi. Va bu nimani prognoz qilishga bog`liq holda o`zgaradi. 
Faollashtiruvchi funksiyalardan odatda xosila olish mumkin bo’ladi. Ya`ni berilgan 
kirish qiymati uchun birinchi darajali xosilani xisoblash mumkin bo’ladi. Bu 
xatolarning teskari tarqalish usulida juda qo’l keladi. Xatolarning teskari tarqalish 
usulida prognoz xatoligining xosilasidan tamoqning og’irlik qiymatlarini 
yangilashda foydalaniladi.
Yashirin qatlamlar uchun faollashtiruvchi funksiyalar 
Odatda yashirin qatlamlar uchun nochiziqli xosila olish mumkin bo’lgan 
faollashtiruvchi funksiyalardan foydalaniladi. Bu tarmoqning chiziqli 
KIRISH 
QATLAMILA

YASHIRIN 
QATLAMLAR 
CHIQISH 
QATLAMILAR



faollashtiruvchi funksiyadan foydalangandagiga qaraganda murakkabroq 
funksiyalarni o’rganishiga imkon beradi. 
Quyidagi uchta asosiy faollashtiruvchi funksiyalni yashirin qatlamda 
foydalanish mumkin.
Rectified Linear Activation 
Logistic (Sigmoid) 
Hyperbolic Tangent (Tanh) 
ReLU yashirin qatlam faollashtiruvchi funksiya 
ReLU funksiyasi Sigmoid va Tanh funksiyalariga qaraganda yashirin qatlamda ko’p 
qo’llaniladigan funksiyalarda xisoblanadi. U quyidagicha xisoblanadi: 
y = max(0, x) 
Agar kirish qiymati x manfiy bo’ladigan bo’lsa 0 qiymat qaytariladi, aks holda x 
ning qiymati qaytariladi. ReLU faollashtiruvchi funksiyasining grafigi quyida 
keltirilgan: 

Download 427.86 Kb.

Do'stlaringiz bilan baham:
  1   2




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling