Nerv kletkalarınıń strukturası: dentrit, som, akson, sinaps


Birlik sekrew aktivlestiriw funksiyası hám onıń python tilinde realizaсiyası---


Download 254.33 Kb.
bet3/3
Sana06.01.2023
Hajmi254.33 Kb.
#1080808
1   2   3
Bog'liq
Jasalma 100

Birlik sekrew aktivlestiriw funksiyası hám onıń python tilinde realizaсiyası---


  1. Sigmoid aktivlestiriw funksiyası hám onıń grafigi --- juwap 7 de

  2. Sigmoida aktivlestiriw funksiyası hám onıń python tilinde realizaсiyasi ---

Sigmoida aktivlashtirish funksiyasi, uning grafigi va python tilida realizatsiyasi. Nt da eng ko’p ishlatiladigan funksiyalar sigmoida aktivlashtirish funksiyasi bo’lib hisoblanadi. Sigmoida funksiyalarining butun bir oilasi mavjud bo’lib, ularning ba’zilari sun’iy neyronlarda faollashtirish funksiyasi sifatida ishlatiladi. Sigmoida funksiyasidan foydalanganimizda 0 va 1 oralig’ida bo’lgan son ko’rinishidagi yakuniy natijagaega bo’lamiz. Bunda S vaznlar yig’indisi qanchalik katta bo’lsa y chiqishi 1 ga shunchalik yaqin bo’ladi. Lekin hech qachon 1 ga teng bo’lmaydi. S qanchalik kichik bo’lsa 0 ga shunchalik yaqinlashadi. S.f. quyidagi xususiyatlarga ega; 1. mazkur funksiyaning siqish xususiyati bor. Yani argumetnda qanday qiymat bo’lishidan qat’I nazar chiqish signali har doim 0 va 1 oralig’ida bo’ladi. 2. U birlik sakrash funksiyasida ko’ran moslashuvchanroq. 3. Barcha nuqtalarda hosilasi bor. Import numpy as np def sigmoida(x): y=(1/(1+np.exp(-x)) return y print (sigmoida(y))


  1. Giperbolik tangens aktivlestiriw funksiyası hám onıń grafigi --- Giperbolik tangens funksiyasi yoki Tanh chiqishi qiymati -1 dan 1 gacha o'zgarib turadigan logistik funktsiyadir. Bipolar sigmasimon funktsiya sifatida ham tanilgan. Tanhning chiqishi 0 atrofida, sigmasimon esa 0,5 atrofida. Ta'lim to'plamidagi har bir kirish o'zgaruvchisining o'rtacha qiymati nolga yaqin bo'lsa, Tanh yaqinlashuvi odatda tezroq bo'ladi.





  1. 9. Giperbolik tangens aktivlestiriw funksiyası hám onıń python tilinde realizaсiyasi
    10. ReLU aktivlestiriw funksiyası hám onıń grafigi
    11. ReLU aktivlestiriw funksiyası hám onıń python tilinde realizaсiyasi
    12. Bir qatlamlı jasalma neyron torları
    13. Kóp qatlamlı jasalma neyron torları
    14. Neyron tórin úyretiw
    15. Jasalma neyron tórın oqıtıwshılı úyretiw (supervised learning)
    16. Jasalma neyron tórın oqıtıwshısız úyretiw (unsupervised learning)
    17. Úyretiwshi tańlanba (training set)
    18. Tekseriw ushın tańlanma (test set)
    19. Qátelik funksiyaları
    20. Ortasha kvadratik qátelik funksiyası (MSE)

Download 254.33 Kb.

Do'stlaringiz bilan baham:
1   2   3




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling