Reja: Sun'iy Neyron to'rlar


Download 388.98 Kb.
Pdf ko'rish
bet1/2
Sana15.06.2023
Hajmi388.98 Kb.
#1480746
  1   2
Bog'liq
Sun’iy neyron to’rlarini o’rganish jarayonidagi falajlik sabablari



Sun’iy neyron to’rlarini o’rganish jarayonidagi falajlik sabablari

Reja:
Sun'iy Neyron to'rlar.
1.
Sun'iy Neyron to'rlarni o’rganish.
2.
Falajlik sabablari.
3.


Sun'iy neyron tarmoqlari (ANN) quyidagi rasmga o'xshash ko'p
qatlamli to'liq ulangan neyron tarmoqlardir. Ular kirish qatlami, bir nechta
yashirin qatlamlar va chiqish qatlamidan iborat. Bir qatlamdagi har bir tugun
keyingi qatlamdagi har bir boshqa tugunga ulanadi. Yashirin qatlamlar sonini
ko'paytirish orqali tarmoqni chuqurroq qilamiz.
Agar biz yashirin yoki chiqish tugunlaridan biriga kattalashtirsak, biz
quyidagi rasmga duch kelamiz.


Berilgan tugun o'z kirishlarining tortilgan yig'indisini oladi va uni
chiziqli bo'lmagan faollashtirish funktsiyasi orqali o'tkazadi. Bu tugunning
chiqishi, keyinchalik keyingi qatlamda boshqa tugunning kirishiga aylanadi.
Signal chapdan o'ngga oqadi va yakuniy chiqish barcha tugunlar uchun ushbu
protsedurani bajarish orqali hisoblanadi. Ushbu chuqur neyron tarmoqni
o'rgatish barcha qirralar bilan bog'liq og'irliklarni o'rganishni anglatadi.
Berilgan tugun uchun tenglama quyidagicha ko'rinadi. Chiziqli
bo'lmagan aktivlashtirish funksiyasidan o'tgan erkli o'zgaruvchilarning
tortilgan yig'indisi. U vektorli nuqta mahsuloti sifatida ifodalanishi mumkin,
bu erda n-tugun uchun kirishlar soni.
Men soddaligi uchun qiyshiq muddatini yozilmaydi. Bias-bu barcha
tugunlarga kirish va har doim 1 qiymatiga ega. Bu faollashtirish
funktsiyasining natijasini chapga yoki o'ngga siljitish imkonini beradi.
Shuningdek, u modelga barcha kirish xususiyatlari 0 bo'lganda mashq
qilishga yordam beradi. Agar bu hozir murakkab tuyulsa, siz noto'g'ri
shartlarni e'tiborsiz qoldirishingiz mumkin. To'liqlik uchun yuqoridagi
tenglama kiritilgan tarafkashlik bilan quyidagicha ko'rinadi.


Hozircha biz oldinga o'tishni tasvirlab berdik, ya'ni kirish va chiqish
qanday hisoblanganligini og'irliklari berilgan. Trening tugagandan so'ng, biz
bashorat qilish uchun faqat oldinga o'tishni boshlaymiz. Ammo biz birinchi
navbatda og'irliklarni o'rganish uchun modelimizni o'rgatishimiz kerak va
mashg'ulot tartibi quyidagicha ishlaydi:
Barcha tugunlar uchun og'irliklarni tasodifiy boshlang. Biz boshqa

maqolada kashf etadi aqlli boshlash usullari bor.
Har bir mashg'ulot misoli uchun joriy og'irliklar yordamida oldinga

o'tishni bajaring va chapdan o'ngga o'tadigan har bir tugunning chiqishini
hisoblang. Yakuniy chiqish-bu oxirgi tugunning qiymati.
Yakuniy natijani o'quv ma'lumotlaridagi haqiqiy maqsad bilan

Solishtiring va yo'qotish funktsiyasi yordamida xatoni o'lchang.
O'ngdan chapga orqaga o'tishni bajaring va backpropagation

yordamida xatoni har bir alohida tugunga tarqating. Har bir vaznning xatoga
qo'shgan hissasini hisoblang va gradient tushish yordamida og'irliklarni mos
ravishda sozlang. Xato gradyanlarini oxirgi qatlamdan boshlab qayta
tarqating.
Gradient kelib chiqishi bilan Backpropagation tom ma'noda chuqur
o'rganish modellari ortidagi "sehr" dir. Bu juda uzoq mavzu va ba'zi hisob-
kitoblarni o'z ichiga oladi, shuning uchun biz ushbu amaliy chuqur o'rganish
seriyasining o'ziga xos xususiyatlariga kirmaymiz. Gradient tushishini
batafsil tushuntirish uchun bu 
erga
murojaat qiling. Backpropagation-ning
asosiy ko'rinishi bu 
erda
 mavjud. Batafsil matematik davolash uchun bu 
erda
 va bu 
erda
 murojaat. Va yanada rivojlangan optimallashtirish algoritmlari
uchun bu 
erga
 murojaat qiling.
Standart ML dunyosida ushbu oldinga yo'naltirilgan arxitektura ko'p 

Download 388.98 Kb.

Do'stlaringiz bilan baham:
  1   2




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling