Reja: Sun'iy Neyron to'rlar
Download 389.48 Kb. Pdf ko'rish
|
1 2
Bog'liqSun\'iy neyron turlarini o\'rganish. Ortiqboyev Hayotjon
Sun’iy neyron to’rlarini o’rganish jarayonidagi falajlik sabablari Reja: Sun'iy Neyron to'rlar. 1. Sun'iy Neyron to'rlarni o’rganish. 2. Falajlik sabablari. 3. Sun'iy neyron tarmoqlari (ANN) quyidagi rasmga o'xshash ko'p qatlamli to'liq ulangan neyron tarmoqlardir. Ular kirish qatlami, bir nechta yashirin qatlamlar va chiqish qatlamidan iborat. Bir qatlamdagi har bir tugun keyingi qatlamdagi har bir boshqa tugunga ulanadi. Yashirin qatlamlar sonini ko'paytirish orqali tarmoqni chuqurroq qilamiz. Agar biz yashirin yoki chiqish tugunlaridan biriga kattalashtirsak, biz quyidagi rasmga duch kelamiz. Berilgan tugun o'z kirishlarining tortilgan yig'indisini oladi va uni chiziqli bo'lmagan faollashtirish funktsiyasi orqali o'tkazadi. Bu tugunning chiqishi, keyinchalik keyingi qatlamda boshqa tugunning kirishiga aylanadi. Signal chapdan o'ngga oqadi va yakuniy chiqish barcha tugunlar uchun ushbu protsedurani bajarish orqali hisoblanadi. Ushbu chuqur neyron tarmoqni o'rgatish barcha qirralar bilan bog'liq og'irliklarni o'rganishni anglatadi. Berilgan tugun uchun tenglama quyidagicha ko'rinadi. Chiziqli bo'lmagan aktivlashtirish funksiyasidan o'tgan erkli o'zgaruvchilarning tortilgan yig'indisi. U vektorli nuqta mahsuloti sifatida ifodalanishi mumkin, bu erda n-tugun uchun kirishlar soni. Men soddaligi uchun qiyshiq muddatini yozilmaydi. Bias-bu barcha tugunlarga kirish va har doim 1 qiymatiga ega. Bu faollashtirish funktsiyasining natijasini chapga yoki o'ngga siljitish imkonini beradi. Shuningdek, u modelga barcha kirish xususiyatlari 0 bo'lganda mashq qilishga yordam beradi. Agar bu hozir murakkab tuyulsa, siz noto'g'ri shartlarni e'tiborsiz qoldirishingiz mumkin. To'liqlik uchun yuqoridagi tenglama kiritilgan tarafkashlik bilan quyidagicha ko'rinadi. Hozircha biz oldinga o'tishni tasvirlab berdik, ya'ni kirish va chiqish qanday hisoblanganligini og'irliklari berilgan. Trening tugagandan so'ng, biz bashorat qilish uchun faqat oldinga o'tishni boshlaymiz. Ammo biz birinchi navbatda og'irliklarni o'rganish uchun modelimizni o'rgatishimiz kerak va mashg'ulot tartibi quyidagicha ishlaydi: Barcha tugunlar uchun og'irliklarni tasodifiy boshlang. Biz boshqa maqolada kashf etadi aqlli boshlash usullari bor. Har bir mashg'ulot misoli uchun joriy og'irliklar yordamida oldinga o'tishni bajaring va chapdan o'ngga o'tadigan har bir tugunning chiqishini hisoblang. Yakuniy chiqish-bu oxirgi tugunning qiymati. Yakuniy natijani o'quv ma'lumotlaridagi haqiqiy maqsad bilan Solishtiring va yo'qotish funktsiyasi yordamida xatoni o'lchang. O'ngdan chapga orqaga o'tishni bajaring va backpropagation yordamida xatoni har bir alohida tugunga tarqating. Har bir vaznning xatoga qo'shgan hissasini hisoblang va gradient tushish yordamida og'irliklarni mos ravishda sozlang. Xato gradyanlarini oxirgi qatlamdan boshlab qayta tarqating. Gradient kelib chiqishi bilan Backpropagation tom ma'noda chuqur o'rganish modellari ortidagi "sehr" dir. Bu juda uzoq mavzu va ba'zi hisob- kitoblarni o'z ichiga oladi, shuning uchun biz ushbu amaliy chuqur o'rganish seriyasining o'ziga xos xususiyatlariga kirmaymiz. Gradient tushishini batafsil tushuntirish uchun bu erga murojaat qiling. Backpropagation-ning asosiy ko'rinishi bu erda mavjud. Batafsil matematik davolash uchun bu erda va bu erda murojaat. Va yanada rivojlangan optimallashtirish algoritmlari uchun bu erga murojaat qiling. Standart ML dunyosida ushbu oldinga yo'naltirilgan arxitektura ko'p Download 389.48 Kb. Do'stlaringiz bilan baham: |
1 2
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling