Pythonda neyral
Download 116.34 Kb.
|
Nejronnye.seti.na.Python KARAS (1)
Ko'p qatlamli perseptronda hisoblash
Agar biz ko'proq qatlamlarni olsak, biz ko'p qatlamli neyron tarmoqni yoki ko'p qatlamli perseptronni olamiz, bu erda har bir oldingi qatlamning chiqishi kirish hisoblanadi. Machine Translated by Google keyingi qatlam uchun ma'lumotlar. Bunday tarmoqdagi hisob-kitoblarni quyidagi takrorlanish munosabati sifatida ifodalash mumkin: =( ÿ ÿ + ), = ( ), bu erda model parametrlariga bog'liq bo'lgan funktsiya (neyronlarni bog'laydigan og'irliklar va moyilliklarga). Neyron tarmog'imizdagi qatlamlar qanchalik ko'p bo'lsa, uning oraliq tasviri shunchalik murakkab va kirish va chiqish ma'lumotlari o'rtasidagi bog'liqlik shunchalik murakkabroq bo'ladi. Qaysi faollashtirish funksiyasidan foydalanish kerak Faollashtirish funksiyasining asosiy xususiyati uning chiziqli emasligidir. Agar biz chiziqli funktsiyadan foydalangan bo'lsak, birinchidan, kirish va chiqish ma'lumotlari o'rtasidagi bog'liqlik chiziqli funktsiya bilan tavsiflanadigan tor toifadagi muammolarni hal qilishimiz mumkin edi, ikkinchidan, yashirin qatlamlar sonining ko'payishi oshmaydi. modelimizning samaradorligi, chunki chiziqli funktsiyalarning tarkibi hali ham chiziqli funktsiyadir. Faollashtirish funktsiyasining vazifasi neyronlarning har birida mahalliy qaror qabul qilishga yordam berishdir. Masalan, sigmasimon funktsiya neyronning chiqish qiymatlarini noldan kattaroq yoki undan kichikroqqa ko'rsatadi. ReLU funktsiyasi noldan kichik qiymatlarni nolga aylantiradi va noldan katta qiymatlarni avvalgidek qoldiradi. Bu funksiya juda oddiy hosilaga ega, ya'ni bu funksiyaning hosilasi o'quv jarayonida va orqaga tarqalish algoritmida ishtirok etadi. Neyron tarmoqni qanday o'rgatish kerak Neyron tarmoqlar nazorat ostida o'rganish deb ataladigan usul yordamida o'qitiladi. Buning uchun o'quv namunasi - etiketli ma'lumotlar kerak bo'ladi, ular "kirish ob'ekti - chiqish ob'ekti" juftlaridan iborat. Biz ushbu o'quv namunasini o'quv jarayoniga kiritamiz, bu bizning neyron tarmog'imiz biz bilgan javoblarni to'g'ri bashorat qilish uchun modelning bunday pa(vramznelatrrlianrii)ni topishdan iborat. Shunday qilib, o'quv jarayoni bizning o'quv namunamizdagi misollar yordamida xato funktsiyasini minimallashtirish yoki optimallashtirish muammosini hal qilish uchun qisqartiriladi. Xato funksiyasi turli yo'llar bilan yozilishi mumkin. Misol uchun, = ÿ ÿ ( )ÿ 2 ÿ , = argmin ( ( )), bu erda ( - ( )) - to'g'ri javob va tarmoq prognozi ( ) o'rtasidagi farq. Ushbu farqdan biz butun bo'ylab minimallashtirishni istagan me'yorni olamiz ta'lim namunasi. Keyin biz ushbu xatolikni kamaytiradigan model parametrlarini qidiramiz. Dastlab, modelning og'irliklari tasodifiy bo'lishi uchun ishga tushiriladi. qiymatlar. Machine Translated by Google Download 116.34 Kb. Do'stlaringiz bilan baham: |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling