Mavzu: C# da ichma-ich joylashgan sinflar
Download 1.29 Mb.
|
Perseptron modeli
Amerikalik neyrofiziolog Frenk Rozenblatt insonning idrok etish jarayonini taqlid qiluvchi qurilma sxemasini taklif qildi va uni “perseptron” deb atadi. Perseptron sensorli maydon bo'lgan fotoelementlardan elektromexanik xotira hujayralari bloklariga signallarni uzatdi. Bu hujayralar konnektivizm tamoyillariga muvofiq bir-biri bilan tasodifiy bog'langan. 1957 yilda Kornel aeronavtika laboratoriyasi IBM 704 kompyuterida perseptronni simulyatsiya qilishni muvaffaqiyatli yakunladi va ikki yildan so'ng, 1960 yil 23 iyunda Kornel universitetida birinchi neyrokompyuter Mark-1 namoyish etildi, u ingliz tilidagi ba'zi harflarni taniydi.Perseptronlar ko'pincha nazorat ostidagi o'quv muammolarini hal qilish uchun ishlatiladi: ular kirish / chiqish xususiyatlarining juftligi bo'yicha mashq qiladilar va ushbu ma'lumotlar o'rtasidagi korrelyatsiyalarni (ya'ni bog'liqliklarni) modellashni o'rganadilar. Trening xatoni minimallashtirish uchun model parametrlarini sozlashni o'z ichiga oladi (og'irliklar, noaniqliklar). Ushbu parametrlarni xatolik uchun tuzatish uchun orqaga tarqalish algoritmi qo'llaniladi va xatoning o'zi turli usullar bilan, jumladan standart og'ish (RMSE) ni hisoblash orqali hisoblanishi mumkin. Ko'p qatlamli perseptronlar kabi oldinga yo'naltirilgan tarmoqlar tennis yoki stol tennisiga o'xshaydi. Ular asosan ikki turdagi harakatlardan iborat: oldinga va orqaga. Bu taxminlar va javoblar o‘rtasidagi stol tennisi o‘yini, chunki har bir taxmin biz bilgan narsamizni sinovdan o‘tkazadi va har bir javob biz qanchalik xato qilganimizni bildiruvchi fikr-mulohazadir. Oldinga qadam qo'yganda, signal oqimi kirish qatlamidan yashirin bo'lganlar orqali chiqish qatlamiga o'tadi va chiqish qatlamida olingan yechim apriori ma'lum bo'lgan to'g'ri javob bilan taqqoslanadi. Murakkab funktsiyalarni differentsiallash qoidasidan foydalangan holda orqaga qadam qo'yganda, funktsiyaning qisman hosilalari, og'irlik koeffitsientlaridagi xatolar va egilishlar perseptron orqali teskari yo'nalishda tarqaladi. Ushbu farqlash akti bizga xato gradientini beradi, uning yordamida model parametrlarini sozlash mumkin, chunki ular MTni xato minimaliga bir qadam yaqinlashtiradi. Buni har qanday gradient optimallashtirish algoritmi, masalan, stokastik gradient tushishi yordamida amalga oshirish mumkin. Xato yo'qolguncha tarmoq ping-pong o'ynashda davom etadi. Bunday holda, ular aytganidek, konvergentsiya sodir bo'ladi. Download 1.29 Mb. Do'stlaringiz bilan baham: |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling