16-amaliy ish. Miyadan meros olgan neyr tarmoqlarning xususiyatlari
-rasm.Domen xatti-harakatlari misollarini L o'quv to'plamiga, T test to'plamiga va P to'plamini tasdiqlashga bo'lish 2-rasm
Download 0.93 Mb.
|
4-Blok
1-rasm.Domen xatti-harakatlari misollarini L o'quv to'plamiga, T test to'plamiga va P to'plamini tasdiqlashga bo'lish
2-rasm.Yashirin neyronlar soniga N o'rganish xatosi EL va umumlashtirish (sinov) xatosi ET ning xarakterli bog'liqliklari E'tibor bering, o'rganish xatosi EL tarmoq o'qitilgan mavzu bo'yicha misollar bo'yicha hisoblanadi. Umumlashtirish xatosi eT bir xil mavzu bo'yicha misollar bo'yicha hisoblanadi, lekin tarmoq hech qachon "ko'rmagan". Shuning uchun eL va eT xatolar boshqa tabiatga ega va shunga mos ravishda boshqa xatti-harakatlarga ega. Perseptronning yashirin qatlamlarida N neyronlar soni ortishi bilan o'rganish xatosi eL odatda kamayadi, umumlashtirish xatosi ET avval kamayadi va keyin (yashirin qatlamdagi N = N0 neyronlarning qandaydir optimal sonidan boshlab) yana ortadi. Yashirin neyronlar soniga o'rganish va umumlashtirish xatolarining bog'liqligining xarakterli egri chiziqlari shaklda ko'rsatilgan. 6.2. 3-rasmBirinchi tartibli (1-egri chiziq), ikkinchi tartibli (2-egri chiziq) va beshinchi tartibli (3-egri chiziq) polinomlari yordamida domen maʼlumotlarini yaqinlashtirish. Ushbu egri chiziqlarning xatti-harakatlarini ma'lumotlar to'plamining polinomli eng kichik kvadratlari bilan taqqoslash yordamida osongina tushuntirish mumkin. Ma'lumki, yaqinlashish vazifasi mavzu sohasi nuqtalari bilan grafik tarzda ifodalangan naqshning tabiatini eng to'g'ri aks ettiruvchi ko'phadni tanlashdir. Shaklda. X koordinata tizimida ob'ekt sohasining ba'zi parametrlariga mos keladigan 6,3 nuqta tasvirlangan−yo'n ikkita qora va oq doira shaklida. Qora doiralar bilan belgilangan nuqtalar yaqinlashuvchi polinomlarning koeffitsientlarini aniqlashda ishlatilgan va oq doiralar bilan belgilangan nuqtalar ishlatilmagan, shuning uchun ular yaqinlashish sifatini baholash uchun ishlatilishi mumkin. Neyron tarmoq texnologiyalari nuqtai nazaridan, qora doiralarni o'qitish misollari deb atash mumkin, oq doiralarni esa sinovdan o'tkazish. 1-egri chiziq birinchi darajali ko'phad bilan, 2-egri chiziq ikkinchi darajali ko'phad bilan, 3-egri chiziq beshinchi darajali ko'phad bilan yaqinlashish natijasini tasvirlaydi. Rasmdan ko'rinib turibdiki, birinchi darajali ko'phaddan foydalanish predmet sohasining qonuniyatiga yaxshi yaqinlik bermaydi. Beshinchi darajali polinomga mos keladigan egri chiziq barcha qora doiralardan aniq o'tadi, ya'ni uning o'rganish xatosi eL nolga teng, oq test doiralari esa chetda qoladi, ya'ni test xatosi ET juda katta. Shuning uchun bu egri chiziq umumlashtirish xususiyatiga ega emas. Eng kichik test xatosi ET ikkinchi darajali egri chiziqqa ega bo'lib, u ma'lum bir mavzu uchun maqbuldir. Taqqoslashni yakunlab, shuni ta'kidlaymizki, neyron tarmoqlar, regressiya modellari kabi, mavzu sohasi nuqtalarini yaqinlashtiradigan funktsiyalarni quradi va har bir hal qilinayotgan masala uchun matematik model erkinlik darajalarining optimal qiymati mavjud. Polinom yaqinlashganda, erkinlik darajalari aniqlangan koeffitsientlardir (ularning soni ko'phadning tartibidan bittaga katta). Perseptronning erkinlik darajalari soni sinaptik og'irliklarning (va chegaralarning) umumiy soni bo'lib, u yashirin va chiqish qatlamlaridagi neyronlar soni bilan belgilanadi. Yashirin neyronlar sonining haddan tashqari ko'payishi bilan neyron tarmoqning umumlashtirish qobiliyatini yo'qotish xususiyati (erkinlik darajasi) haddan tashqari moslashish yoki giper o'lchov deb ataladi. Ushbu nazariy bilimlar bilan qurollangan holda, biz perseptronlarni loyihalash bo'yicha, ya'ni kirish neyronlari sonini, chiqish neyronlari sonini, yashirin qatlamlar sonini, yashirin qatlamlardagi neyronlar sonini tanlash bo'yicha ba'zi amaliy tavsiyalar beramiz. faollashtirish funktsiyalari turi. Perseptronning kirish neyronlari soni kirish parametrlari soniga mos kelishi kerak, ya'ni X vektorining o'lchami hal qilinayotgan muammoning shartlari bilan belgilanadi. Chiqish qatlamidagi neyronlar soni chiqish parametrlari soniga mos kelishi kerak, ya'ni chiqish vektorining o'lchami D, bu ham muammoning shartlari bilan belgilanadi. Perseptronning yashirin qatlamlari soni, Arnold-Kolmogorov-Gext-Nilsen teoremalariga ko'ra, kamida bitta bo'lishi kerak va yashirin qatlamlardagi neyronlar sigmasimon faollashuv funktsiyasiga ega bo'lishi kerak. Yashirin qatlamlardagi neyronlar sonini taxminan Arnold-Kolmogorov-Xext-Nilsen teoremasining (6.1), (6.2) xulosasi formulalari bilan hisoblash mumkin. Biroq, uni har bir aniq vazifa uchun, masalan, rasmdagi egri chiziqlarni qurish orqali takomillashtirish (optimallashtirish) maqsadga muvofiqdir. 6.2 va ularning yordami bilan N0 yashirin neyronlarning optimal sonini aniqlash. Arnold-Kolmogorov-Xext-Nilsen teoremalariga ko'ra, neyronlarning kamida bitta yashirin qatlamining faollashuv funktsiyalari sigmasimon shaklga ega bo'lishi kerak. Eng muhim holatlarda, L o'quv majmuasi va T test majmuasi bilan bir qatorda tasdiqlovchi deb ataladigan boshqa misollar to'plami hisobga olinadi va P harfi bilan belgilanadi (6.1-rasmga qarang). Ushbu to'plamning misollari ham ko'rib chiqilayotgan mavzuga tegishli, ammo ular treningda yoki tarmoqni sinab ko'rish va optimallashtirishda qatnashmaydi. Shuning uchun, tasdiqlovchi P to'plamining misollari bo'yicha hisoblangan ĵP bashorat qilish xatosi neyron tarmog'ining matematik modeli sifatini eng ob'ektiv baholashdir. Neyron tarmoqlarni loyihalash va ular bilan ishlash uchun neyrosimulyatorlar, neyrosimulatorlar, neyropaketlar deb ataladigan ko'plab maxsus dasturlar mavjud. Ushbu dasturlarning aksariyati avtomatik neyron tarmoqlarni optimallashtirish xususiyatlariga ega. Download 0.93 Mb. Do'stlaringiz bilan baham: |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling