12 mavzu. Sun’iy neyron tarmoqlariga kirish. Bir va ko’p sathli neyron tarmoqlari va ularning turlari
Ko’p sathli perseptron orqali regressiya va sinflashtirish masalasini yechish (Rozenblatt perseptroni)
Download 1.67 Mb.
|
12-mavzu (SNTga kirish)
- Bu sahifa navigatsiya:
- Perseptron deb
12.8. Ko’p sathli perseptron orqali regressiya va sinflashtirish masalasini yechish (Rozenblatt perseptroni)
Perseptron ta’rifi. Perseptron binarli kirish signallari yordamida obyektlarni ikkita sinfga ajratish masalasini yechishi kerak. Kirish signallari naborini n-o’lchovli x vektori bilan belgilaymiz. Vektorning barcha elementlari «Chin(1)» yoki «Yolg’on(0)» mantiqiy o’zgaruvchilarni qabul qiluvchi elementlar hisoblanadi. Perseptron deb-quyidagi funksiyaning qiymatini hisoblovchi qurilmaga aytiladi [2]: , bu yerda - perseptron vazni, θ - chegaraviy qiymat (porog), - kirish signallarining qiymatlari, -qavs mantiqiy o’zgaruvchilarning «Chin» yoki «Yolg’on» qiymatlaridan 0 yoki 1 sonli qiymatlarga o’tishni bildiradi. Perseptronning kirish signallari sifatida barcha tarmoqlarning kirish x signallari va boshqa perseptronlarning chiqish signallari qatnashishi mumkin. Doimiy kirish signalini qo’chimcha kiritib va e’tiborga olib perseptronni quyidagi ko’rinishda yozish mumkin: Korinib turibdiki, ushbu ifoda chegaraviy qiymatli chiziqlimas almashtirgichli bitta neyron bilan hisoblanadi. Neyronlarning shunday bir nechta qatlamlari tizmasi (kaskad) ko’pqatlamli perseptron deb ataladi. Endi perseptronning ba’zi bir xossalarini qaraymiz. Perseptronning batafsil tavsifi va ifodasi [2] ishda keltirilgan. Rozenblatt perseptroni [2] tarixiy birinchi o’rgatuvchi NT hisoblanadi. Perseptronning bir nechta turlari mavjud (12.30 va 12.31-rasmlar). Klassikli perseptronni, ya’ni chegaraviy qiymatli neyronlarga va kirish signallari qiymati no’l yoki birga teng bo’lgan tarmoqni qaraymiz. [2] ishda keltirilgan natijalarga muvofiq tarmoqlarning strukturasiga quyidagi chegaralarni kiritish mumkin. Barcha sinaptikli (kirish) vaznlar butun sonlardan iborat bo’lishi mumkin. Ko’pqatlamli perseptron o’zining imkoniyatlari bo’yicha ikkiqatlamliga ekvivalent bo’ladi. Barcha neyronlar sinapsga ega bo’lib, ushbu sinapslarga doimoi birlik signal uzatiladi. Ushbu sinapsning vaznini bundan keyin chegaraviy qiymat (porog) deb ataymiz. Birinchi qatlamning har bir neyroni barcha bog’lanishli aloqalarda kirish signallaridan chiquvchi va minus ishora bilan olingan hamda ikkiga kamaytirilgan chegaraviy qiymati kirish signallarining summatorlar soniga teng bo’lgan bitta sinaptikli vaznga ega bo’ladi. Shunday qilib, obyektlarni anglab olishga o’rgatmaydigan birinchi qatlamni o’z ichiga olgan ikkiqatlamli perseptronlar bilan chegaralanish mumkin. Ta’kidlaymizki, to’la birinchi qatlamni qurish uchun 2n ta neyronlardan foydalanish talab qilinar edi, bu yerda n - perseptronning kirish signallari to’plami. 12.32а-rasmda kirish signallarining uch o’lchovli vektori uchun to’liq perseptronning sxemasi keltirilgan. Albatta n ning yetarli katta qiymatlarida bunday tarmoqlarni qurish mumkin bolmaganligi uchun bu holda birinchi qatlamning ba’zi neyronlar to’plamostilaridan foydalaniladi. Bunday to’plamostilari sonini faqat masalani to’liq yechib bo’lgandan keyin aniqlash mumkin. Odatda foydalaniladigan to’plamostilari tadqiqotchi tomonidan qandaydir mazmunli mulohazalar asosida yoki tavakkal ravishda tanlanadi. Perseptronni o’rgatishning klassikli algoritmi Xebba qoidasining xususiy holi hisoblanadi [1]. Perseptronni birinchi qatlamining vaznlar aloqasi obyektlarni anglab olishda o’rgatuvchi hisoblanmaganligi uchun ikkinchi qatlam neyronining vaznini bundan keyin vaznlar deb ataymiz. Ta’kidlaymizki, agar perseptronga birinchi sinfning obyekti kelib tushsa, u holda perseptron chiqishda nol(0)li signal, agarda obyekt ikkinchi sinfdan kelib tushsa-bir(1)li signal berishi kerak. Рис.12.32. Rozenblatt perseptroni ikkinchi qatlamining to’g’ri va teskari ishlashi. Perseptronni obyektlarni anglab olishga o’rgatish algoritmi. Barcha vaznlarni nolga teng deb olamiz. Obyektlarni taqdim qilish siklini o’tkazamiz. Har bir obyekt uchun quyidagi protsedura bajariladi. 2.1. Agar perseptron tarmoq no’g’ri javobni bersa, u holda 2.4-qadamga o’tiladi. 2.2. Agar perseptron chishida bir kutilib, lekin nol olinsa, u holda vaznlar aloqasidan birli signal o’tganligi uchun u bittaga kamaydi. 2.3. Agar perseptron chishida nol kutilib, lekin bir olinsa, u holda vaznlar aloqasidan birli signal o’tganligi uchun u bittaga ko’payadi. 2.4. Navbatdagi obyektga o’tiladi. Agar o’rganiluvchi obyektlar to’plami tugasa, u holda 3-qadamga, aks holda 2.1-qadamga qaytiladi. Agarda algoritmning ikkinchi qadami bajarilishi jarayonida 2.2 yoki 2.3-qadam kamida bir marta bajarilsa va sikllanish roy bermasa, u holda 2-qadamga o'tiladi. Aks holda perseptronni obyektlarni anglab olishga o’rgatish jarayoni tugagan deb hisoblanadi. Bu algoritmda o’rgatishning siklanish mexanizmidan qutilish masalasi qaralmagan. Bu mexanizmni turlicha ifodalash mumkin. Qo’shimcha xotiradan foydalanish ma’nosida eng samarali hisoblangan algoritm quyidagi ko’rinishda bo’ladi. k=1; m=0.Vaznlar aloqasi xotirada saqlanadi. Obyektlarni kiritish siklidan keyin vaznlar aloqasini xotirada saqlangan vaznlar bilan taqqoslanadi. Agar joriy obyektning vazn xotirada saqlangan obyektlar vaznlar bilan mos tushsa, u holda sikllanish roy beradi. Aks holda 3-qadamga o’tiladi. m=m+1. Agar m k=2k; m=0. Vaznlar aloqasi xotirada saqlanadi va 2-qadamga o’tiladi. Sikl uzunligi chegaralanganligi uchun k ning yetarli katta qiymatida sikllanish jarayoni aniqlanadi Perseptron tarmoqining teskari ishlashidan foydalanish uchun algoritmning 2-qadamini quyidagi ko’rinishda yozish mumkin. 1. k=1; m=0. Vaznlar aloqasi xotirada saqlanadi. 2. Obyektlarni taqdim qilish siklini o’tkazamiz. Har bir obyekt uchun quyidagi protsedura bajariladi. 2.1. Agar perseptron tarmoqi to’g’ri javobni bersa, u holda 2.5-qadamga o’tiladi. 2.2. Agar perseptron chishida bir kutilib, lekin no’l olinsa, u holda teskari ishlashda tarmoqning chiqishida .beriladi. 2.3. Agar perseptron chishida nol kutilib, lekin bir olinsa, u holda teskari ishlashda tarmoqning chiqishida beriladi. 2.4. Qadamni birlik parametrlar bilan amalga oshiriladi.. 2.5. Navbatdagi oyektga o’tiladi. Agar o’rganiluvchi obyektlar to’plami tugasa, u holda 3-qadamga, aks holda 2.1-qadamga qaytiladi. 3. m=m+1. Agar m 4. k=2k; m=0. Vaznlar aloqalari xotirada saqlanadi va 2-qadamga o’tiladi. 12.32v-rasmda perseptron ikkinchi qatlami neyronining teskari ishlash sxemasi keltirilgan. Ushbu neyronning kirish signallari qiymatlari no’lga yoki birga teng bo’lishini hisobga olib boshlang’ich algoritmga o’xshash algoritmni hosil qilamiz. Ta’kidlaymizki, perseptronni obyektlarni anglab olishga o’rgatishda birinchi marta vaznlar aloqasidan iborat birinchi qatlamda obyektlarni anglab olishga o’rgatmaydigan parametrlarga duch kelindi. Download 1.67 Mb. Do'stlaringiz bilan baham: |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling