Zbekiston respublikasi raqamli texnologiyalar vazirligi muhammad al-xorazmiy nomidagi


Download 324.54 Kb.
bet5/5
Sana24.01.2023
Hajmi324.54 Kb.
#1117260
1   2   3   4   5
Bog'liq
2 5368359118820092415

perseptron

Shakl 6. Perseptronning sxemasi
Perceptron ( inglizcha Perceptron ) - neyron tarmoqlarning eng oddiy turi. U sensorlar, assotsiativ va sezgir elementlardan tashkil topgan miya tomonidan axborotni idrok etishning matematik modeliga asoslanadi.
Tarix
Perseptron g'oyasini nevrolog Frenk Rozenblat taklif qilgan. U insonning idrok etish jarayonini taqlid qiluvchi qurilma sxemasini taklif qildi va uni “perseptron” (lotincha perceptio – sezgidan) deb atadi. 1960 yilda Rosenblatt ingliz alifbosining ba'zi harflarini taniy oladigan Mark-1 nomli birinchi neyrokompyuterni taqdim etdi.
Shunday qilib, perseptron neyron tarmoqlarning birinchi modellaridan biri , Mark-1 esa dunyodagi birinchi neyrokompyuterdir .
Tavsif
Perseptron miya tomonidan axborotni idrok etishning matematik modeliga asoslanadi. Turli tadqiqotchilar buni boshqacha ta'riflaydilar. Eng umumiy shaklda (Rozenblatt tomonidan tasvirlanganidek) u uch xil turdagi elementlar tizimini ifodalaydi: sensorlar, assotsiativ elementlar va reaksiyaga kirishuvchi elementlar.
Perseptronning ishlash printsipi quyidagicha:
Birinchi bo'lib S-elementlar ishlaydi. Ular tinch holatda bo'lishi mumkin (signal 0 ) yoki hayajonlangan (signal 1 );
Bundan tashqari, S-elementlardan signallar A-elementlarga SA deb ataladigan havolalar orqali uzatiladi. Bu munosabatlar faqat og'irliklarga ega bo'lishi mumkin -1 , 0 yoki 1 ;
Keyin SA zvenolari orqali o'tgan sensorli elementlardan signallar A-elementlarga tushadi, ular ham assotsiativ elementlar deb ataladi;
Bitta A-element bir nechta S-elementlarga mos kelishi mumkin;
Agar A-elementda qabul qilingan signallar jami bo'lsa, uning chegarasining bir qismidan oshsa , u holda bu A-element qo'zg'aladi va 1 ga teng signal hosil qiladi ;
Aks holda (S-elementlarning signali A-elementning chegarasidan oshmagan), nol signal hosil bo'ladi;
Bundan tashqari, ishlab chiqarilgan qo'zg'aluvchan A-elementlar to'g'risidagi signallar qo'shimchaga (R-element) yuboriladi, bu biz allaqachon bilamiz. Biroq, R-elementga o'tish uchun ular AR havolalari orqali o'tadilar, ular ham og'irliklarga ega (ular allaqachon SA havolalaridan farqli o'laroq har qanday qiymatlarni qabul qilishi mumkin);
R-element A-elementlaridan og'irlikdagi signallarni birlashtiradi va keyin
agar ma'lum bir chegara oshib ketgan bo'lsa, 1 ga teng chiqish signalini hosil qiladi ;
agar chegara oshib ketmasa, u holda perseptronning chiqishi -1 ga teng .
Perseptron elementlari uchun quyidagi nomlar qo'llaniladi:
S-elementlar sensorlar deb ataladi;
A-elementlar assotsiativ deyiladi;
R-elementlar reaktiv deyiladi.
Perseptronlarning tasnifi
Yashirin qatlamli perseptron ( elementar perceptron , eng. elementar perceptron ) har bir S, A va R elementlarning faqat bitta qatlamiga ega perseptrondir.
Single-layer perceptron (ing. Single-layer perceptron ) - perceptron, uning har bir S-elementi yagona A-elementga mos keladi, SA ulanishlari har doim og'irlikka ega 1 , har qanday A-elementning chegarasi esa 1 ga teng . Bir qatlamli perseptronning bir qismi sun'iy neyron modeliga mos keladi.
Uning asosiy xususiyati shundaki, har bir S-element yagona A-elementga mos keladi, barcha SA havolalari +1 ga teng vaznga ega va A elementlarning chegarasi 1 ga teng . Bir qavatli perseptronning kirishlar bo'lmagan qismi rasmda ko'rsatilganidek, sun'iy neyronga mos keladi. Shunday qilib, bir qatlamli perseptron - bu kirish sifatida faqat 0 va 1 ni qabul qiladigan sun'iy neyron .
Bir qavatli perseptron elementar perseptron ham bo'lishi mumkin, unda faqat bir qatlam S, A, R elementlar mavjud.
Rosenblatt ko'p qatlamli perseptron 1 dan ortiq A-elementlarni o'z ichiga olgan perseptrondir.
Rumelhart bo'yicha ko'p qatlamli perseptron (ing. Rumelhart multilater perceptron ) - Rosenblatt bo'yicha ko'p qatlamli perseptronning maxsus holati, ikkita xususiyatga ega:
SA havolalari ixtiyoriy og'irliklarga ega bo'lishi mumkin va AR havolalari bilan teng ravishda o'qitilishi mumkin;
Trening maxsus algoritm bo'yicha amalga oshiriladi, bu xatoni orqaga yoyish usuli bilan mashq qilish deb ataladi.
Perceptron tayyorlash
Perseptronni o'rgatish vazifasi, imkon qadar tez-tez o'quv namunasidagi qiymatga to'g'ri keladigan narsani tanlashdir (bu erda faollashtirish funktsiyasi). Qulaylik uchun, bepul atama bo'ylab sudrab ketmaslik uchun $x$ vektoriga qo'shimcha "virtual o'lcham" qo'shamiz va deb faraz qilamiz . Keyin bilan almashtirishingiz mumkin .
Ushbu funktsiyani o'rgatish uchun biz avval xato funksiyasini tanlashimiz kerak, keyin uni gradient tushishi bilan optimallashtirish mumkin . Noto'g'ri tasniflangan misollar soni ushbu nomzodga mos kelmaydi, chunki bu funktsiya bo'laklarga bo'linadi va juda ko'p uzilishlarga ega: u faqat butun son qiymatlarini oladi va noto'g'ri tasniflangan misollar sonidan boshqasiga o'tishda keskin o'zgaradi. Shuning uchun biz perseptron mezoni deb ataladigan boshqa funktsiyadan foydalanamiz : , bu erda og'irliklarga ega perseptron noto'g'ri tasniflaydigan misollar to'plami .
Boshqacha qilib aytganda, biz javoblarimizning to'g'ri javoblardan to'liq chetlanishini minimallashtiramiz, lekin faqat noto'g'ri yo'nalishda; to'g'ri javob xato funktsiyasiga hech qanday hissa qo'shmaydi. Bu yerga ko'paytirish mahsulotning belgisi har doim manfiy bo'lib chiqishi uchun zarur: agar to'g'ri javob -1 bo'lsa, idrok etuvchi musbat raqam berdi (aks holda javob to'g'ri bo'lar edi) va aksincha. Natijada, biz deyarli hamma joyda farqlanadigan qismli chiziqli funktsiyaga egamiz va bu etarli.
Endi biz gradient tushishi bilan optimallashtirishimiz mumkin. Keyingi bosqichda biz quyidagilarni olamiz: .
Algoritm quyidagicha - biz ketma-ket o'quv to'plamidan misollarni ko'rib chiqamiz va har biri uchun :
agar u to'g'ri tasniflangan bo'lsa, hech narsani o'zgartirmang;
va agar noto'g'ri bo'lsa, qo'shing .
Bunday holda, misoldagi xato aniq kamayadi, lekin, albatta, boshqa misollardagi xatolik bir vaqtning o'zida ko'paymasligiga hech kim kafolat bermaydi. Ushbu vaznni yangilash qoidasi perseptronni o'rganish qoidasi deb ataladi va bu Rosenblatt ishining asosiy matematik g'oyasi edi.
Ilova
Agar tasniflash ob'ektlari chiziqli bo'linish xususiyatiga ega bo'lsa, tasniflash masalalarini yechish:
Bashorat qilish va naqshni aniqlash:
Xulosa
Men ushbu mustaqil ishimni bajarish mobaynida sun'iy neyron tarmoqlari haqida qisqacha bo'lsa ham tushunchaga ega bo'ldim.
Shuningdek, sun'iy neyron tarmoqlarning turlari, hamda sun'iy neyronlarning jamiyatning rivojlanishidagi o'rni to'g'risida ma'lumotlarga ega bo'ldim.
Neyron tarmoqlarning, xususan, robototexnika sohasidagi keng tarqalgan tanqidi shundaki, ular haqiqiy hayotda ishlash uchun juda koʻp tayyorgarlikni talab qiladi. Potensial yechimlar misol boʻyicha tarmoq ulanishlarini oʻzgartirishda unchalik katta qadamlar qoʻymaydigan raqamli optimallashtirish algoritmidan foydalangan holda tasodifiy aralashtirib yuboriladigan oʻquv misollarini oʻz ichiga oladi, misollarni mini-toʻplamlar deb ataluvchi guruhlarda guruhlash va/yoki rekursiv eng kamini kiritish. CMAC uchun kvadratlar algoritmi.
Asosiy eʼtiroz shundaki, SNT neyronal funksiyani etarli darajada aks ettirmaydi. Biologik neyron tarmoqlarda bunday mexanizm mavjud boʻlmasa-da, orqaga tarqalish juda muhim qadamdir. Haqiqiy neyronlar tomonidan maʼlumot qanday kodlanganligi nomaʼlum. Sensor neyronlari sensor faollashishi bilan harakat potentsiallarini tez-tez yondiradi va ular bilan bogʻlangan motor neyronlari harakat potentsiallarini tez-tez qabul qilganda mushak hujayralari kuchliroq tortiladi.

FOYDALANILGAN ADABBIYTLAR.


Bhadeshia H. K. D. H. (1999). „Neural Networks in Materials Science“ (PDF). ISIJ International. 39-jild, № 10. 966–979-bet. doi:10.2355/isijinternational.39.966.
Bishop, Christopher M.. Neural networks for pattern recognition. Clarendon Press, 1995. ISBN 978-0-19-853849-3. OCLC 33101074.
Borgelt, Christian. Neuro-Fuzzy-Systeme : von den Grundlagen künstlicher Neuronaler Netze zur Kopplung mit Fuzzy-Systemen. Vieweg, 2003. ISBN 978-3-528-25265-6. OCLC 76538146.
Cybenko, G.V. „Approximation by Superpositions of a Sigmoidal function“,. Mathematics of Control, Signals, and Systems van Schuppen: . Springer International, 2006 — 303-314 bet. PDF
Dewdney, A. K.. Yes, we have no neutrons : an eye-opening tour through the twists and turns of bad science. New York: Wiley, 1997. ISBN 978-0-471-10806-1. OCLC 35558945.
Duda, Richard O.. Pattern classification, 2, Wiley, 2001. ISBN 978-0-471-05669-0. OCLC 41347061.
Egmont-Petersen, M.; de Ridder, D.; Handels, H. (2002). „Image processing with neural networks – a review“. Pattern Recognition. 35-jild, № 10. 2279–2301-bet. doi:10.1016/S0031-3203(01)00178-9.
Fahlman, S.; Lebiere, C „The Cascade-Correlation Learning Architecture“ (1991).
created for National Science Foundation, Contract Number EET-8716324, and Defense Advanced Research Projects Agency (DOD), ARPA Order No. 4976 under Contract F33615-87-C-1499.
Gurney, Kevin. An introduction to neural networks. UCL Press, 1997. ISBN 978-1-85728-673-1. OCLC 37875698.
Haykin, Simon S.. Neural networks : a comprehensive foundation. Prentice Hall, 1999. ISBN 978-0-13-273350-2. OCLC 38908586.
Download 324.54 Kb.

Do'stlaringiz bilan baham:
1   2   3   4   5




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling