bob sun’iy neyron modeli. Perseptron modeli


Download 1.32 Mb.
bet1/3
Sana30.04.2023
Hajmi1.32 Mb.
#1412618
  1   2   3
Bog'liq
Mundarija


Mundarija:
2-BOB Sun’iy neyron modeli.
2.1 Perseptron modeli;
2.2 Perseptron arxitekturasi;
2.3 Bolstman mashinasi;
2.4 Perseptronni o’rgatish;

Perseptron modeli


Perceptron-yoki perceptron (inglizcha perceptron lotincha perceptio — idrok) - 1957 yilda Frank Rozenblat tomonidan taklif qilingan va birinchi marta Mark-1 elektron ko’rinishida amalga oshirilgan miya tomonidan axborotni idrok etishning
matematik yoki kompyuter modeli (miyaning kibernetik modeli). 1960 yilda mashina.
Prinston universitetini tugatgach, F.Rozenblatt Kornel aviatsiya laboratoriyasiga ishga joylashdi. 1959 yilda u psixologiya bo'limida o'qituvchi bo'lib ishlagan holda Kornel kampuslaridan birida kognitiv tizimlar tadqiqot dasturi direktori lavozimini egalladi. 1958-1960 yillarda Kornel universitetida Mark-1 hisoblash tizimini yaratdi. Bu eng oddiy vazifalarni o'rganishga qodir birinchi neyrokompyuter bo'lib,
Rosenblatt uch yil ichida ishlab chiqqan perceptron neyron tarmog'iga qurilgan.
yillar oldin. Rosenblattning perseptroni dastlab IBM 704 kompyuterida dasturiy taÿminotda modellashtirilgan edi.Perseptron tipidagi neyron tarmoqlarni o’rganish orqali Rosenblatt “barcha axborotni qayta ishlash tizimlari, jumladan, mashinalar va
inson ongi uchun umumiy bo’lgan tashkilotning asosiy qonunlarini tushunishga” umid qilgan.
Perseptronning ishi miya tomonidan axborotni qabul qilishning matematik modeliga asoslangan. Turli tadqiqotchilar buni boshqacha ta'riflaydilar. Eng umumiy shaklda (Rozenblatt tomonidan ta'riflanganidek) u uch xil turdagi elementlar tizimini ifodalaydi: sensorlar, assotsiativ elementlar va reaksiyaga kirishuvchi elementlar.



Birinchi bo'lib S-elementlar ishlaydi. Ular ham bo'lishi mumkin
dam olish holati (signal 0 ga teng) yoki qo'zg'alish holatida (signal 1 ga teng). Birinchi bo'lib S-elementlar ishlaydi. Ular ham bo'lishi mumkin
dam olish holati (signal 0 ga teng) yoki qo'zg'alish holatida (signal 1 ga teng). elementlar, ular assotsiativ elementlar deb ham ataladi. Bir qavatli perseptronning asosiy xususiyati shundaki, har bir S elementi yagona A-elementga mos keladi, barcha SA ulanishlari 1 ga teng vaznga ega. Agar A-elementda qabul qilingan signallar yig'indisi uning chegarasining bir qismidan oshib ketgan bo'lsa th = 1, keyin bu element hayajonlanadi va 1 ga teng signal hosil qiladi. Aks holda (S-elementlardan signal A-elementning chegarasidan oshmagan), nol hosil bo'ladi. A-elementlar assotsiativ deb ataladi, chunki A-elementlar sensorli elementlardan signallarni yig'uvchidir.
Misol uchun, bizda sensorlar guruhi mavjud bo'lib, ularning har biri o'rganilayotgan rasmdagi "M" harfining bir qismini taniydi. Biroq, faqat ularning kombinatsiyasi (ya'ni, bir nechta sensorlar 1 ga teng signal berganida) butun A-elementni qo'zg'atishi mumkin. A-element boshqa harflarga javob bermaydi, faqat "M" harfiga javob beradi. Ya'ni, u "M" harfi bilan bog'liq. Boshqa misollarni keltirish mumkin. Bizning ko'zlarimiz tushayotgan yorug'likni ushlaydigan aql bovar qilmaydigan miqdordagi (taxminan 140 million) S-elementlardan (datchiklar) iborat. Va yuzning ma'lum bir qismini taniydigan qandaydir A elementi mavjud. Va bu erda biz ko'chada bir odamni ko'rmoqdamiz. Yuzning ma'lum qismlarini tanigan ba'zi A-elementlar hayajonlandi.
Boshqa misollarni keltirish mumkin. Bizning ko'zlarimiz tushayotgan yorug'likni ushlaydigan aql bovar qilmaydigan miqdordagi (taxminan 140 million) S-elementlardan (datchiklar) iborat. Va yuzning ma'lum bir qismini taniydigan qandaydir A elementi mavjud. Va bu erda biz ko'chada bir odamni ko'rmoqdamiz. Yuzning ma'lum qismlarini tanigan ba'zi A-elementlar hayajonlanadi.

R-element A-elementlarining og'irlikdagi signallarini birlashtiradi va agar ma'lum chegaradan oshib ketgan bo'lsa, 1 ga teng chiqish signalini hosil qiladi. Bu shuni anglatadiki, ko'zdan umumiy ma'lumot oqimida biz insonning yuzini taniymiz.
Agar chegara oshib ketmasa, perseptronning chiqishi -1 ga teng. Ya'ni, biz umumiy ma'lumot oqimidan bir odamni ajratmadik. R-element perseptronning chiqishini bir butun sifatida aniqlaganligi sababli, uni reaktiv deb atashgan.
Neyronning joriy holati uning kirishlarining vaznli yig'indisi sifatida aniqlanadi. Sinapsning kirish qismidagi qiymat ushbu sinapsning og'irligiga ko'paytiriladi, so'ngra barcha qiymatlar yig'iladi va biz neyronning hozirgi holatini olamiz. Jismoniy jihatdan, vazn sinaptik aloqa - bu sinapsning elektr o'tkazuvchanligi.

Shunday qilib, bir qatlamli perseptronning bir qismi (rasmda qora to'rtburchaklar bilan ta'kidlangan) sun'iy neyron sifatida ifodalanishi mumkinligi aniq bo'ladi. Sun'iy neyronda Selementlari yo'q; bir qatlamli perseptronda S-elementlar va A-elementlar faqat 0 va 1 ning belgilangan qiymatlarini olishlari mumkin, sun'iy neyronda esa bunday cheklovlar yo'q.

Neyron tarmoqlar so'zning odatiy ma'nosida dasturlashtirilmagan , ular o'qitilgan. O'rganish qobiliyati neyron tarmoqlarning an'anaviy algoritmlarga nisbatan asosiy afzalliklaridan biridir . Texnik jihatdan o'rganish neyronlar orasidagi bog'lanish
koeffitsientlarini topishdan iborat . O'quv jarayonida neyron tarmoq kompleksni aniqlay oladi natija o'quv namunasida etishmayotgan ma'lumotlarga,
shuningdek to'liq bo'lmagan va / yoki "shovqinli", qisman buzilgan ma'lumotlarga asoslangan. kirish va chiqish o'rtasidagi bog'liqlik va umumlashtirish. Bu
shuni anglatadiki, muvaffaqiyatli trening taqdirda tarmoq to'g'ri olish imkoniyatiga ega bo'ladi Treningdan so'ng perseptron tanib olish yoki umumlashtirish rejimida ishlashga tayyor. Bu rejimda idrok etuvchi avval noma'lum ob'ektlar bilan taqdim etiladi va perseptron ularning qaysi sinfga mansubligini aniqlashi kerak.
Sun'iy neyron tarmoqlarda neyronning faollashuv funktsiyasi chiqish signalini aniqlaydi, kirish signali yoki kirish signallari to'plami bilan aniqlanadi. Standart kompyuter chipini kirishga qarab "ON" (1) yoki "OFF" (0) bo'lishi mumkin bo'lgan faollashtirish funktsiyalarining raqamli tarmog'i sifatida ko'rish mumkin. Bu neyron tarmoqlardagi chiziqli perseptronning xattiharakatiga o'xshaydi. Biroq, faqat chiziqli bo'lmagan funktsiyalar faollashtirish bunday tarmoqlarga unchalik katta bo'lmagan muammolarni hal qilish imkonini beradi tugunlar. Sun'iy neyron tarmoqlarda bu funksiya uzatish funktsiyasi deb ham ataladi.

Faollashtirish funktsiyasi boshqa shaklda bo'lishi mumkin:

  1. funktsiya bitta sakrash;

  2. chiziqli chegara (gisterezis);

Har bir funktsiyaning o'ziga xos xususiyati borxususiyatlari, afzalliklari va kamchiliklari. hech biri funktsiyalar universal emas, yagona qachon foydalanish kerakligini ayting chiziqli rektifikator, sigmasimon yokigiperbolik tangens, mumkin emas. Funktsiyaning ba'zi xususiyatlarini bilish, taxminiy bo'lishi kerak bo'lgan, faollashtirish funksiyasini tanlang kerakli funksiyani iloji boricha yaqinlashtiradi aniq va tez o'rganishga olib keladi.

Masalan, chiziqli funktsiya ikkilik javobni emas, balki bir qator qiymatlarni olish imkonini beradi. Agar ularning barchasi chiziqli tabiatga ega bo'lsa, unda oxirgi qatlamdagi yakuniy faollashtirish funktsiyasi oddiygina birinchi qatlamdagi kirishlarning chiziqli funktsiyasi bo'ladi, ya'ni. qatlamlar to'plamini yaratish qobiliyati yo'qoladi. Sigmoid tabiatan chiziqli emas va bunday funktsiyalarning kombinatsiyasi chiziqli bo'lmagan funktsiyani ham hosil qiladi. Uni tasniflash masalalarida qo'llash yaxshidir. Masalan, sigmasimonlar birikmasi orqali tasniflash funksiyasini yaqinlashtirish ReLU dan foydalanishga qaraganda osonroq amalga oshirilishi mumkin. Giperbolik tangens sigmasimon bilan bir xil xususiyatlarga ega . Bu funksiya ham chiziqli emas, u qatlam birikmalari uchun juda mos keladi. Shuning uchun, faollashtirish funktsiyasi katta qiymatlardan ortiqcha yuklanishidan tashvishlanishingiz shart emas. Ammo shuni ta'kidlash kerakki, tangensial funktsiyaning gradienti sigmasimondan kattaroqdir (hosilasi tikroq). Sigmasimon yoki tangensni tanlash to'g'risida qaror gradient amplitudasiga
qo'yiladigan talablarga bog'liq . ReLU funktsiyasi chiziqli funksiya bilan
bir xil muammolarga ega bo'lib tuyulishi mumkin , chunki u birinchi kvadrantda
chiziqli. Lekin aslida ReLU tabiatan chiziqli emas va ReLU kombinatsiyasi ham chiziqli emas. Bunday funktsiya yaxshi yaqinlashuvchidir. ReLU oddiy matematik operatsiyalarni bajargani uchun giperbolik tangens yoki sigmasimonga qaraganda hisoblash resurslariga kamroq talabchan . Shuning uchun, chuqur neyron tarmoqlarni yaratishda ReLU dan foydalanish mantiqan .


Yuqorida keltirilgan formulalarga qo'shimcha ravishda, boshqa ko'plab faollashtirish funktsiyalari mavjud, sun'iy intellekt sohasidagi tadqiqotchilar doimiy ravishda neyron tarmoqlarni yaxshilashning yangi usullarini, shu jumladan kirish signallarini qayta ishlashning mavjud usullari va usullarini o'zgartirishni izlaydilar. Ko'p qatlamli tarmoqlar yordamida murakkab muammolarni hal qilishda funktsiyalarni birlashtirish mumkin eng yuqori aniqlik va o'rganish tezligiga erishish uchun turli qatlamlar.



Download 1.32 Mb.

Do'stlaringiz bilan baham:
  1   2   3




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling