eng kam mavhum model - bu tizimning jismoniy nusxasi, odatda asl nusxadan farqli o'lchamdagi
Model -
|
====
|
#
|
haqiqatning soddalashtirilgan tasviri yoki mavhumligi
|
KB ma'murlari uchun integratsiya maqsadi
|
====
|
#
|
birinchi navbatda ma'lumotlar bazasi texnologiyasida, lekin KBMS talablariga moslashtirilgan bir qator vositalarni taqdim etish
|
OLAP - Onlayn tahliliy ishlov berish
|
====
|
#
|
operativ analitik ishlov berish
|
Diagnostika tizimlari
|
====
|
#
|
tibbiyot, elektronika, mexanika va dasturiy ta'minot sohasidagi diagnostikani o'z ichiga oladi
|
Ekspertiza
|
====
|
#
|
muammoni hal qilish uchun o'rganish, o'qish va tajribadan olingan keng qamrovli, maxsus bilim
|
Ekspert tizimi
|
====
|
#
|
odatda inson tajribasini talab qiladigan muammolarni hal qilish uchun kompyuterga kiritilgan inson bilimlaridan foydalanadigan tizim
|
Teskari aloqasiz tarmoq tarmoq hisoblanadi
|
====
|
#
|
ba'zi bir neyronning chiqishidan bir xil neyronning kirishlariga yoki oldingi qatlamdagi neyronga o'tadigan sinaptik aloqalari yo'q.
|
Qaysi tarmoqlar xotiraning etishmasligi bilan tavsiflanadi?
|
====
|
#
|
fikr-mulohaza yo'q
|
Perseptronning kirishi
|
====
|
#
|
haqiqiy sonlardan tashkil topgan vektor
|
Ikki qavatli perseptron teoremasi shuni bildiradi
|
====
|
#
|
har qanday ko‘p qavatli perseptron ikki qavatli perseptron sifatida ifodalanishi mumkin
|
Ular buni o'rganish deb atashadi
|
====
|
#
|
vaznni sozlash tartibi
|
Agar neyron tarmoq o'qitiladi
|
====
|
#
|
o'quv kirishlarini bajarayotganda, u tegishli o'quv natijalarini ishlab chiqaradi
|
Perseptronning kirishiga a vektorini beramiz. Bunday holda, vazn qiymatlarini kamaytirish kerak
|
====
|
#
|
agar chiqish 1 bo'lsa, lekin sizga 0 kerak
|
Orqaga tarqalish algoritmi qachon tugaydi
|
====
|
#
|
xato signali belgilangan chegaradan pastga tushadi
|
Impuls usuli
|
====
|
#
|
vaznni tuzatishga oldingi vazn o'zgarishi miqdoriga mutanosib qiymat qo'shish
|
Tarmoq falaj qachon sodir bo'lishi mumkin
|
====
|
#
|
vazn qiymatlari juda katta bo'ladi
|
Agar tarmoq yashirin qatlamlarda juda ko'p sonli neyronlarga ega bo'lsa, u holda
|
====
|
#
|
tarmoqni qayta tayyorlash mumkin
|
Diskriminant funksiyasi deyiladi
|
====
|
#
|
kerakli sinf ob'ektlari joylashgan ob'ekt maydoni hududida bittaga va ushbu hududdan tashqarida nolga teng funktsiya
|
O'zaro tekshirish usuli bilan o'rganish juftliklari to'plami to'g'ri ikki qismga bo'lingan deb hisoblanadi, agar
|
====
|
#
|
operatsiya boshida o'qitish va nazorat qilish majmualarida tarmoq xatolari deyarli bir xil edi
|
Agar tarmoq ikkita oraliq qatlamni o'z ichiga olsa, u modellashtiradi
|
====
|
#
|
ikkinchi qatlamning har bir yashirin elementi uchun bitta konveks "tortishish"
|
Nazoratni o'zaro tekshirish mexanizmi
|
====
|
#
|
o'quv juftlarining bir qismini zaxiraga qo'yish va ulardan o'quv jarayonini mustaqil nazorat qilish uchun foydalanish
|
Agar qarama-qarshi tarmoqni o'rganish algoritmida x vektor tarmoq kirishiga berilgan bo'lsa, u holda kerakli chiqish bo'ladi.
|
====
|
#
|
x vektorining o'zi
|
Koxonenning neyroni "g'olib" deb hisoblanadi.
|
====
|
#
|
NET ning maksimal qiymati bilan
|
Agar berilgan Kohonen neyroni "g'olib" bo'lsa, uning qiymati OUT bo'ladi
|
====
|
#
|
birga teng
|
Akkreditatsiya usuli:
|
====
|
#
|
eng yuqori NET qiymatiga ega bo'lgan faqat bitta Kohonen neyronining faollashishi
|
Barqarorlikni saqlab qolishda mahalliy minimaldan qochish strategiyasi
|
====
|
#
|
og'irlik qiymatlarini o'zgartirishning katta boshlang'ich bosqichlari va bu bosqichlarning asta-sekin kamayishi
|
Qaysi algoritm uchun tarmoq falaji xavfliroq?
|
====
|
#
|
Koshi taqsimot algoritmi
|
Boltsmanni o'rganishda sun'iy harorat qanday rol o'ynaydi?
|
====
|
#
|
harorat pasayganda, kichikroq o'zgarishlar bo'lishi mumkin
|
Xopfild tarmog'i Hamming tarmog'i bilan almashtiriladi, agar:
|
====
|
#
|
tarmoq saqlangan naqshni aniq chiqarishga hojat yo'q
|
Inhibitor sinaptik ulanishlarning og'irlik qiymatlari qanday bo'lishi kerak?
|
====
|
#
|
oraliqdan teng qiymatlar (-1/n,0), bu erda n - bir qatlamdagi neyronlar soni
|
Sinapslarning simmetriyasini rad etish usuli quyidagilarga imkon beradi:
|
====
|
#
|
maksimal xotira hajmiga erishish
|
Boltzmann mashinasi usuli Xopfild tarmog'iga imkon beradi
|
====
|
#
|
mahalliy minimaldan saqlaning
|
DAP tarmog'i adaptiv if deb ataladi
|
====
|
#
|
tarmoq o'quv jarayonida o'z vaznlarini o'zgartiradi
|
Lotoral-ingibitor aloqasi qo'llaniladi
|
====
|
#
|
tanib olish qatlami ichida
|
Loteral inhibisyon jarayoni buni ta'minlaydi
|
====
|
#
|
tanib olish qatlamida faqat konvolyutsiyasi maksimal bo'lgan neyron ishdan chiqariladi
|
Agar o'quv jarayonida ba'zi vazn nolga qaytarilgan bo'lsa, unda
|
====
|
#
|
u hech qachon nol bo'lmagan qiymatni qayta olmaydi
|
Berilgan postsioptik neyronning ingibitor kirishining og'irligi oshishiga bog'liq
|
====
|
#
|
qo'zg'atuvchi presinoptik neyronning chiqish signali va uning qo'zg'atuvchi og'irligi
|
Perseptronning mashg'uloti qachon tugallangan hisoblanadi
|
====
|
#
|
chiqish xatosi etarlicha kichik bo'ladi
|
Perseptronni o'rganish algoritmi
|
====
|
#
|
nazorat ostida o'rganish algoritmi
|
Biz X ta'lim vektorini ishga tushiramiz. Qaysi holatda vazn qiymatlarini o'zgartirish kerak emas?
|
====
|
#
|
agar perseptron signali to'g'ri javobga mos kelsa
|
Perseptronni o'rganish algoritmini bajargandan so'ng, biz chekli qadamlar ichida perseptron berilgan vazifani o'rgana olmaydi, deb ayta olamizmi?
|
====
|
#
|
Ha
|
Berilgan chiqish neyronining xato signali deyiladi:
|
====
|
#
|
neyron chiqishi va uning maqsadli qiymati o'rtasidagi farq
|
Konvergentsiyani tezlashtirish usuli:
|
====
|
#
|
ikkinchi tartibli hosilalardan foydalanish
|
Agar ikkita namuna juda o'xshash bo'lsa, unda:
|
====
|
#
|
ular o'zaro bog'lanishlarga olib kelishi mumkin
|
Qayta aloqaning yo'qligi kafolatlanadi:
|
====
|
#
|
tarmoq barqarorligi
|
Boltzmanning umumlashtirilgan mashinani o'rganish algoritmida mahkamlangan ehtimolliklarni hisoblash quyidagilardan keyin boshlanadi:
|
====
|
#
|
barcha trening juftliklarini ishga tushirgandan so'ng
|
Analog-raqamli konvertorda og'irlik qiymatlari quyidagicha izohlanadi:
|
====
|
#
|
qarshilik
|
Agar kirish vektori saqlangan tasvirlardan biriga mos kelsa, u holda:
|
====
|
#
|
bir neyron tanib olish qatlamida yonadi
|
Agar mashg'ulot jarayonida ART tarmog'ining kirishiga o'quv vektorlarining takroriy ketma-ketligi berilsa, u holda:
|
====
|
#
|
cheklangan miqdordagi mashg'ulotlardan so'ng, o'quv jarayoni barqarorlashadi
|
Statistik o'rganish algoritmlarida ikkita neyron o'rtasidagi sinoptik aloqaning o'zgarishi miqdori quyidagilarga bog'liq:
|
====
|
#
|
tasodifiy o'zgaradi
|
Bir neyronli perseptron bilan umumiy makonning o'lchami aniqlanadi
|
====
|
#
|
kirish vektorining uzunligi
|
Bir qavatli perseptron quyidagi muammolarni hal qiladi:
|
====
|
#
|
funksiyalarning yaqinlashishi
|
Perseptronning aylanish teoremasi quyidagilarni bildiradi:
|
====
|
#
|
agar bu vazifani perseptron bilan ifodalash mumkin bo'lmasa, u holda o'rganish algoritmi tsiklga aylanadi
|
Ko'p qatlamli perseptronning barcha neyronlarini o'rgatish mumkinmi?
|
====
|
#
|
faqat oxirgi qatlamning neyronlari
|
O'zaro tekshirish usuli bilan tarmoq qayta tayyorlashni boshlagan deb hisoblanadi, agar:
|
====
|
#
|
boshqaruv to'plamidagi tarmoq xatosi pasayishni to'xtatdi
|
O'rganishning deterministik usuli deyiladi:
|
====
|
#
|
tarmoqning ob'ektiv qiymatlariga qarab og'irliklarni ketma-ket tuzatishdan foydalanadigan usul
|
Tarmoq o'rganish algoritmidagi to'g'ri tasvirni "unutib qo'yishi" ehtimoli bormi?
|
====
|
#
|
Ha
|