Oʻzaro tekshirish usuli bilan oʻrganish juyliklari toʻplami toʻgʻri ikki qismga boʻlingan deb


eng kam mavhum model - bu tizimning jismoniy nusxasi, odatda asl nusxadan farqli o'lchamdagi


Download 28.87 Kb.
bet8/8
Sana28.01.2023
Hajmi28.87 Kb.
#1135797
1   2   3   4   5   6   7   8
Bog'liq
intelekt hammasi bita xxx

eng kam mavhum model - bu tizimning jismoniy nusxasi, odatda asl nusxadan farqli o'lchamdagi

Model -

====

#

haqiqatning soddalashtirilgan tasviri yoki mavhumligi

KB ma'murlari uchun integratsiya maqsadi

====

#

birinchi navbatda ma'lumotlar bazasi texnologiyasida, lekin KBMS talablariga moslashtirilgan bir qator vositalarni taqdim etish

OLAP - Onlayn tahliliy ishlov berish

====

#

operativ analitik ishlov berish

Diagnostika tizimlari

====

#

tibbiyot, elektronika, mexanika va dasturiy ta'minot sohasidagi diagnostikani o'z ichiga oladi

Ekspertiza

====

#

muammoni hal qilish uchun o'rganish, o'qish va tajribadan olingan keng qamrovli, maxsus bilim

Ekspert tizimi

====

#

odatda inson tajribasini talab qiladigan muammolarni hal qilish uchun kompyuterga kiritilgan inson bilimlaridan foydalanadigan tizim

Teskari aloqasiz tarmoq tarmoq hisoblanadi

====

#

ba'zi bir neyronning chiqishidan bir xil neyronning kirishlariga yoki oldingi qatlamdagi neyronga o'tadigan sinaptik aloqalari yo'q.

Qaysi tarmoqlar xotiraning etishmasligi bilan tavsiflanadi?

====

#

fikr-mulohaza yo'q

Perseptronning kirishi

====

#

haqiqiy sonlardan tashkil topgan vektor

Ikki qavatli perseptron teoremasi shuni bildiradi

====

#

har qanday ko‘p qavatli perseptron ikki qavatli perseptron sifatida ifodalanishi mumkin

Ular buni o'rganish deb atashadi

====

#

vaznni sozlash tartibi

Agar neyron tarmoq o'qitiladi

====

#

o'quv kirishlarini bajarayotganda, u tegishli o'quv natijalarini ishlab chiqaradi

Perseptronning kirishiga a vektorini beramiz. Bunday holda, vazn qiymatlarini kamaytirish kerak

====

#

agar chiqish 1 bo'lsa, lekin sizga 0 kerak

Orqaga tarqalish algoritmi qachon tugaydi

====

#

xato signali belgilangan chegaradan pastga tushadi

Impuls usuli

====

#

vaznni tuzatishga oldingi vazn o'zgarishi miqdoriga mutanosib qiymat qo'shish

Tarmoq falaj qachon sodir bo'lishi mumkin

====

#

vazn qiymatlari juda katta bo'ladi

Agar tarmoq yashirin qatlamlarda juda ko'p sonli neyronlarga ega bo'lsa, u holda

====

#

tarmoqni qayta tayyorlash mumkin

Diskriminant funksiyasi deyiladi

====

#

kerakli sinf ob'ektlari joylashgan ob'ekt maydoni hududida bittaga va ushbu hududdan tashqarida nolga teng funktsiya

O'zaro tekshirish usuli bilan o'rganish juftliklari to'plami to'g'ri ikki qismga bo'lingan deb hisoblanadi, agar

====

#

operatsiya boshida o'qitish va nazorat qilish majmualarida tarmoq xatolari deyarli bir xil edi

Agar tarmoq ikkita oraliq qatlamni o'z ichiga olsa, u modellashtiradi

====

#

ikkinchi qatlamning har bir yashirin elementi uchun bitta konveks "tortishish"

Nazoratni o'zaro tekshirish mexanizmi

====

#

o'quv juftlarining bir qismini zaxiraga qo'yish va ulardan o'quv jarayonini mustaqil nazorat qilish uchun foydalanish

Agar qarama-qarshi tarmoqni o'rganish algoritmida x vektor tarmoq kirishiga berilgan bo'lsa, u holda kerakli chiqish bo'ladi.

====

#

x vektorining o'zi

Koxonenning neyroni "g'olib" deb hisoblanadi.

====

#

NET ning maksimal qiymati bilan

Agar berilgan Kohonen neyroni "g'olib" bo'lsa, uning qiymati OUT bo'ladi

====

#

birga teng

Akkreditatsiya usuli:

====

#

eng yuqori NET qiymatiga ega bo'lgan faqat bitta Kohonen neyronining faollashishi

Barqarorlikni saqlab qolishda mahalliy minimaldan qochish strategiyasi

====

#

og'irlik qiymatlarini o'zgartirishning katta boshlang'ich bosqichlari va bu bosqichlarning asta-sekin kamayishi

Qaysi algoritm uchun tarmoq falaji xavfliroq?

====

#

Koshi taqsimot algoritmi

Boltsmanni o'rganishda sun'iy harorat qanday rol o'ynaydi?

====

#

harorat pasayganda, kichikroq o'zgarishlar bo'lishi mumkin

Xopfild tarmog'i Hamming tarmog'i bilan almashtiriladi, agar:

====

#

tarmoq saqlangan naqshni aniq chiqarishga hojat yo'q

Inhibitor sinaptik ulanishlarning og'irlik qiymatlari qanday bo'lishi kerak?

====

#

oraliqdan teng qiymatlar (-1/n,0), bu erda n - bir qatlamdagi neyronlar soni

Sinapslarning simmetriyasini rad etish usuli quyidagilarga imkon beradi:

====

#

maksimal xotira hajmiga erishish

Boltzmann mashinasi usuli Xopfild tarmog'iga imkon beradi

====

#

mahalliy minimaldan saqlaning

DAP tarmog'i adaptiv if deb ataladi

====

#

tarmoq o'quv jarayonida o'z vaznlarini o'zgartiradi

Lotoral-ingibitor aloqasi qo'llaniladi

====

#

tanib olish qatlami ichida

Loteral inhibisyon jarayoni buni ta'minlaydi

====

#

tanib olish qatlamida faqat konvolyutsiyasi maksimal bo'lgan neyron ishdan chiqariladi

Agar o'quv jarayonida ba'zi vazn nolga qaytarilgan bo'lsa, unda

====

#

u hech qachon nol bo'lmagan qiymatni qayta olmaydi

Berilgan postsioptik neyronning ingibitor kirishining og'irligi oshishiga bog'liq

====

#

qo'zg'atuvchi presinoptik neyronning chiqish signali va uning qo'zg'atuvchi og'irligi

Perseptronning mashg'uloti qachon tugallangan hisoblanadi

====

#

chiqish xatosi etarlicha kichik bo'ladi

Perseptronni o'rganish algoritmi

====

#

nazorat ostida o'rganish algoritmi

Biz X ta'lim vektorini ishga tushiramiz. Qaysi holatda vazn qiymatlarini o'zgartirish kerak emas?

====

#

agar perseptron signali to'g'ri javobga mos kelsa

Perseptronni o'rganish algoritmini bajargandan so'ng, biz chekli qadamlar ichida perseptron berilgan vazifani o'rgana olmaydi, deb ayta olamizmi?

====

#

Ha

Berilgan chiqish neyronining xato signali deyiladi:

====

#

neyron chiqishi va uning maqsadli qiymati o'rtasidagi farq

Konvergentsiyani tezlashtirish usuli:

====

#

ikkinchi tartibli hosilalardan foydalanish

Agar ikkita namuna juda o'xshash bo'lsa, unda:

====

#

ular o'zaro bog'lanishlarga olib kelishi mumkin

Qayta aloqaning yo'qligi kafolatlanadi:

====

#

tarmoq barqarorligi

Boltzmanning umumlashtirilgan mashinani o'rganish algoritmida mahkamlangan ehtimolliklarni hisoblash quyidagilardan keyin boshlanadi:

====

#

barcha trening juftliklarini ishga tushirgandan so'ng

Analog-raqamli konvertorda og'irlik qiymatlari quyidagicha izohlanadi:

====

#

qarshilik

Agar kirish vektori saqlangan tasvirlardan biriga mos kelsa, u holda:

====

#

bir neyron tanib olish qatlamida yonadi

Agar mashg'ulot jarayonida ART tarmog'ining kirishiga o'quv vektorlarining takroriy ketma-ketligi berilsa, u holda:

====

#

cheklangan miqdordagi mashg'ulotlardan so'ng, o'quv jarayoni barqarorlashadi

Statistik o'rganish algoritmlarida ikkita neyron o'rtasidagi sinoptik aloqaning o'zgarishi miqdori quyidagilarga bog'liq:

====

#

tasodifiy o'zgaradi

Bir neyronli perseptron bilan umumiy makonning o'lchami aniqlanadi

====

#

kirish vektorining uzunligi

Bir qavatli perseptron quyidagi muammolarni hal qiladi:

====

#

funksiyalarning yaqinlashishi

Perseptronning aylanish teoremasi quyidagilarni bildiradi:

====

#

agar bu vazifani perseptron bilan ifodalash mumkin bo'lmasa, u holda o'rganish algoritmi tsiklga aylanadi

Ko'p qatlamli perseptronning barcha neyronlarini o'rgatish mumkinmi?

====

#

faqat oxirgi qatlamning neyronlari

O'zaro tekshirish usuli bilan tarmoq qayta tayyorlashni boshlagan deb hisoblanadi, agar:

====

#

boshqaruv to'plamidagi tarmoq xatosi pasayishni to'xtatdi

O'rganishning deterministik usuli deyiladi:

====

#

tarmoqning ob'ektiv qiymatlariga qarab og'irliklarni ketma-ket tuzatishdan foydalanadigan usul

Tarmoq o'rganish algoritmidagi to'g'ri tasvirni "unutib qo'yishi" ehtimoli bormi?

====

#

Ha

Download 28.87 Kb.

Do'stlaringiz bilan baham:
1   2   3   4   5   6   7   8




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling