Mirzo ulugʻbek nomidagi oʻzbekiston milliy


Download 371.13 Kb.
Sana18.06.2023
Hajmi371.13 Kb.
#1591640
Bog'liq
Jurabek Ergashev


OʻZBEKISTON RESPUBLIKASI OLIY TA’LIM, FAN VA INNOVATSIYALAR VAZIRLIGI
MIRZO ULUGʻBEK NOMIDAGI OʻZBEKISTON MILLIY
UNIVERSITETINING JIZZAX FILIALI
Axborot tizimlari va texnalogiyalari kafedrasi
Sun’iy intellekt va neyron toʻrli texnologiyalar fanidan
MUSTAQIL ISH
Mavzu: Avtoassotsiativ toʻrlar
Bajardi: 01-21-guruh Ergashev Joʻrabek
Tekshirdi: Ergashev Sirojiddin
JIZZAX 2023

Avtoassotsiativ toʻrlar


Reja:

  1. Avto-assotsiativ neyron tarmoqlari baholash modellarining aniqligini oshirish.

  2. Parametrik baholash modellari

  3. Baholash modelining aniqligi. Bashorat qilish modellari nuqtai nazaridan baholanish.

1. Avto-assotsiativ neyron tarmoqlari baholash modellarining aniqligini oshirish uchun Salvatore
A. Sarcia'1, Giovanni Cantone1 va Viktor R. Basili2,3 1DISP, Università di Roma Tor Vergata, del Politecnico 1 orqali, 00133 Rim, Italiya 2Dept. Merilend universiteti kompyuter fanlari boʻlimi, A.V. Uilyams Bldg. 115, 20742, College Park, Merilend, AQSH 3Fraunhofer Eksperimental dasturiy taʼminot muhandisligi markazi Merilend, 20742, College Park, Merilend, AQSH ASOSIY SHARTLAR bashorat qilish modellari, bashorat qilish modellari, egri chiziqli komponentlar tahlili, chiziqli boʻlmagan koʻrinishdagi tanlov, chiziqli boʻlmagan kontur. , Neyr tarmoqlari, avto-assotsativ nayr tarmoqlari, hisobot intelektsioni, dasturiy taminotlarni baholash, dasturiy ta’minot iqtisodiyoti dasturiy taminot muhandisligi
Dasturiy ta'minot oʻzgaruvchilarini yuqori aniqlik bilan bashorat qilish raqobatchi dasturiy ta'minot tashkilotlari uchun juda muhim masala boʻlishiga qaramay, u haligacha hal qilinmagan muammodir (Shepperd, 2007). Soʻnggi oʻttiz yil ichida juda koʻp turli xil bashorat modellari taklif qilindi (Shepperd, 2007). Oldindan belgilangan matematik funktsiyalar (masalan, FP-ga asoslangan funktsiyalar, COCOMO-I va COCOMO-II), kalibrlangan funktsiyalar (masalan, mahalliy ma'lumotlar boʻyicha regressiya tahliliga asoslangan funksiya), mashinalarni oʻrganish (masalan, analogiya boʻyicha baholash, tasniflash va boshqalar) mavjud. regressiya daraxtlari, sun'iy neyron tarmoqlari) va insonga asoslangan mulohazalar modellari. Ba'zi dasturiy ta'minot muhandisligi oʻzgaruvchisini bashorat qilishga qaratilgan koʻplab empirik tadqiqotlar mavjud (Myrtveit, 2005). Koʻpincha oʻzgaruvchi dasturiy ta'minot loyihasining narxi boʻlib, biz ushbu bobda tavsiflangan yondashuvning asosiy namunasi sifatida foydalanamiz. Ushbu bobda biz regressiya funktsiyalariga asoslangan parametrik baholash modellarining aniqligini oshirish uchun hisoblash razvedkasi texnikasini taqdim etamiz. Takomillashtirish texnikasi dasturiy ta'minot narxini baholash ma'lumotlari orqali aniqlanadi, sinovdan oʻtkaziladi va tasdiqlanadi (Sarcia, Cantone, & Basili, 2008). Xususan, ushbu bob COCOMO-81 loyihalari kontekstida log-chiziqli regressiya modellarining aniqligini oshirishga qodir boʻlgan texnikani taklif qiladi (Boehm, 1981; Shirobod, & Menzies, 2005). Matematik nuqtai nazardan, biz model oʻzgaruvchilarini oʻzgartirsak ham, masalan, nuqsonlar sonini bashorat qilish oʻrniga harakatni bashorat qilamiz yoki aksincha, baholash modelini takomillashtirish strategiyasi umuman oʻzgarmaydi. Bu shuni anglatadiki, biz takomillashtirish strategiyasini har qanday rivojlanish kontekstidagi har qanday oʻzgaruvchilar toʻplamiga oʻzgarishsiz qoʻllashimiz mumkin. Albatta, bu takomillashtirish texnikasi har qanday kontekstda muvaffaqiyatli boʻladi degani emas.
Shuni ta'kidlash kerakki, agar biz insoniy fikrlash orqali bashorat qilgan boʻlsak ham, baholashning aniqligini oshirish uchun biz mahalliy ma'lumotlarga moslashtirilgan parametrik modellarni yaratishimiz va ulardan tashkilotning oʻziga xos konteksti uchun qiziqish oʻzgaruvchilarini baholash uchun foydalanishimiz kerak edi. (McConnell, 2006). Masalan, unumdorlik (kod/vaqt qatorlari) tashkilot kontekstiga qarab oʻzgarishi mumkin (masalan, tahlilchilar va ishlab chiquvchilarning qobiliyati, dasturiy ta'minot tizimining murakkabligi, ishlab chiqish jarayonining muhiti). Gap shundaki, hatto mutaxassislar ham oʻzlari ishlayotgan kontekstdan mos ma'lumot toʻplash uchun regressiya funktsiyalaridan foydalanishlari kerak. Shuning uchun, baholash aniqligini oshirishda foydalaniladigan baholash modelidan tashqari, regressiya funktsiyalarini kalibrlash talab qilinadigan faoliyatdir. Bizning fikrimizcha, regressiya funktsiyalarining aniqligini oshirish har qanday baholash faoliyatining asosi hisoblanadi. Shuning uchun biz regressiya funktsiyalarini yaxshilashga e'tibor qaratamiz va boshqa yondashuvlar bilan shug'ullanmaymiz. Biz umumiy nuqtai nazarni taqdim etadigan kirish bilan boshlaymiz. Keyin, biz bir nechta fon eslatmalarini, kerakli atamalarni taqdim etamiz va muammoni aniqlaymiz. Biz amaliy nuqtai nazardan parametrik baholash modellari, koʻp qatlamli oldinga uzatiladigan neyron tarmoqlari va avtomatik assotsiativ neyron tarmoqlariga oid asosiy masalalarni taqdim etamiz. Biz muammoni hal qilishning empirik strategiyasini tasvirlaymiz (yechim). Biz metodologiyaning afzalliklari va kamchiliklarini muhokama qilish bilan yakunlaymiz va kelajakdagi tadqiqot yoʻnalishlari boʻyicha ba'zi fikrlarni taqdim etamiz
.
2. Parametrik baholash modellari .Biz nazarda tutgan baholash modellari 1-rasmda koʻrsatilgan parametrik modellarga asoslangan. 1-rasm. Parametrik baholash modeli (regressiya funksiyalari).

Matematik jihatdan, 1-rasmdagi baholash modeli (EM) fR regressiya funktsiyasi bilan ifodalanishi mumkin, shunday qilib y = fR(x, ) + , bu erda x mustaqil oʻzgaruvchilar toʻplami, y - bog'liq oʻzgaruvchi va = (0 …) Q) fR ni aniqlovchi parametrlar toʻplamidir. Komponent - bu modelning aleator qismi (ya'ni, kelajakdagi voqealar ehtimoliga bog'liq boʻlgan noma'lum qism) E( ) = 0 va cov ( ) = 2I (Vaysberg, 1985). fR funktsiyasini hisoblash uchun biz aholining har bir nuqtasini bilishimiz kerak. Bu deyarli hech qachon sodir boʻlmaydi. Keyin, biz aholidan faqat cheklangan namunani bilganimiz uchun, biz faqat B = (b0 … bQ) baholovchilar toʻplamini topish orqali taxmin qilishimiz mumkin, shunda ular xato funktsiyasini, masalan, eng kichik kvadratlar xato funktsiyasini minimallashtiradi. B ni baholash uchun biz qaram (Y) va mustaqil (X) oʻzgaruvchilarning oldingi kuzatuvlaridan foydalanamiz (2-rasm).

Y = fR(X, B) munosabatini koʻrib chiqamiz, bu erda Y - bog'liq oʻzgaruvchining kuzatishlar toʻplami, X - Q mustaqil oʻzgaruvchilarning N kuzatuvini oʻz ichiga olgan kuzatish matritsasi va B - baholovchi parametrlar vektori (2-rasm). . E'tibor bering, biz oʻzgaruvchilarga murojaat qilish uchun kichik harfdan (masalan, x) va ma'lumotlarga murojaat qilish uchun katta harfdan (masalan, X) foydalanamiz. Chunki, eng kichik kvadratlar bahosi, ya'ni 2-rasmdagi B parametrlardan farq qiladi. Shunday qilib, X bilan oziqlangan fR Y emas, balki Yest = fR(X, B) ni ta'minlaydi. Keyin, farq e = Y Yest ifodalovchi xatolar vektoridir (qoldiqlar deb ataladi, e bilan). Modellashtirishning eng muhim qismi bu uchun eng yaxshi taxminlarni topishdir. Ushbu faoliyat parametrlarni baholash, moslashtirish yoki kalibrlash deb ataladi. E'tibor bering, 2-rasmdagi LS bahosi xato kvadratlari yig'indisining minimalini topishga asoslangan.
Amaliy nuqtai nazardan, xato kvadratlari yig'indisining minimalini gradientni nolga oʻrnatish orqali topish mumkin, bu erda hosila har bir parametrga nisbatan amalga oshiriladi. Shuning uchun xarajat funktsiyasini minimallashtirish nolga oʻrnatilgan qisman hosilalarning tenglamalar tizimini echishni anglatadi (McQuarrie & Tsai, 1998, Pedhazur, 1997). Agar tenglamalar sistemasi izlanayotgan parametrlarning chiziqli birikmasidan tuzilgan boʻlsa, EM parametrlarda chiziqli boʻlib, bizda yopiq yechim mavjud (2-rasmdagi B). Agar tenglamalar sistemasi izlanayotgan parametrlarning chiziqli boʻlmagan tenglamalaridan tuzilgan boʻlsa, EM parametrlarda chiziqli emas va yechimni iterativ tarzda topish mumkin (yopiq yechim yoʻq). E'tibor bering, hatto y = 0+ 1x1+ 2x2+ 3x1x2 + 4x12 + 5x22 kabi chiziqli boʻlmagan koʻphad ham parametrlarda chiziqli. Buni uning oʻzgaruvchilarini x1x2 = x3, x12 = x4 va x22 = x5 kabi oʻzgartirish orqali olish mumkin. Shuning uchun, y = 0+ 1x1+ 2x2+ 3x3 + 4x4 + 5x5 , bu hali ham chiziqli model boʻlib, u erda biz 2-rasmdagi eng kichik kvadratlarni baholashni qoʻllashimiz mumkin. Yana bir muhim transformatsiya geometrik modelni logarifmlar orqali chiziqli modelga aylantirishdir. Olingan funktsiya log-chiziqli regressiya funktsiyasi deb ataladi. Masalan, y = x1ai=1..kci oʻzgaruvchisi x1, "a" koeffitsienti x1 quvvati va k koʻpaytiruvchi koeffitsientga ega boʻlgan geometrik modeldir. y = x1ai=1..kci ning ikkala tomonining logarifmini olsak, hosilni yig‘indilarga boʻlish mumkin. Logarifm xossalariga asoslanib, ya’ni ln (pq) = ln(p) + ln(q) va ln(pq) = (q)ln(p), ln(y) = 1ln(x1) + 2ln( ni yozishimiz mumkin. c1)+… + k+1ln(ck), bu erda biz model parametrlarini koʻrsatish uchun harfdan foydalandik (a = 1 bilan).
Keyin z = ln(y), h1 = ln(x1), h2 = ln(c1) … hk+1 = ln(ck) ni oʻrnatib, log-chiziqli model z ga aylanishi uchun (0) kesma qoʻshishimiz mumkin. = 0+ 1h1+ 2h2+ … + k+1hk+1, bu hali ham 2-rasmdagi eng kichik kvadratlarni baholashdan foydalanishimiz mumkin boʻlgan parametrlari boʻyicha chiziqli modeldir. E'tibor bering, biz (0) kesishmadan foydalanamiz, chunki qolgan monomials ( ya'ni ihi, i = 1 dan k+1 gacha) yoʻq boʻlib ketadi (korrelyatsiya boʻlmagan taqdirda), z = 0+ 1h1+ 2h2+ … + k+1hk+1 tenglama bajarilishda davom etadi (z = 0).

. E'tibor bering, agar biz (Gauss-Markov teoremasi) eng yaxshi chiziqli xolis baholovchilarni (KOʻK) olishni istasak va xulosa chiqarish uchun modeldan foydalanmoqchi boʻlsak, LS ba'zi taxminlarni talab qiladi (Pedhazur, 1997): Xatolar x bilan bog'liq emas. Xatolarning dispersiyasi doimiy (homosedastiklik), cov( ) = 2I. Xatolar avtomatik korrelyatsiya qilinmaydi. Xatoning ehtimollik zichligi Gauss, NID (0, 2I), ya'ni hech qanday chegaralar, egri / kurtotik taqsimotlar va oʻlchov xatosi yoʻq. Kirish va chiqish oʻrtasidagi munosabatni ifodalovchi xarakteristika model shakli deb ataladiganligi sababli, 1-rasmdagi tenglama chiziqli shaklga ega va parametrlari boʻyicha chiziqli boʻladi. Masalan, uchinchi darajali polinom kubik shaklga ega va parametrlari boʻyicha hali ham chiziqli. Modelning murakkabligi modelni tashkil etuvchi parametrlar sonini ifodalovchi yana bir xususiyatdir. Model qanchalik koʻp parametrlarga ega boʻlsa, model shunchalik moslashuvchan boʻladi. Parametrlarda chiziqli boʻlgan modellar oʻzgaruvchilar kabi koʻplab parametrlarga ega (ya'ni, har bir oʻzgaruvchi uchun bitta va faqat bitta parametr). Shuning uchun, chiziqli parametrli modelning model moslashuvchanligini (ya'ni, parametrlar soni) oshirish uchun biz uning oʻzgaruvchilarini (masalan, polinom darajasini oshirish) oshirishimiz kerak. Barron (1993) tasdiqlaydiki, yaqinlashuvni belgilangan aniqlik bilan bajarish uchun zarur boʻlgan parametrlar soni parametrlarda chiziqli boʻlgan modellar uchun oʻzgaruvchilar soni bilan eksponensial ravishda oshadi, noaniq modellar uchun esa oʻzgaruvchilar soni bilan chiziqli ravishda ortadi. parametrlarda chiziqli. Bu shuni anglatadiki, parsimoniyadan toʻliq foydalanish uchun chiziqli modellar oʻrniga parametrda chiziqli boʻlmagan modellarni koʻrib chiqishimiz kerak. Agar biz koʻp qatlamli oldinga uzatiladigan neyron tarmoqlar kabi parametrlari boʻyicha chiziqli boʻlmagan modellardan foydalansak, biz oshirishimiz mumkin. yangi oʻzgaruvchilarni qoʻshmasdan modelning moslashuvchanligi (ya'ni parametrlar sonini koʻpaytirish). Bu parsimonlikning asl mohiyatidir
(Dreyfus, 2005, 13-14-betlar). Biroq, yuqorida aytib oʻtilganidek, chiziqli boʻlmagan modellar B parametrlarini baholash uchun yopiq echimga ega emas. Shuning uchun bu muammoni bartaraf etish uchun tadqiqotchilar va amaliyotchilar koʻpincha chiziqli boʻlmagan modellarni ishlatish oʻrniga parametrlarda chiziqli boʻlgan modellardan foydalanishni afzal koʻradilar. . Biroq, parametrlari boʻyicha chiziqli modellarni tanlasak, ma'lumotlarga eng mos keladigan model shaklini topish, parametrlari boʻyicha chiziqli boʻlmagan modellardan foydalangandan koʻra ancha qiyin boʻladi (Dreyfus, 2005, 136-138-betlar). . Aksincha, takrorlanuvchi protseduralar amaliy masalalarda samarali foydalanish uchun katta tajriba talab qiladi. Misol uchun, iterativ protseduralar boshlang'ich qiymatlariga qarab turli xil parametrlarni taqdim etishi mumkin (Bishop, 1995, 140-148-betlar; Dreyfus, 2005, 118-119-betlar). Shu sababli, toʻg'ri parametrlarni topish uchun koʻplab urinishlar, shuningdek, kalibrlash vaqtini qisqartirish uchun optimallashtirish usullaridan foydalanish talab qilinishi mumkin.
3. Baholash modelining aniqligi Bashorat qilish modellari mutlaq xato (AE) nuqtai nazaridan baholanishi mumkin, ya'ni AE = Haqiqiy - Taxminiy = Y - Ha. Biroq, dasturiy ta'minot muhandisligi oʻzgaruvchilari (masalan, harakat, nuqsonlar) uchun taxminiy model aniqligi bilan ishlashda mutlaq xato oʻlchovi mantiqiy emas. Haqiqatan ham, mutlaq xato biz bashorat qilayotgan narsaning hajmi bilan ortadi. AE1 (= 0,30) va AE2 (= 0,25) ikki xil ob'ektdan (masalan, loyiha 1 va 2) olingan ma'lumotlar bilan baholash modelini oziqlantirish orqali hisoblangan mutlaq xatolar boʻlsin. Keyin, biz 1-loyiha uchun model 2-loyihaga qaraganda kamroq aniqroq deb bahslashimiz mumkin, chunki AE1 AE2 ga qaraganda pastroq aniqlikni ifodalaydi, ya'ni AE1 > AE2. Biroq, agar Y1 (AE1 hisoblangan haqiqiy qiymat) Y2, ya'ni Y1 >> Y2 va AE1 AE2 yoki hatto AE1 > AE2 dan ancha katta boʻlsa, AE1 mutlaq xatosiga qarab, biz notoʻg'ri xulosa qilgan boʻlamiz. 1-ob'ektdagi taxminiy modelning aniqligi 2-ob'ektdagi aniqlikdan yomonroq. Aslida, biz 1-ob'ektdagi aniqlikni 2-ob'ektdagi aniqlikdan yaxshiroq deb baholashimiz kerak, ya'ni (mutlaq) xatolik kattaligiga qarab baholanishi kerak. bashoratlar. Masalan, oyiga 100 kishi boʻlgan loyiha uchun AE = 0,30 prognoz xatosi 10 000 kishi / oy boʻlgan loyiha uchun AE = 0,30 prognoz xatosiga qaraganda ancha jiddiyroq boʻlishi kerak. Bu shuni anglatadiki, modelni taqqoslash uchun mutlaq oʻlchov ishlatilmasligi kerak. Dasturiy ta'minot muhandisligi oʻzgaruvchilarini bashorat qilishda toʻg'ri tanlov nisbiy xato oʻlchovini, ya'ni biz bashorat qilayotgan narsaning hajmini hisobga oladigan oʻlchovni koʻrib chiqishdir (Myrtveit, Stensrud va Shepperd, 2005). Shu sababli, Boehm (1981) oʻzining dasturiy ta'minot xarajati modeli (Konstruktiv XARAJAT MODEL, COCOMO) nisbiy xato (RE), Eqn nuqtai nazaridan ish faoliyatini aniqladi.
E'tibor bering, hozirgi vaqtda Boem modeli COCOMO-II ga aylandi (Boehm, Horowitz, Madachy, Reifer, Clark, Steece, Brown, Chulani, & Abts, 2000), lekin aniqlikni baholash tamoyillari oʻzgarmadi. Modelning aniqligini baholash tartibi shaklda koʻrsatilgan:

Biz N oʻlchamdagi ma'lumotlar toʻplamini koʻrib chiqishdan boshlaymiz, u ikkita kichik toʻplamga, oʻquv toʻplamiga va test toʻplamiga boʻlingan. Trening toʻplamining oʻlchami TR = (2/3)N va test toʻplamining oʻlchami TE = (1/3)N, shuning uchun N = TR + TE. Biz 2/3-1/3 boʻlinish nisbatini tanlaymiz, chunki bu ushlab turish metodologiyalari bilan ishlashda odatiy tanlovdir (Chen, Mezies, Port, & Boehm, 2005; Kohavi & Jon, 1997). Yana bir toʻg'ri nisbat 80% -20% (Dreyfus, 2005, s. 103-106). Oʻquv toʻplamiga asoslanib, biz fR funktsiyasini kalibrlaymiz, ya'ni B parametrlarini eng kichik kvadratlar baholari boʻyicha baholaymiz (2-rasm). E'tibor bering, oʻquv toʻplami va testlar toʻplami oʻrtasida chalkashliklarga yoʻl qoʻymaslik uchun biz ma'lumotlar oʻquv toʻplamiga tegishli ekanligini koʻrsatish uchun apostrofdan foydalanamiz (ya'ni, X' va Y'). Bundan tashqari, shuni ta'kidlash kerakki, X' dan farqli oʻlaroq (3-rasm), test toʻplami X (3-rasm) birinchi ustunda 1s vektoriga ega emas. B parametrlarini hisoblab chiqqandan soʻng, biz X ni fR ga kiritamiz va taxminiy qiymatlarni olamiz Ha. E'tibor bering, Yes ning oʻlchami TE, ya'ni Yest = (Yest(1) … Yes(TE)). Keyin aniqlik 3-rasmda koʻrsatilganidek, Nisbiy xato namunasi boʻyicha ikkita umumlashtirilgan statistik ma'lumotlarni hisoblash yoʻli bilan baholanadi. Xususan, Oʻrtacha(RETE) = (1/TE)i =1..TE(REi) nisbiy xatolikning oʻlchovidir. fR va STD(RETE) = RTSQ{(1/N)i =1..TE([REi –Mean(RETE)]2)} fR tarqalishining oʻlchovidir. E'tibor bering, toʻg'ri baholash bir vaqtning oʻzida ikkala statistika orqali ham amalga oshirilishi mumkin. Misol uchun, agar biz boshqa modelga nisbatan oʻrtacha (RETE) nolga yaqinroq ekanligini aniqlasak, birinchisi toʻg'riligi jihatidan ikkinchisiga qaraganda aniqroq degan xulosaga kelishimiz mumkin. Bundan tashqari, agar birinchisi ikkinchisiga qaraganda torroq STR (RETE) ga ega boʻlsa, biz birinchisi ishonchlilik (barqarorlik) nuqtai nazaridan aniqroq degan xulosaga kelishimiz mumkin. Shuni ta'kidlash juda muhimki, ba'zida parametrik modellar Nisbiy xatoning kattaligi (MRE) boʻyicha baholanadi (Conte, Dunsmore, & Shen, 1986; Shirabad & Mezies, 2005), bu erda MREi = abs (REi). Baholash ikkita umumiy statistik ma'lumotlar bilan ham amalga oshiriladi. Birinchisi MMRE = (1/TE)i =1..TE(MREi) va ikkinchisi PRED(H). PRED(25) = 80%, hisob-kitoblarning 80% xatosi 0,25 dan oshmaganligini bildiradi. MMREni hisoblashda, oʻrtacha (RETE) dan farqli ravishda, ijobiy xatolar va salbiy xatolar oʻzaro bekor qilinmasligi sababli, MMRE oʻrtacha (RETE) dan yaxshiroq statistik koʻrinadi. Biroq, Kitchenham va boshqalar. (2001) MMRE va PRED(K) dan modelning taxminiy aniqligini solishtirish uchun foydalanilmasligini isbotlaydi, chunki na MMRE, na PRED(H) modelning noaniqligini yoki tarqalishini bildirmaydi. Xususan, ular MMRE va PRED(N) mos ravishda tasodifiy oʻzgaruvchining tarqalishini va kurtozini oʻlchaganini koʻrsatadilar Z = Tahminlangan/Aktual. Shunga qaramay, MMRE modelning mosligini baholashda foydali oʻlchov boʻlishi mumkin.
Muammo ushbu bobda biz koʻrib chiqadigan muammo parametrlari chiziqli boʻlgan (parametrik) modellarni takomillashtirishdir. Regressiya modelining aniqligini oshirishning koʻplab usullari mavjud. Masalan, biz (1) yaxshiroq funksiyani tanlashimiz mumkin, masalan. mosroq shaklga ega boʻlgan yoki (2) koʻproq mos keladigan kirish oʻzgaruvchilarini tanlang. Birinchisida, oʻyin ma'lumotlarga eng mos keladigan funktsiya shaklini tanlashdir. Ikkinchisida, haqiqiy muammo shundaki, biz toʻliq kirish oʻzgaruvchilari toʻplamini tanlaganimizdan soʻng, baholash modelining ishlashiga salbiy ta'sir koʻrsatadigan ortiqchalikni olib tashlashimiz kerak (masalan, ahamiyatsiz oʻzgaruvchilarni olib tashlash orqali). "Parametrik baholash modellari" boʻlimida xabar qilinganidek, amaliyotchilar va tadqiqotchilar parametrlarda chiziqli boʻlgan modellardan foydalanishni afzal koʻrishadi, chunki ular model parametrlarini hisoblash muammosiga yopiq yechimga ega (2-rasm), ammo model boʻlmagan modellar. parametrlarda chiziqli emas. Keyinchalik, ushbu amaliyotchilar va tadqiqotchilarni amaliy muammolarida qoʻllab-quvvatlash uchun biz qila oladigan eng yaxshi narsa ular haqiqatda ishlatadigan regressiya modellarini, ya'ni chiziqli parametrlarni yaxshilashdir. Shuning uchun biz chiziqli modellarning ortiqchaligini olib tashlashga e'tibor qaratamiz va chiziqli boʻlmagan modellarni baholashning aniqligini oshirish usuli deb hisoblamaymiz. Ortiqchalikni olib tashlash - bu koʻproq sezgir modelni topishdir (ya'ni, kirish oʻzgaruvchilari kamroq boʻlgan). Bunday model afzalroqdir, chunki u bir xil miqdordagi kuzatishlar bilan yaxshiroq baho berishga qodir. Bu raqam N boʻlsin. Agar biz kamroq oʻzgaruvchiga ega boʻlgan funksiyadan foydalansak, uning parametrlarini sozlash uchun qoʻshimcha erkinlik darajalariga ega boʻlishimiz mumkin. Aksincha, N doimiy boʻlganligi sababli, qoʻshimcha oʻzgaruvchilarga ega boʻlgan funktsiyalarni hisobga oladigan boʻlsak, model parametrlarini kalibrlashda erkinlik darajalari kamayadi va taxminlar kamroq aniq boʻladi (Barron, 1993; Dreyfus, 2005, 14-bet). Shuning uchun parsimoniyani regressiya funktsiyalari uchun kuch koʻpaytiruvchisi sifatida koʻrib chiqish mumkin. Intuitiv ravishda, bu quvvatni oshirishning mantiqiy asosi tekislik hisoblash misoli bilan bir xil. Biz faqat ikkita nuqta yordamida tekislikni aniqlay olmaymiz, chunki tekislik uchta parametrga ega, ya'ni tekislik tenglamasini aniqlash uchun bizga kamida uchta nuqta kerak. Shuning uchun, ma'lumotlar toʻplamining oʻlchami (N) doimiy boʻlib qolganligi sababli, agar biz kirish oʻzgaruvchilari sonini kamaytirsak (ya'ni, modelni yanada parsimon holga keltirsak), biz modelning aniqligini oshirishimiz mumkin.
CURVILINEAR KOMPONENTLARNI TAHLILI CCA - bu oʻquv majmuasini yanada ixcham va ekvivalent tasvirga aylantirishdan iborat boʻlgan xususiyatlarni qisqartirish tartibi. CCA - bu toʻplamni kamroq oʻzgaruvchilarga ega boʻlgan boshqa toʻplamga solishtiradigan siqish texnikasi, bu erda xaritalash chiziqli boʻlmagan. Biz CCA ni avto-assotsiativ koʻp qatlamli oldinga uzatiladigan neyron tarmoqlari orqali amalga oshiramiz (Bishop, 1995, 314-319-betlar). CCA ni amalga oshirish neyron tarmoq (NN) boʻyicha mutaxassis boʻlishni talab qilmaydi. CCA dasturini NN va/yoki matritsalar bilan ishlay oladigan har qanday matematik dasturda topish mumkin. CCA bir necha qator kodni talab qiladi. Matematik toʻplamdan foydalanish imkoniyati boʻlmasa ham, CCA algoritmini LS parametrlarini baholash uchun ishlatiladigan dasturlash tili orqali osongina amalga oshirish mumkin. Avtomatik assotsiativ neyron tarmoqlarning tafsilotlarini oʻrganishdan oldin, biz koʻp qatlamli oldinga uzatiladigan neyron tarmoqlar haqida ma'lumot beramiz.

Koʻp qatlamli oldinga yoʻnaltirilgan neyron tarmoqlari Neyron y = (w0 + i = 1..Q wiXi) funktsiya boʻlib, bu erda chiziqli yoki chiziqli boʻlmagan boʻlishi mumkin (4-rasm). Agar chiziqli boʻlsa (ya'ni, identifikatsiya funktsiyasi), neyron chiziqli neyron deb ataladi va birinchi darajali polinom bilan bir xil boʻladi. Boshqacha qilib aytganda, chiziqli polinom chiziqli neyronning alohida holatidir. Agar chiziqli boʻlmasa, neyron chiziqli boʻlmagan deb ataladi, masalan, logistik funktsiya yoki giperbolik tangens funksiyasi kabi sigmasimon funktsiya boʻlishi mumkin (Dreyfus, 2005, 2-3betlar).
Xulosa. Avtoassotsiativ tarmoqlar, yoki oʻz-oʻzini toʻg'ri qiluvchi tarmoqlar, sun'iy neyron tarmoqlarining bir turidir va kiritilgan ma'lumotlarni bir-biriga moslashish uchun ishlatiladi. Ushbu turlar tarmoqlar xususan xotira va oʻrganish uchun ishlatiladi. Shuning uchun, ushbu turlar tarmoqlar oddiy kengaytirilgan va orqaga qaytuvchi aylanishlar ishlatishadi.
Avtoassotsiativ tarmoqlar, axborotlar zaxirasi va tiklash kabi ilovalarda ishlatilishi mumkin. Misol uchun, oldin oʻrganilgan tasvirlar toʻplamidan tuzilgan ma'lumotlar, tarmoqning qabul qilgan yangi yiqilmagan yoki zararlangan tasvirlarni tiklash uchun foydalanilishi mumkin.
Ushbu tarmoqlarning oʻrganish jarayoni, xususan oʻqitish ma'lumotlari katta boʻlganida, vaqt talab qiladi, ammo, toʻg'ri oʻrgatilganida, ushbu tarmoqlar juda samarali va koʻplab ilovalar uchun foydali boʻladi. Dasturiy ta'minot muhandisligi oʻzgaruvchilarini yuqori aniqlik bilan bashorat qilish hali ham ochiq muammo boʻlib qolmoqda. Bashorat qilishda yuqori aniqlik yoʻqligining asosiy sababi, aksariyat modellarning parametrlarda chiziqli boʻlishi va shuning uchun etarli darajada moslashuvchan emasligi va ortiqchalikdan aziyat chekishi boʻlishi mumkin. Ushbu bobda biz regressiya modellarini ularning ortiqchaligini kamaytirish va parsimonligini oshirish orqali takomillashtirishga e'tibor qaratamiz, ya'ni biz modelni avvalgisiga qaraganda kamroq oʻzgaruvchilarga ega modelga aylantiramiz. Biz Curvilinear komponent tahlili deb nomlangan qisqartirish texnikasini amalga oshiradigan modelni takomillashtirish uchun empirik avto-assotsiativ neyron tarmoqqa asoslangan strategiyani taqdim etamiz. Ushbu bobning hissasi koʻp qatlamli neyron tarmoqlari dasturiy ta'minot muhandisligini baholash modellarini takomillashtirish uchun qanday foydali va amaliy mexanizm boʻlishi mumkinligini koʻrsatishdir. Kirish loyiha qiymati, xatoga moyillik va nuqsonlar soni kabi dasturiy ta'minot muhandisligi oʻzgaruvchilarini bashorat qilish dasturiy ta'minot tashkilotlari uchun muhim masaladir. Yangi loyiha, faoliyat yoki vazifani rejalashtirishda mumkin boʻlgan eng yaxshi bahoni olish muhimdir. Masalan, biz dasturiy ta'minot narxini, faoliyatni amalga oshirishdagi harakatlarni (masalan, modulni kodlash) yoki modul yoki quyi tizimdan kelib chiqadigan nuqsonlarning kutilayotgan sonini taxmin qilishimiz kerak boʻlishi mumkin. Dasturiy ta'minot tashkilotlarining bashorat qilish qobiliyatini oshirish ularning raqobatdosh ustunligini oshirishning bir usuli hisoblanadi. Yaxshiroq bashorat qilish resurslarni rejalashtirish, sifat maqsadlarini belgilash va ularga erishish va jadval boʻyicha koʻproq asosli qarorlar qabul qilish nuqtai nazaridan rivojlanish jarayonini yaxshilashi mumkin. Gap shundaki, resurslarni yaxshiroq boshqarish, loyiha tavakkalchiligini yumshatish va boshqalarni boshqarishda bashorat qilish asosiy muammo hisoblanadi mahsulotlarni oʻz vaqtida, byudjet boʻyicha va kerakli xususiyatlar va funktsiyalar (sifat) bilan etkazib berish.
Natijada, avtoassotsiativ tarmoqlar sun'iy intellekt va xususan tasvir ishlab chiqarish va aniqlash sohasida muhim ahamiyatga ega boʻlib, kelajakda ham muhimligini saqlab qoladi.
Foydalanilgan adabiyotlar
1.Internet manbalaridan.
2.researchgate.net
3.sciencedirect.com


Download 371.13 Kb.

Do'stlaringiz bilan baham:




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling