Yadro tizmasi regressiyasi
Download 102.79 Kb.
|
1chi ish
Yadro tizmasi regressiyasi Biz SVMlar haqida, hatto tasniflash haqida gapirmaslikdan boshlaymiz. Buning o'rniga, biz belgining biroz o'zgarishi bilan tizma regressiyasini qayta ko'rib chiqamiz. Kirishlar to'plami {(xi,yi)} bo'lsin, bu erda i namunalarni indekslaydi. Muammo minimallashtirishdir X xi w − yi2 + λw w i Agar w ga nisbatan hosilani olib, uni nolga qo'ysak, olamiz T 0 = X2xi(xi w − yi) + 2λw i T w = Xxixi + λI−1 Xxiyi. i i Keling, ba'zi Lagrange dualligidan foydalangan holda turli xil hosilani ko'rib chiqaylik. Agar biz yangi zi o'zgaruvchisini kiritsak va uni w xi va yi o'rtasidagi farq sifatida cheklasak, bizda shunday bo'ladi. min w,z 2z z + 2λw w s.t. zi = xi w − yi. Yadro usullari va SVMlar Agar w ga nisbattan hosilani olib, uni nolga qo’ysak, olamiz T 0 = X2xi(xi w − yi) + 2λw i T w = Xxixi + λI−1 Xxiyi. I Keling, ba'zi Lagrange dualligidan foydalangan holda turli xil hosilani ko'rib chiqaylik. Agar biz yangi zi o'zgaruvchisini kiritsak va uni w xi va yi o'rtasidagi farq sifatida cheklasak, bizda shunday bo'ladi. min w,z 2z z + 2λw w s.t. zi = xi w − yi. Lanranj ko’paytmalarini belgilash uchun aid an foydalanib, bu Langrajga ega X L = 2z z + 2λw w + i αi(xi w − yi − zi). Lagrange ikkitomonlamasiga borganimizni eslang. Biz asl muammoni hal qilish orqali hal qila olamiz α w,z maxminL(w,z,α). Boshlash uchun biz ichki minimallashtirishga hujum qilamiz: qattiq a uchun biz w va z ni minimallashtirish uchun hal qilmoqchimiz. Buni L ning zi va w ga nisbatan hosilalarini nolga teng qilib qo‘yishimiz mumkin. Shunday qilib, biz 1 ni topa olamiz zi = αi, w∗ = −1 Xαixi Demak, muammoni Lagranjni (a ga nisbatan) maksimallashtirish orqali hal qilishimiz mumkin, bunda yuqoridagi iboralarni zi va w ning o‘rniga qo‘yamiz. Shunday qilib, biz cheksiz maksimallashtirishga egamiz. 1
X 0 = dw = λw + i αixi Yadro usullari va SVMlar α maxL(w∗(α),z∗(α),α) Tafsilotlarga sho'ng'ishdan oldin, biz bu erda juda qiziq bir narsa sodir bo'layotganini ko'rishimiz mumkin: w xi kirish vektorlarining yig'indisi bilan berilgan, og'irligi -ai/ λ. Agar biz shunchalik moyil bo'lsak, w ni aniq hisoblashdan qochib, yangi x nuqtasini to'g'ridan-to'g'ri ma'lumotlardan bashorat qilishimiz mumkin edi. Endi k(xi,xj) = xi xj “yadro funksiyasi” bo‘lsin. Hozircha buni faqat yozuvning o'zgarishi deb hisoblang. Bundan foydalanib, biz yana tizma regressiya bashoratlarini quyidagicha yozishimiz mumkin f(x) = −1 Xαik(x,xif(x) = x w = −1 Xαix xi. i ). i Shunday qilib, bizga haqiqatan ham kerak bo'lgan narsa - x ning har bir o'quv elementi bilan ichki mahsuloti. Bu nima uchun foydali bo'lishi mumkinligiga keyinroq qaytamiz. Birinchidan, keling, Lagrange multiplikatorlari a bo'yicha maksimallashtirishga qaytaylik, u erda shunga o'xshash narsa sodir bo'ladimi yoki yo'qmi. Quyidagi matematika juda murakkab ko'rinadi. Biroq, biz qilayotgan barcha narsa tenglamadagi z∗ va w∗ ifodalarini almashtirishdir. 1.2, keyin juda ko'p manipulyatsiya qilish.
α w,z maxminL = = = = max 2 i αi + 2λ −λ i αixi −λ j αjxj + αi(xi −1 αjxj − yi − αi) j i α max 1 Xαi + 1 XXαiαjxi xj − 1 XXαiαjxi xj − Xαi(yi + αi) i i j i j i α max−1 αi − 1 αiαjxi xj − αiyi i i j i α max−1 Xα2 − 1 XXαiαjk(xi,xj) − Xαiyi. i i j i Shunga qaramay, bizga faqat ichki mahsulotlar kerak. Agar K matritsasini quyidagicha aniqlasak Kij = k(xi,xj), Yadro usullari va SVMlar keyin biz buni punchier vektor yozuvida qayta yozishimiz mumkin Yadro usullari va SVMlar keyin biz buni punchier vektor yozuvida qayta yozishimiz mumkin maxminL = max−2α α − 2λαT Kα − α y. Bu yerda Kij yozuvlari boʻlgan matritsani belgilash uchun K bosh harfidan, yadro funksiyasi k(,) esa kichik k harfidan foydalanamiz. E'tibor bering, yadro mashinalari bo'yicha ko'pgina adabiyotlar ikkalasi uchun ham katta K harfini ishlatib, notatsiyani biroz suiiste'mol qiladi. O'ngdagi narsa a dagi kvadratikdir. Shunday qilib, chiziqli tizimning yechimi sifatida optimalni topishimiz mumkin2. Muhimi shundaki, a bo'yicha optimallashtirishni amalga oshirish uchun bizga faqat k(xi,xj) = xi xj ma'lumotlarining ichki mahsuloti kerak bo'ladi. Keyin, a uchun yechilganimizdan so'ng, biz faqat ichki hosilalar yordamida yangi x uchun f(x) ni yana taxmin qilishimiz mumkin. Agar kimdir bizga barcha ichki mahsulotlarni aytsa, bizga asl ma'lumotlar {xi} umuman kerak emas! i j I Download 102.79 Kb. Do'stlaringiz bilan baham: |
ma'muriyatiga murojaat qiling