Yadro tizmasi regressiyasi


Download 102.79 Kb.
Sana28.12.2022
Hajmi102.79 Kb.
#1014280
Bog'liq
1chi ish


Yadro tizmasi regressiyasi
Biz SVMlar haqida, hatto tasniflash haqida gapirmaslikdan boshlaymiz. Buning o'rniga, biz belgining biroz o'zgarishi bilan tizma regressiyasini qayta ko'rib chiqamiz. Kirishlar to'plami {(xi,yi)} bo'lsin, bu erda i namunalarni indekslaydi. Muammo minimallashtirishdir
X xi w − yi2 + λw w i

Agar w ga nisbatan hosilani olib, uni nolga qo'ysak, olamiz



T
0 = X2xi(xi w − yi) + 2λw

i

T
w = Xxixi + λI1 Xxiyi. i i

Keling, ba'zi Lagrange dualligidan foydalangan holda turli xil hosilani ko'rib chiqaylik. Agar biz yangi zi o'zgaruvchisini kiritsak va uni w xi va yi o'rtasidagi farq sifatida cheklasak, bizda shunday bo'ladi.




min
w,z 2z z + 2λw w


s.t. zi = xi w − yi.
Yadro usullari va SVMlar

Agar w ga nisbattan hosilani olib, uni nolga qo’ysak, olamiz



T
0 = X2xi(xi w − yi) + 2λw

i

T
w = Xxixi + λI−1 Xxiyi. I
Keling, ba'zi Lagrange dualligidan foydalangan holda turli xil hosilani ko'rib chiqaylik. Agar biz yangi zi o'zgaruvchisini kiritsak va uni w xi va yi o'rtasidagi farq sifatida cheklasak, bizda shunday bo'ladi.



min
w,z 2z z + 2λw w
s.t. zi = xi w − yi.

Lanranj ko’paytmalarini belgilash uchun aid an foydalanib, bu Langrajga ega





X
L = 2z z + 2λw w + i αi(xi w − yi − zi).
Lagrange ikkitomonlamasiga borganimizni eslang. Biz asl muammoni hal qilish orqali hal qila olamiz



α w,z
maxminL(w,z,α).

Boshlash uchun biz ichki minimallashtirishga hujum qilamiz: qattiq a uchun biz w va z ni minimallashtirish uchun hal qilmoqchimiz. Buni L ning zi va w ga nisbatan hosilalarini nolga teng qilib qo‘yishimiz mumkin. Shunday qilib, biz 1 ni topa olamiz




zi = αi, w = 1 Xαixi

Demak, muammoni Lagranjni (a ga nisbatan) maksimallashtirish orqali hal qilishimiz mumkin, bunda yuqoridagi iboralarni zi va w ning o‘rniga qo‘yamiz. Shunday qilib, biz cheksiz maksimallashtirishga egamiz.


1

0 = dzi = zi − αi




X
0 = dw = λw + i αixi


Yadro usullari va SVMlar

α
maxL(w(α),z(α),α)


Tafsilotlarga sho'ng'ishdan oldin, biz bu erda juda qiziq bir narsa sodir bo'layotganini ko'rishimiz mumkin: w xi kirish vektorlarining yig'indisi bilan berilgan, og'irligi -ai/ λ. Agar biz shunchalik moyil bo'lsak, w ni aniq hisoblashdan qochib, yangi x nuqtasini to'g'ridan-to'g'ri ma'lumotlardan bashorat qilishimiz mumkin edi.


Endi k(xi,xj) = xi xj “yadro funksiyasi” bo‘lsin. Hozircha buni faqat yozuvning o'zgarishi deb hisoblang. Bundan foydalanib, biz yana tizma regressiya bashoratlarini quyidagicha yozishimiz mumkin


f(x) = −1 Xαik(x,xif(x) = x w = −1 Xαix xi. i
). i
Shunday qilib, bizga haqiqatan ham kerak bo'lgan narsa - x ning har bir o'quv elementi bilan ichki mahsuloti. Bu nima uchun foydali bo'lishi mumkinligiga keyinroq qaytamiz. Birinchidan, keling, Lagrange multiplikatorlari a bo'yicha maksimallashtirishga qaytaylik, u erda shunga o'xshash narsa sodir bo'ladimi yoki yo'qmi. Quyidagi matematika juda murakkab ko'rinadi. Biroq, biz qilayotgan barcha narsa tenglamadagi z va w ifodalarini almashtirishdir. 1.2, keyin juda ko'p manipulyatsiya qilish.





α w,z
maxminL =

=

=

=
max 2 i αi + 2λ λ i αixi λ j αjxj + αi(xi 1 αjxj − yi − αi)



j

i

α
max 1 Xαi + 1 XXαiαjxi xj 1 XXαiαjxi xj Xαi(yi + αi) i i j i j i

α
max−1 αi 1 αiαjxi xj − αiyi i i j i

α
max−1 Xα2 1 XXαiαjk(xi,xj) − Xαiyi.
i i j i

Shunga qaramay, bizga faqat ichki mahsulotlar kerak. Agar K matritsasini quyidagicha aniqlasak


Kij = k(xi,xj),
Yadro usullari va SVMlar
keyin biz buni punchier vektor yozuvida qayta yozishimiz mumkin
Yadro usullari va SVMlar
keyin biz buni punchier vektor yozuvida qayta yozishimiz mumkin
maxminL = max−2α α − 2λαT Kα − α y.


Bu yerda Kij yozuvlari boʻlgan matritsani belgilash uchun K bosh harfidan, yadro funksiyasi k(,) esa kichik k harfidan foydalanamiz. E'tibor bering, yadro mashinalari bo'yicha ko'pgina adabiyotlar ikkalasi uchun ham katta K harfini ishlatib, notatsiyani biroz suiiste'mol qiladi.


O'ngdagi narsa a dagi kvadratikdir. Shunday qilib, chiziqli tizimning yechimi sifatida optimalni topishimiz mumkin2. Muhimi shundaki, a bo'yicha optimallashtirishni amalga oshirish uchun bizga faqat k(xi,xj) = xi xj ma'lumotlarining ichki mahsuloti kerak bo'ladi. Keyin, a uchun yechilganimizdan so'ng, biz faqat ichki hosilalar yordamida yangi x uchun f(x) ni yana taxmin qilishimiz mumkin. Agar kimdir bizga barcha ichki mahsulotlarni aytsa, bizga asl ma'lumotlar {xi} umuman kerak emas!



i j I

Download 102.79 Kb.

Do'stlaringiz bilan baham:




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling