Fan: Ma'lumotlar kommunikatsiyasi


Shuning uchun optimal klassifikator


Download 101.67 Kb.
bet8/8
Sana28.12.2022
Hajmi101.67 Kb.
#1022648
1   2   3   4   5   6   7   8
Bog'liq
Ma\'lumotlar intelektual tahlili 024-18

Shuning uchun optimal klassifikator:
{\displaystyle f^{*}(x)={\begin{holatlar}1&{\text{agar }}p_{x}\geq 1/2\\-1&{\text{aks holda}}\end{holatlar}}} {\displaystyle f^{ * }(x) = {\begin{holatlar}1&{\text{agar }}p_{x}\geq 1/2\\-1&{\text{aks holda}}\end{holatlar}}}
Kvadrat-zarar uchun, maqsad vazifasi shartli kutish funksiyasi, {\displaystyle f_{sq}(x)=\mathbb {E} \left[Y_{x}\right]}f_{sq}(x)=\mathbb {E} \left[Y_{x}\right]; logistika halok uchun, u logit vazifasi, {\displaystyle f_{\log }(x)=\ln \left(p_{x}/({1-p_{x}})\right)} {\displaystyle f_ {\log } (x) = \ln \left(p_{x}/({1-p_{x}})\right)}. Bu maqsad vazifalari, ham to'g'ri klassifikatori hosil esa, sifatida {\displaystyle \operatorname {sgn}(f_{sq})=\operatorname {sgn}(f_{\log })=f^{*}}{\displaystyle \operatorname {sgn}(f_{sq})= \ operatorname {sgn} (f_{\log })=f^{*}}, ular bizga keragidan ortiq ma'lumot beradi. Aslida ular {\displaystyle y_{x}}y_{x}} taqsimotini to'liq tasvirlash uchun bizga yetarli ma'lumot beradi.
Boshqa tomondan, mentli yo'qotish uchun maqsad funktsiyasi aniq {\displaystyle f^{*}}f^{*} ekanligini tekshirish mumkin. Shunday qilib, yetarlicha boy gipoteza fazosida yoki unga teng ravishda mos ravishda tanlangan yadro uchun SVM klassifikatori ma'lumotlarni to'g'ri tasniflaydigan eng sodda funksiyaga ({\displaystyle {\mathcal {r}}}{\mathcal {r}}) yaqinlashadi. Bu SVM ning geometrik talqinini kengaytiradi-chiziqli tasniflash uchun empirik xavf chekkalari qo'llab-quvvatlash vektorlari orasida joylashgan har qanday funktsiya tomonidan minimallashtiriladi va ularning eng soddasi max-margin klassifikatori.[22]
Amalga oshirish
Maksimal marjali giperplane parametrlari optimallashtirishni echish orqali olinadi. Svmlardan kelib chiqadigan kvadratik dasturlash (QP) muammosini tezda hal qilish uchun bir nechta ixtisoslashgan algoritmlar mavjud, asosan muammoni kichikroq, boshqariladigan qismlarga ajratish uchun evristikaga tayanadi.Yana bir yondashuv-bu asosiy va ikki tomonlama muammolarning Karush-kun–Taker shartlari echimini topish uchun Nyutonga o'xshash takrorlashlardan foydalanadigan ichki nuqta usulidan foydalanish.[40] buzilgan muammolar ketma-ketligini hal qilish o'rniga, ushbu yondashuv to'g'ridan-to'g'ri muammoni butunlay hal qiladi. Katta yadro matritsasini o'z ichiga olgan chiziqli tizimni echmaslik uchun matritsaga past darajadagi yaqinlashish ko'pincha yadro hiyla-nayrangida ishlatiladi.

Yana bir keng tarqalgan usul-Plattning ketma-ket minimal optimallashtirish (SMO) algoritmi, bu muammoni analitik ravishda hal qilinadigan 2 o'lchovli kichik muammolarga ajratadi va raqamli optimallashtirish algoritmi va matritsani saqlashga bo'lgan ehtiyojni yo'q qiladi. Ushbu algoritm kontseptual jihatdan sodda, amalga oshirilishi oson, odatda tezroq va qiyin SVM muammolari uchun masshtablash xususiyatlariga ega.


Chiziqli qo'llab-quvvatlovchi vektorli mashinalarning maxsus holatini uning yaqin amakivachchasini optimallashtirish uchun ishlatiladigan bir xil algoritmlar yordamida yanada samarali hal qilish mumkin, logistika regressiyasi; ushbu algoritmlar sinfiga kiradi sub-gradient tushish (masalan, PEGASOS[42]) va koordinatali tushish (masalan, LIBLINEAR[43]). LIBLINEAR ba'zi jozibali o'quv-vaqt xususiyatlariga ega. Har bir konvergentsiya iteratsiyasi poezd ma'lumotlarini o'qish uchun sarflangan vaqt ichida vaqtni chiziqli oladi va iteratsiyalar ham q-chiziqli konvergentsiya xususiyatiga ega bo'lib, algoritmni juda tez bajaradi.
Umumiy yadro SVMs yordamida yanada samarali echilishi mumkin sub-gradient tushish (masalan, P-packSVM[44]), ayniqsa parallellashtirishga ruxsat berilganda.
Kernel Svmlar ko'pgina mashinasozlik asbobuskunalarida, jumladan LIBSVM, MATLAB, SAS, SVMlight, kernlab, scikit-learn, Shogun, Vayka, Shark, JKernelMachines, OpenCV va boshqalarda mavjud.Ma'lumotlarni oldindan ishlash (standartlashtirish) tasniflashning aniqligini oshirish uchun juda tavsiya etiladi.[45] standartlashtirishning min-max, o'nli shkala bo'yicha normallashtirish, Z-ball kabi bir necha usullari mavjud.[46] har bir xususiyati zid tomonidan o'rtacha va bo'linish ayiruv odatda SVM uchun ishlatiladi.
Xulosa.
SVM san'at algoritm albatta davlat, juda oddiy va sehrli yuqori aniqligini ta'minlaydi. Ko'rib turganingizdek amalga oshirish juda oddiy, agar yaxshi tuzilgan ma'lumotlar bor bir marta. Shuningdek, har qanday algoritm ortidagi matematikani bilganingizdan so'ng, berilgan xususiyatlar uchun aniqlikni oshirish ham mumkin (sozlash orqali hyper parametr). Men mavzu misol off tomonidan bu blog nihoyasiga etadi; python dasturlash qanchalik oddiy sizga ko'rsatish uchun, bu erda qiziqarli.
Download 101.67 Kb.

Do'stlaringiz bilan baham:
1   2   3   4   5   6   7   8




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling