ЎҚув материаллари
Чизиқли ажралувчи танлов учун SVM
Download 0.7 Mb.
|
12 МАЪРУЗАЛАР
- Bu sahifa navigatsiya:
- Чизиқли ажралмайдиган танлов учун SVM.
Чизиқли ажралувчи танлов учун SVM. Иккита кесишмайдиган синф учун классификация масаласини қараймиз, бунда объектлар ўлчовли векторлар орқали ифодаланади: ,
Чизиқли остонали классификатор қурамиз: бу ерда, - объектнинг аломатлар тавсифи, – вектор ва - скаляр остоналар алгоритмнинг параметрлари. тенглама синфларни да ажратувчи гипертекисликни ифодалайди. Фараз қилайлик, танлов чизиқли ажралувчи ва (6.1) функционал нол қийматга тенг бўладиган параметрлар мавжуд бўлсин. Агар ни бир хил мусбат константа қийматга кўпайтирсак алгоритм ўзгармайди. Бу константани шарт бажариладиган қилиб танланади. нуқталар тўплами синфларни ажратадиган йўлакни ифодалайди. Ўргатувчи танловдан ҳеч бири бу йўлак ичига тушмайди. Йўлакни чегаралари бўлиб нормал вектори билан иккита параллел гипертекислик хизмат қилади. Ажратувчи гипертекислик уларнинг қоқ ўртасидан ўтади ва унга энг яқин объектлар йўлакнинг чегарасида ётадилар, айнан ўша объектлар (6.1) ни минимумга эриштиради. Ажратувчи гипертекислик танлов объектларидан имкон қадар узоқ туриши учун йўлакнинг кенглиги максимал бўлиши керак. йўлакнинг чегарасидаги мос равишда -1 ва +1 синф ўргатувчи объектлари бўлсин. У ҳолда йўлак кенглиги: Бундан йўлак максимал бўлиши учун нормал вектори минимал бўлиши керак ва қуйидагича квадратик программлаш масаласига келтирилади: ( 6.2) Амалиётда чизиқли ажралувчи синфлар жуда кам учрайди. Шунинг учун, (6.2) масала қўйилишини ихтиёрий ҳолат учун модификация қилиш керак. Чизиқли ажралмайдиган танлов учун SVM. объектлардаги хатолик қийматини ифодаловчи ёрдамчи ўзгарувчини киритамиз. (6.2) тенгсизлик чегараланишни бўшаштирамиз ва бир вақтда хатоликлар йиғиндиси учун жаримани минималлаштирувчи функционални киритамиз: (6.3) Мусбат константа усулнинг бошқарувчи параметри дейилади ва у одатда сирғалувчи назорат ёрдамида танланади. (6.3) нинг ечими нинг қандай танланишига жуда сезувчан эмас ва унинг жуда аниқликда оптимизация қилиш талаб қилинмайди. (6.3) икки тарафлама масаласига келтирилади ва Лагранж теоремаси, Куна-Таккер теоремалари ёрдамида параметрлар ҳисобланиб: кўринишга келади. – га икки тарафлама вектор ўзгарувчилар. Download 0.7 Mb. Do'stlaringiz bilan baham: |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling