Kerasni tasvirlab bering va nima uchun uni TensorFlow o'rniga ishlatishingiz kerak


Download 0.57 Mb.
Pdf ko'rish
bet2/7
Sana21.11.2023
Hajmi0.57 Mb.
#1791709
1   2   3   4   5   6   7
Bog'liq
how-to-use-keras-to-solve-classification-problems-with-a-neural-network (1)

tarmog'i sifatida ham tanilgan . Bu modelning aniqligini oshirish uchun tarmoq bo'ylab bir nechta o'tishni
amalga oshirishi mumkin bo'lgan xayolparastlarga qarshi.
Dengiz tug'ilgan
Matplotlib
Agar neyron tarmoq faqat bitta qatlamga ega bo'lsa, u logistik regressiya modeli bo'lar edi.
NumPy
pydot
scikit-learn
Siz buni hali ham logistik regressiya modeli deb o'ylashingiz mumkin, ammo logistik regressiya hisoblarini bir
necha marta bajarish orqali yuqori aniqlik darajasiga ega bo'lgan model. Bu neyron tarmog'ining asosiy
g'oyasi: hisoblang, sinab ko'ring, yana hisoblang, yana sinab ko'ring va optimal yechim topilguncha takrorlang.
Quyidagi misolni ko'rib chiqish uchun sizda
Zeppelin
bo'lishi kerak o'rnatilgan, shuningdek, bular
Sizga ushbu paket kerak bo'ladi:
Ushbu yondashuv qo'l yozuvi, yuzni tanib olish va diabetni bashorat qilish uchun ishlaydi.
Python
paketlar:
sudo apt install install graphviz
Keras uchun zarur shartlar
Neyron tarmoqlar tushuntirilgan
Machine Translated by Google


Neyron tarmoq shunchaki katta chiziqli yoki logistik regressiya muammosidir
Logistik regressiya chiziqli regressiya bilan chambarchas bog'liq. Yagona farq shundaki, logistik regressiya diskret natijani
beradi va chiziqli regressiya haqiqiy sonni chiqaradi. Aslida, agar bizda y = wx + b chiziqli model mavjud bo'lsa va t = y
bo'lsa, logistik funktsiya bo'ladi.
y = mx + b oddiy chiziqli tenglamada biz faqat x o'zgaruvchisi bilan ishlaymiz. Ushbu muammoni Microsoft Excel yoki
Google Sheets yordamida hal qilishingiz mumkin. Buning uchun sizga neyron tarmoq kerak emas.
f(x) = (w1* x1 + w2 * x2 + + wm
Haqiqiy dunyoda duch keladigan ko'pgina muammolarda biz ko'plab o'zgaruvchilar bilan shug'ullanamiz. U holda m va x
matritsalardir. Ammo matematika shunga o'xshash, chunki bizda hali ham mx + b da og'irliklar va tarafkashlik tushunchasi mavjud.
Bu 1 dan 0 gacha bo'lgan raqam, shuning uchun u ishlaydi
* xm) + b.
Quyidagi formulada matritsa quyida mx 1 o'lchamda. Demak, bu vektor, ya'ni bir o'lchovli matritsa. i= 1, 2, 3, , m
vaznlarning har biri wi. Va m xususiyat mavjud (x) x1, x2, x3, , xm. x BMI; qandli diabet ma'lumotlarida glyukoza va
boshqalar. Og'irliklar w1, w2, , wm va tarafkashlik bu ko'rsatkichlar va odamning diabetga chalinish ehtimoli o'rtasidagi
bog'liqlikni eng aniq bashorat qiladigan raqamdir.
ehtimollik hisoblari uchun yaxshi.
Amaldagi funktsiyalar sigmasimon funktsiya bo'lib, sinus to'lqin kabi ikki ma'lum qiymat orasida o'zgarib turadigan egri
chiziqni anglatadi. Logistik sigmasimon funktsiya ushbu misolda yaxshi ishlaydi, chunki biz kimdir diabetga chalingan yoki
kasal bo'lishini taxmin qilishga harakat qilmoqdamiz (1) yoki yo'q (0).
Har bir perseptron hisob-kitob qiladi va uni keyingi perseptronga topshiradi. Bu hisob haqiqatan ham ehtimollikdir.
Tasniflash masalasida t chegarasi o'zboshimchalik bilan o'rnatiladi, agar x hodisaning ehtimolligi > t bo'lsa, natija 1 (to'g'ri),
aks holda noto'g'ri (0) bo'ladi. Logistik regressiya uchun bu chegara 50% ni tashkil qiladi.
Neyron tarmog'idagi har bir tugun uchun biz w x ning nuqta mahsulotini hisoblaymiz,
Bu bizga haqiqiy raqamni beradi. Logistik funktsiya holatida, yuqorida aytganimizdek, u f(x) > %50 bo'lsa, perseptron 1 ni
chiqaradi. Aks holda 0.
Kengaytirilgan hisoblash quyidagicha ko'rinadi, bunda siz w vektoridan har bir elementni olasiz va uni x vektoridagi tegishli
elementiga ko'paytirasiz.
bu bizning mashg'ulot to'plamimizdan olingan har bir x xususiyati bo'yicha har bir vaznning w ga ko'paytirilishini anglatadi va keyin
hisobni yuqoriga yoki pastga siljitish uchun b ni qo'shing.
Machine Translated by Google



Download 0.57 Mb.

Do'stlaringiz bilan baham:
1   2   3   4   5   6   7




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling