Kerasni tasvirlab bering va nima uchun uni TensorFlow o'rniga ishlatishingiz kerak


teglar massiv emas. Bu ma'lumotlar to'plamidagi ustun. Shunday qilib, biz uni massivga aylantirish uchun NumPy np.ravel()


Download 0.57 Mb.
Pdf ko'rish
bet5/7
Sana21.11.2023
Hajmi0.57 Mb.
#1791709
1   2   3   4   5   6   7
Bog'liq
how-to-use-keras-to-solve-classification-problems-with-a-neural-network (1)

teglar massiv emas. Bu ma'lumotlar to'plamidagi ustun. Shunday qilib, biz uni massivga aylantirish uchun NumPy
np.ravel() funksiyasidan foydalanamiz.
Qolgan ustunlar xususiyatlardir.
0,2818052888499106
Natija - yorliqli ustun (0 yoki 1).
data.corr (ma'lumotlar)
teglar = ma'lumotlar
numpy ni np sifatida import qiling
Quyida ko'rsatilgandek dataframedagi ikkita o'zgaruvchi o'rtasidagi korrelyatsiyani tekshirishingiz mumkin. Bu erda juda ko'p
korrelyatsiya mavjud emas, chunki 0,28 va 0,54 1,00 dan uzoqdir.
0,5443412284023394
Machine Translated by Google


Faollashtirish funktsiyasi
Keras ketma-ket modeli
y=np.ravel(yorliqlar)
X_train = scaler.transform (X_train)
f(x) = 1, agar x > 0 bo'lsa
Bu f(x) = max (0, x) deyish bilan bir xil. Shunday qilib, f(-1), masalan = max(0, -1) = 0. Boshqacha qilib aytganda, ehtimollik
funksiyamiz manfiy bo'lsa, u holda 0 (noto'g'ri) ni tanlang. Aks holda 1 (to'g'ri) ni tanlang.
X_poezd, X_test, y_poezd, y_test = poezdni_test_split(X, y, test_size=0,33, tasodifiy_state=42)
Quyidagi kod Keras ketma-ket modelini yaratdi, bu boshqa texnikalar va neyron tarmoq turlaridan farqli o'laroq, ularni birma-
bir qo'shish orqali neyron tarmog'idagi qatlamlarni yaratishni anglatadi.
Endi biz qiymatlarni normallashtiramiz, ya'ni o'quv va test ma'lumotlar to'plamidagi har bir x ni oling va hisoblang (x - ) / ,
yoki o'rtacha () masofani standart og'ish () ga bo'linadi. Bu ma'lumotlarni a ga qo'ydi
Har bir qatlam uchun faollashtirish funksiyasini tanlang . Bu ((wx) + b) ni oladi va ehtimollikni hisoblaydi. Keyin neyron
((wx) + b) 1 (haqiqiy) yoki (0) manfiy bo'lishi kerakligini aniqlash uchun chegara o'rnatadi.
standart shkala, bu mashinani o'rganish bilan standart amaliyotdir.
StandardScaler buni ikki bosqichda bajaradi: fit() va transform().
(Bu diabetik, 1 yoki yo'q, 0 degani bilan bir xil emas, chunki neyron tarmoqlar ikkitadan ko'proq diskret natijalar bilan
muammolarni hal qila oladi.)
sklearn.preprocessing import StandardScaler dan
Birinchi ikki qatlam uchun biz relu (rektifikatsiya qilingan chiziqli birlik) faollashtirish funktsiyasidan foydalanamiz. Bu tanlov hech narsani
anglatmaydi, chunki siz sigmasimon bezni tanlashingiz mumkin edi . reluI barcha ijobiy qiymatlar uchun 1 va barcha salbiylar uchun 0.
Shunday qilib:
sklearn.model_selection import train_test_split dan
xususiyatlar = data.iloc
scaler = StandardScaler().fit(X_train)
f(x) = 0, agar x <=0 bo'lsa
X = xususiyatlar
X_test = scaler.transform (X_test)
Machine Translated by Google


model.add(zich(8, faollashtirish='relu'))
haqida ba'zi eslatmalar
keras.models import dan Sequential from
keras.layers import Zich
model.add(Zich(1, faollashtirish='sigmoid'))
Neyron tarmoqning maqsadi yo'qotish funktsiyasini, ya'ni bashorat qilingan va kuzatilgan qiymatlar
orasidagi farqni minimallashtirishdir. Biz foydalanishimiz mumkin bo'lgan ko'plab funktsiyalar mavjud. Biz

Download 0.57 Mb.

Do'stlaringiz bilan baham:
1   2   3   4   5   6   7




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling