Sun'iy intellekt va robototexnika etikasi


Qaror tizimlarida noaniqlik


Download 99.88 Kb.
bet7/17
Sana05.01.2022
Hajmi99.88 Kb.
#215587
1   2   3   4   5   6   7   8   9   10   ...   17
Bog'liq
610-17-12 Муроджон Юсупов муст. иш

Qaror tizimlarida noaniqlik

Avtomatlashtirilgan SI qarorlarni qo'llab-quvvatlash tizimlari va "prognozli tahlil" ma'lumotlar asosida ishlaydi va qarorni "chiqish" sifatida chiqaradi. Ushbu mahsulot nisbatan ahamiyatsizdan juda muhimgacha o'zgarishi mumkin: "ushbu restoran sizning xohishingizga mos keladi", "rentgenogrammada bemor suyak o'sishini yakunladi", "kredit kartaga murojaat rad etildi", "donor organ beriladi. boshqa bemor »,« garov puli rad etilmoqda »yoki« nishon aniqlangan va shug'ullangan ». Ma'lumotlarni tahlil qilish ko'pincha biznes, sog'liqni saqlash va boshqa sohalarda "bashorat qiluvchi tahlillarda" qo'llaniladi, kelajakdagi o'zgarishlarni oldindan bilish uchun - bashorat qilish osonroq bo'lgani uchun u ham arzon tovarga aylanadi. Bashorat qilishning bir usuli - "bashorat qiluvchi politsiya" (NIJ 2014 [OIR]), chunki ko'pchilik qo'rquv jamoat erkinliklarining eroziyasiga olib kelishi mumkin (Ferguson 2017), chunki u xatti-harakatlari taxmin qilingan odamlarning kuchini tortib olishi mumkin.Biroq, militsiya bilan bog'liq ko'plab muammolar, huquqni muhofaza qilish idoralari jinoyat sodir bo'lguncha kutishdan ko'ra, rejalashtirilgan harakatlarni oldindan belgilab qo'yadigan va jazolaydigan futuristik stsenariylarga bog'liq ekan (2002 yildagi "Ozchiliklar to'g'risidagi hisobot" filmida bo'lgani kabi). Bir muammo shundaki, ushbu tizimlar tizimni o'rnatish uchun ishlatilgan ma'lumotlarda mavjud bo'lgan noxolislikni davom ettirishi mumkin, masalan, mintaqada politsiya patrullarini kuchaytirish va bu sohada ko'proq jinoyatchilikni aniqlash. Haqiqiy "bashorat qiluvchi politsiya" yoki "razvedka boshqargan politsiya" uslublari asosan politsiya kuchlari qaerga va qachon ko'proq kerak bo'ladi degan savolga tegishli. Shuningdek, politsiyachilarga ish jarayonini qo'llab-quvvatlash dasturiy ta'minotida (masalan, "ArcGIS") ko'proq nazoratni taklif qiladigan va yaxshi qaror qabul qilishga ko'mak beradigan qo'shimcha ma'lumotlar taqdim etilishi mumkin.Bu muammoli bo'ladimi, ushbu tizimlarning texnik sifatiga bo'lgan ishonch darajasiga va politsiya ishining o'zi belgilagan maqsadga bog'liq. Ehtimol, yaqinda chop etilgan maqolada bu erda to'g'ri yo'nalish ko'rsatilgandir: "Prognozli politsiyadagi sun'iy intellekt etikasi: tahdid modellaridan ehtiyotkorlik axloqiga" (Asaro 2019).

Odatda nohaqlik hukmlari chiqarilganda, tarafkashlik yuz beradi, chunki hukm chiqaradigan shaxsga aslida bu masalaga ahamiyatsiz bo'lgan xususiyat , odatda guruh a'zolariga nisbatan kamsituvchi dastlabki tushunchalar ta'sir qiladi. Shunday qilib, tarafkashlikning bir shakli odamning o'rganilgan bilim xususiyatidir, ko'pincha aniq aytilmaydi. Tegishli shaxs bu tarafkashlikdan xabardor bo'lmasligi mumkin - ular hattoki ular tomonidan aniqlangan tarafkashlikka halol va aniq qarshi bo'lishlari mumkin (masalan, priming orqali, qarang: Graham va Lower 2004). Mashinalarni o'rganishda adolatsizlik va noaniqlik to'g'risida Binns (2018) ga qarang.

O'rganilgan tarafkashlikning ijtimoiy hodisasidan tashqari, odamning kognitiv tizimida har xil "kognitiv tarafkashlik" lar, masalan, "tasdiqlash tarafkashligi" mavjud: odamlar ma'lumotni o'zlari ishongan narsalarni tasdiqlovchi sifatida talqin qilishadi. Ushbu ikkinchi tarafkashlik shakli ko'pincha oqilona qaror chiqarishda to'sqinlik qiladi deyiladi (Kahnemann 2011) - garchi hech bo'lmaganda ba'zi bir tanqidiy fikrlar evolyutsion ustunlikka ega bo'lsa, masalan, intuitiv hukm qilish uchun resurslardan tejamli foydalanish. SI tizimlarida bunday bilimga moyillik bo'lishi mumkinmi yoki yo'qmi degan savol tug'iladi.

Uchinchi tarafkashlik shakli muntazam xatolarga yo'l qo'yganda, masalan, "statistik noto'g'ri" ma'lumotlarda mavjud. To'liq aytganda, har qanday ma'lumotlar to'plami faqat bitta turdagi masala uchun xolis bo'ladi, shuning uchun ma'lumotlar to'plamini yaratish shunchaki uning boshqa turdagi masalalar uchun ishlatilishi xavfini o'z ichiga oladi va keyinchalik ushbu turdagi uchun noaniq bo'lib chiqadi. Bunday ma'lumotlar asosida mashinani o'rganish nafaqat tarafkashlikni tan olmaydi, balki "tarixiy tarafkashlik" ni kodlaydi va avtomatlashtiradi. Bunday tarixiy xatolik ayollarni kamsitadigan Amazon kompaniyasida (2017 yil boshida to'xtatilgan) ishga yollash bo'yicha avtomatlashtirilgan skrining tizimida aniqlangan - ehtimol kompaniya ish paytida ayollarni kamsitib kelgan. "Muqobil sanksiyalar uchun huquqbuzarlarni boshqarish profilaktikasi" (COMPAS), sudlanuvchining qayta jinoyat sodir etishini prognoz qilish tizimi,tasodifiy odamlar guruhi singari muvaffaqiyatli (65,2% aniqlik) (Dressel va Farid 2018) kabi bo'lganligi va qora tanli ayblanuvchilar uchun ko'proq yolg'on ijobiy va kamroq noto'g'ri negativlar ishlab chiqarilganligi aniqlandi. Shunday qilib, bunday tizimlarning muammosi bir taraflama ortiqcha odamlarning tizimlarga haddan tashqari ishonishidir. AQShdagi bunday avtomatlashtirilgan tizimlarning siyosiy o'lchamlari Eubanks (2018) da o'rganilgan.

SI tizimlaridan tarafkashlikni aniqlash va olib tashlash bo'yicha sezilarli texnik harakatlar mavjud, ammo ular dastlabki bosqichda deb aytish adolatli: Buyuk Britaniyaning axloqiy intellekt va mashinani o'rganish institutiga qarang (Brownsword, Scotford, and Yeung 2017; Yeung and Lodge 2019) . Ko'rinib turibdiki, texnologik tuzatishlar, "irq" ("irq") rasmiy tushunchasi kabi, adolatning matematik tushunchasiga muhtoj bo'lib, uni anglash qiyin (Whittaker va boshq. 2018: 24ff; Selbst va boshq. 2019) ( qarang: Benthall va Xeynlar 2019). Institutsional taklif (Veale va Binns 2017).




Download 99.88 Kb.

Do'stlaringiz bilan baham:
1   2   3   4   5   6   7   8   9   10   ...   17




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling