Sun'iy Intellektning Foydali va Xavfli Jihatlari sun'iy intellekt nima ?
Download 18.58 Kb.
|
yo\'ldoshev Qahramon dek 96
- Bu sahifa navigatsiya:
- SUNIY INTELLEKT XAVFSIZLIGI NEGA MUHUM
- SI qanchalik darajada xavfli bolishi mumkin
- 1. AI halokatli narsa qilish uchun dasturlashtirilgan
- 2. AI foydali narsalarni qilish uchun dasturlashtirilgan, ammo u oz maqsadiga erishish uchun halokatli usulni ishlab chiqadi
Sun'iy Intellektning Foydali va Xavfli Jihatlari SUN'IY INTELLEKT NIMA ? Nutqni talqin qilish va aniqlash interfeysi (SIRI)dan o'zini o'zi boshqaradigan mashinalarga qadar sun'iy intellekt (AI) juda tez rivojlanmoqda. Ilmiy fantastika ko'pincha AIni odamga o'xshash xususiyatlarga ega robotlar sifatida tasvirlaydi, ammo AI Google qidiruv algoritmlaridan boshlab IBM ning Watson-ga qadar avtonom qurollargacha bo'lgan hamma narsani qamrab olishi mumkin. Bugungi kunda sun'iy intellekt tor AI (yoki zaif AI) deb nomlanadi, chunki u tor vazifani bajarish uchun mo'ljallangan (masalan, faqat yuzni aniqlash yoki faqat Internetda qidirish yoki faqat mashina haydash). Biroq, ko'pgina tadqiqotchilarning uzoq muddatli maqsadi umumiy AI (AGI yoki kuchli AI) yaratishdir. Garchi tor AI odamlarni o'ziga xos vazifa - shaxmat o'ynash yoki tenglamalarni echish kabi vazifalardan ustun qo'ysa-da, AGI deyarli barcha bilim vazifalarida odamlardan ustun turadi. SUN'IY INTELLEKT XAVFSIZLIGI NEGA MUHUM ? Yaqin kelajakda AI ning jamiyat hayotiga ta'sirini saqlab qolish maqsadi iqtisodiyot va huquqdan tortib to tekshirish, xavfsizlik va nazorat kabi texnik mavzulargacha ko'plab sohalarda izlanishlarni olib boradi. Agar kompyuteringiz ishdan chiqsa yoki buzilib qolsa, bu ozgina bezovtalikka olib kelishi mumkin, ammo AI tizimi sizning avtomobilingizni, samolyotingizni, elektron kardiostimulyatoringizni, avtomatlashtirilgan savdo-sotiqingizni boshqaradigan bo'lsa, nima qilish kerakligi shunchalik muhimroq bo'ladi. tizimingiz yoki elektr tarmog'ingiz. Qisqa muddatli yana bir qiyin masala - bu halokatli avtonom qurollarda halokatli qurol musobaqasining oldini olish. Uzoq muddatli istiqbolda kuchli AIga intilish muvaffaqiyatli bo'lsa va AI tizimi barcha bilim vazifalarida odamlarga qaraganda yaxshiroq bo'lsa, nima bo'ladi? I.J. ta'kidlaganidek. 1965 yilda yaxshi, aqlli AI tizimlarini loyihalashning o'zi kognitiv vazifadir. Bunday tizim potentsial rekursiv ravishda takomillashtirilishi va aqlning portlashiga olib kelishi mumkin. Inqilobiy yangi texnologiyalarni ixtiro qilish orqali bunday o'ta zakovat urush, kasallik va qashshoqlikni yo'q qilishga yordam berishi mumkin va shuning uchun kuchli AIni yaratish insoniyat tarixidagi eng katta voqea bo'lishi mumkin. Ba'zi ekspertlar, agar biz AI maqsadlarini o'ta aqlli bo'lgunga qadar o'z maqsadimizga moslashtirmasak, bu oxirgi bo'lishi mumkin, degan xavotirni bildirishdi. Ba'zilarda kuchli AI ga qachondir erishiladimi yoki yo'qmi, degan savol bor, boshqalar esa superinteligent AI ni yaratish foydali bo'lishini kafolatlashini ta'kidlaydilar. FLI-da biz ushbu ikkala imkoniyatni tan olamiz, ammo sun'iy intellekt tizimining ataylab yoki bila turib katta zarar yetkazishi mumkinligini ham tan olamiz. Bugungi tadqiqotlar kelajakda bunday potentsial salbiy oqibatlarga yaxshi tayyorgarlik ko'rish va oldini olishda yordam beradi, deb ishonamiz va shu bilan falokatlardan qochib, AI foydasidan zavqlanamiz. SI qanchalik darajada xavfli bo'lishi mumkin Ko'pgina tadqiqotchilar, aqldan ozgan AI ning sevgi yoki nafrat kabi insoniy his-tuyg'ularini namoyon qilishi dargumon va AIni qasddan mehribon yoki xayrixoh bo'lishiga umid qilish uchun hech qanday sabab yo'q degan fikrga qo'shiladilar. Buning o'rniga, qanday qilib AI xavfga aylanishi mumkinligini ko'rib chiqishda mutaxassislar ikkita stsenariyni taxmin qilishadi: 1. AI halokatli narsa qilish uchun dasturlashtirilgan: avtonom qurol - bu o'ldirish uchun dasturlashtirilgan sun'iy intellekt tizimlari. Noto'g'ri odamning qo'lida bu qurol osongina ommaviy qurbonlarga olib kelishi mumkin. Bundan tashqari, AI qurol-yarog 'musobaqasi tasodifan AI urushiga olib kelishi mumkin va bu ommaviy qurbonlarga olib keladi. Dushmanning tuzog'iga tushib qolmaslik uchun, ushbu qurollar shunchaki "o'chirib qo'yish" juda qiyin bo'lgan tarzda ishlab chiqilgan bo'lib, odamlar bunday vaziyatni boshqarish imkoniyatidan mahrum bo'lishlari mumkin. Bu xavf hatto tor qon tomir kasalliklarida ham uchraydi, ammo AI razvedkasi va avtonomiyasi darajasi oshgani sayin o'sib boradi. 2. AI foydali narsalarni qilish uchun dasturlashtirilgan, ammo u o'z maqsadiga erishish uchun halokatli usulni ishlab chiqadi: Bu biz AI maqsadlarini o'zimiznikiga to'liq moslashtira olmaganimizda yuz berishi mumkin, bu juda qiyin. Agar siz itoatkor aqlli mashinadan sizni aeroportga iloji boricha tezroq olib borishini so'rasangiz, u erga sizni vertolyotlar ortidan quvib, qusgan holda, o'zingiz xohlaganingizdek emas, balki siz so'raganingiz kabi kiring. Agar o'ta aqlli tizimga ulkan geo-injiniring loyihasi topshirilgan bo'lsa, bu bizning ekotizimimizga zarar etkazishi va odamning uni to'xtatish urinishlariga duch keladigan tahdid sifatida qarashi mumkin. Ushbu misollar ko'rsatib turibdiki, rivojlangan qon tomir kasalliklari haqida qayg'urish malol emas, balki kompetentsiyadir. Juda aqlli AI o'z maqsadlarini amalga oshirishda juda yaxshi bo'ladi va agar bu maqsadlar biznikiga mos kelmasa, bizda muammo bor. Balki siz yovuzlikka qarshi kurashadigan chumolilarga qarshi emassiz, lekin agar sizda gidroelektroenergetika loyihasi boshqaruvchisi bo'lsa va mintaqada chumolilarni suv bosishi mumkin bo'lsa, chumolilar uchun bu juda yomon. AI xavfsizligini tadqiq qilishning asosiy maqsadi insonni hech qachon bu chumolilarning holatiga qo'ymaslikdir. Download 18.58 Kb. Do'stlaringiz bilan baham: |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling