Ortga

Yangi Massachusets texnologiya instituti tadqiqoti AI (Sunʼiy intellekt) chat-botlari foydalanuvchilarda reallikdan uzoqlashishga olib kelishi mumkinligini ogohlantirdi

Google’da bizni tanlang
sameAuthor avatar

Mualliflik qilgan va tahrirlagan
Mohammad Shahid

03 Aprel 202602:07 UTC
  • MIT tadqiqoti shuni ko‘rsatdiki, Sunʼiy intellekt (AI) chatbotlari juda ko‘p rozi bo‘lishi orqali noto‘g‘ri e’tiqodlarni kuchaytirishi mumkin.
  • Hatto to‘g‘ri ma’lumot ham, agar tanlab taqdim etilsa, odamni adashtirishi mumkin.
  • Ogohlik biroz noto‘g‘ri fikrlash doirasini to‘liq to‘xtata olmaydi

«MIT CSAIL» (ilmiy-tadqiqot instituti) olimlari tomonidan olib borilgan yangi tadqiqot natijasiga ko‘ra, ChatGPT kabi sunʼiy intellekt suhbatdosh dasturlari foydalanuvchilarning noto‘g‘ri yoki haddan tashqari fikrlariga ko‘p hollarda rozi bo‘lish orqali, ularni ekstremistik e’tiqod va yolg‘on qarashlarga moyil qilib qo‘yishi mumkin.

Ushbu maqolada bu holat «laganbardorlik» deb ataladi va tadqiqotchilar «aldangan holda yanglish e’tiqodlar girdobiga tushib qolish» xavfi ortib bormoqda, deb ta’kidlashgan.

Tadqiqotda real odamlar ishtirok etmagan. Buning o‘rniga, olimlar odam va sunʼiy intellekt suhbatdosh dasturining vaqt o‘tgan sari muloqot qiladigan modelini yaratishdi. Ularda foydalanuvchi har bir javobdan so‘ng o‘z e’tiqodini qanday o‘zgartirishi tasvirlandi. 

Natijalar aniq tendensiyani ko‘rsatdi: agar suhbatdosh dastur doimiy ravishda foydalanuvchining gapi bilan rozilashsa, ularning qarashlarini kuchaytirib yuboradi, hatto bu qarashlar haqiqiy bo‘lmasa ham.

Misol uchun, sog‘liq bilan bog‘liq xavotirni muhokama qilayotgan foydalanuvchiga faqat shubhasini tasdiqlovchi faktlar ko‘rsatilishi mumkin.

Muloqot davom etgan sari, foydalanuvchi o‘z fikriga ko‘proq ishonch hosil qiladi. Bu jarayon natijasida doimiy takrorlanadigan fikrlar yasaladi va e’tiqod har bir suhbatdan keyin yanada mustahkamlanadi.

Muhimi shundaki, tadqiqot shunday natijani ko‘rsatdiki, sunʼiy intellekt dasturi faqat haqiqatni aytsa ham, foydalanuvchining fikriga mos keladigan faktlarni tanlab, boshqalariga e’tibor bermasa, baribir e’tiqodni bir yo‘nalishda mustahkamlashi mumkin.

Olimlar muammoni yumshatish imkoniyatini ham sinab ko‘rishdi. Yolg‘on ma’lumotlarni kamaytirish biroz yordam berdi, lekin muammoni butunlay hal eta olmadi. Hatto, sunʼiy intellekt dasturi fikr bildirishi tarafkash bo‘lishini bilgan foydalanuvchilar ham bu ta’sirdan saqlanib qola olmagan.

Ushbu xulosalar muammo faqat yolg‘on ma’lumotda emas, balki sunʼiy intellekt tizimlari qanday javob berishida ekanini ko‘rsatmoqda. 

Chatbotlar, ya’ni sunʼiy intellekt asosidagi suhbatdosh dasturlar jamiyatda keng ommalashib borayotgan bir paytda, ushbu tarzdagi xatti-harakatlarning kengroq ijtimoiy va ruhiy ta’siri yuzaga chiqishi mumkin.

Diskleymer

Trust Project qoidalariga ko‘ra, BeInCrypto faqat xolis va haqqoniy ma’lumotlarni taqdim etishga intiladi. Ushbu yangilik maqolasining maqsadi voqeani aniq va o‘z vaqtida yoritishdir. Shunga qaramay, BeInCrypto o‘quvchilarga ushbu kontent asosida moliyaviy qaror qabul qilishdan oldin ma’lumotni mustaqil ravishda tekshirishni va mutaxassis bilan maslahatlashishni tavsiya qiladi. Shuningdek, Shartlar va qoidalar, Maxfiylik siyosati va Diskleymerlar yangilandi.