AI (Sunʼiy intellekt) asosida ishlaydigan vositalar yordamida soxta (deepfake) materiallar yaratilishining ko‘payishi ommaviy xavfsizlik borasida qayta tashvishlarni paydo qilmoqda.
Texnologiya yanada rivojlanib, barcha uchun ochiq bo‘lib borayotgan bir paytda, markazlashgan birjalarda ishlatiladigan vizual identifikatsiya — odamning shaxsini tasdiqlash tizimlari ishonchliligi yuzasidan ham savollar ortib bormoqda.
Hukumatlar soxta videolarni cheklash choralarini ko‘rmoqda
Soxta videolar ijtimoiy tarmoqlarda juda tez tarqalmoqda. Bu esa yangi yolg‘on xabarlar va to‘qima (sun’iy) materiallarning avj olishiga olib kelmoqda. Ushbu texnologiyaning noto‘g‘ri ishlatilishi tobora ommaviy xavfsizlik va shaxsiy daxlsizlikka jiddiy putur yetkazmoqda.
Muammo endi favqulodda bosqichga chiqdi: dunyo davlatlari soxta (deepfake) vositalaridan foydalanishni noqonuniy deb e’lon qilmoqda.
Hafta davomida Malayziya va Indoneziya davlatlari ilk bo‘lib Elon Maskning xAI (Sunʼiy intellekt kompaniyasi) tomonidan tuzilgan Grok (AI-chatbot) xizmatiga kirishni chekladi. Rasmiylar bunga bu vositaning noto‘g‘ri ishlatilishi, ya’ni roziliksiz va ochiq-oydin jinsiy obrazlarni yaratishga oid xavotirlar sabab bo‘lganini bildirdi.
Kaliforniya bosh prokurori Rob Bonta ham shunga o‘xshash qarorni e’lon qildi. Chorshanba kuni u o‘z idorasi haqiqatga to‘g‘ri kelmaydigan, roziliksiz tuzilgan jinsiy obrazlar ishlatilgan voqealarni o‘rganayotganini tasdiqladi.
«Bu materiallar, asosan, ayollar va bolalarni yalang‘och va ochiq jinsiy holatlarda ko‘rsatadi, ularning yordamida internet tarmog‘ida odamlar bezovta qilinmoqda. Men xAI (Sunʼiy intellekt kompaniyasi)dan zudlik bilan chora ko‘rishni, bu ko‘lamli jarayonning oldi olinishini so‘rayman», — dedi Bonta o‘zining bayonotida.
Avvalgi soxta (deepfake) texnologiyalaridan farqli ravishda, yangi vositalar matnli buyruqlar orqali tez va moslashuvchan javob bera oladi. Ular odamlarning yuz harakatlari va talaffuzini tabiiy tarzda taqlid qilishga muvaffaq bo‘lmoqda.
Natijada, oddiy tekshiruvlar — masalan, ko‘zni yumish, jilmayish yoki boshni harakatlantirish kabi belgilar endi inson shaxsini ishonchli tasdiqlashga har doim ham kafolat bermaydi.
Bu yangiliklar vizual tasdiqqa tayanadigan markazlashgan birjalar uchun bevosita xavf tug‘diradi.
Markazlashgan birjalar bosim ostida
Soxta (deepfake) vositalari yordamida sodir etilayotgan firibgarliklar moliyaviy yo‘qotishlarga sabab bo‘lishi endi nazariy masala emas.
Sanoat mutaxassislari va texnologiya tadqiqotchilari sun’iy intellekt yordamida tayyorlangan foto va videolar hozirda sug‘urta da’volari va sud ishlarida ko‘p uchrayotganini ta’kidlashmoqda.
Global miqyosda faoliyat olib boradigan va ko‘pincha avtomatlashtirilgan autentifikatsiya tizimiga tayanadigan kripto platformalar, zarur xavfsizlik choralari texnologiyalarga mos ravishda yangilanmasa, ushbu soxta faoliyat uchun maqsadli oson nishonga aylanishi mumkin.
AI (Sunʼiy intellekt) yordamida ishlab chiqarilgan materiallarga kirish borgan sari osonlashmoqda. Shu bois, faqat vizual ishonch asosida tekshiruv qilish endi yetarli bo‘lmasligi mumkin.
Kripto platformalar uchun asosiy vazifa — zamonaviy xavfsizlik choralari texnologiya tezligiga yetkazilmasidan, foydalanuvchilar va tizim xavfsizligi uchun zarur ehtiyot choralarini tezda joriy qilishdan iborat bo‘lib qoladi.