Дипфейктер – бұл жасанды интеллектінің көмегімен өңделген фотолар, бейне немесе аудио жазбалар. «Deepfake» термині «терең» және «жалған» деген екі сөзден шыққан.
Бұл технология өмірде жоқ адамдарды бар қылып көрсетуге, кез-келген дауысты, мимиканы қолдан жасауға, адамның ешқашан айтпаған сөздерін сөйлеген сөзіне қосуға мүмкіндік береді. Алаяқтар үшін дипфейк кибершабуылдар жасап, азаматтардың құпия деректерін ұрлау үшін таптырмас құрал болып табылады. Fingramota.kz толығырақ айтып береді.
Дипфейк технологиясы мықты нейрондық желілерге негізделген, олардың көмегімен кез келген фото және бейне кескіндерді жасауға, адам даусының үні, бет-әлпеті сияқты биометриялық деректерді басқаруға болады. Дипфейктердің арқасында сіз ешқашан болмаған оқиғаларды жасай аласыз, адамға жас қосуға немесе, керісінше, бірнеше ондаған жасқа жасартуға, өмірден өткен актермен фильмді аяқтап түсіруге, фотоларға «жан бітіруге» болады. Мұны продюсерлер, режиссерлер, маркетологтар, жарнама берушілер және ... алаяқтар белсенді қолдануда.
Алаяқтар не істей алады?
Дипфейктердің көмегімен алаяқтар:
- банктік шотқа қолжеткізу, ондағы ақшаны қолма-қол ақшаға айналдыру және жалған кредит ресімдеу үшін біреудің жеке басын қолдан жасай алады;
- қайтыс болған адамның деректерін ұрлап, банктік онлайн-қызметтерге қолжеткізу үшін оған «жан бітіре» алады;
- өмірде жоқ жаңа «адамды» синтездеп, оны ірі қаржылық транзакциялар мен кредиттік алаяқтықтың күрделі схемаларын жасау үшін пайдалана алады.
Бұл іс жүзінде қалай іске асырылды?
Дипфейктер жақында қолданыла бастады, интернетте осы соңғы технологияға негізделген жалған бейнетүсірілімдер бес жыл бұрын пайда болды. Ал 2019 жылы осындай алғашқы ірі алаяқтық әлемді дүр сілкіндірді.
Ұлыбританияда киберқылмыскерлер жасанды интеллект көмегімен ірі энергетикалық компания басшысының дауысын және тіпті оның жеңіл немісше акцентін жасаған. Олар атқарушы директорға қоңырау шалып, шұғыл деген сылтаумен жеткізушіге бір сағат ішінде 220 мың еуроны аударуды талап етті. Менеджер өз «бастығының» нұсқауын орындады, бірақ алаяқтар мұнымен тоқтамады және қосымша төлемдер жасауды сұрап тағы екі рет қоңырау шалды. Бұл күдік тудырып, нәтижесінде тергеу жалған дыбысты қолдана отырып, хакерлік шабуыл жасалғанын көрсетті. Бірақ қаражатты қайтару, сондай-ақ шабуылдаушыларды табу мүмкін болмады.
2020 жылы филадельфиялық 68 жастағы адвокат алаяқтардың құрбаны болды, ол қоңырау шалған «ұлына» сенді. Алаяқтар жас жігіттің дипфейк-дауысын пайдаланып, әкесіне 9 мың доллар аударуды сұрап қоңырау шалды, бірақ, абырой болғанда, алаяқтық уақтылы әшкере болды.
2021 жылы Қытайда өз клиенттеріне жалған шот-фактуралар берген алаяқтардың өтірігі әшкереленді. Олар салық қызметінің жеке басын тексеру жүйесінен өту үшін адамдардың суреттерін сатып алып, дипфейк технологиясының көмегімен оларға «жан бітірді». Осылайша қылмыскерлер 76 миллион доллардан астам пайда тапты.
Сондай-ақ, дипфейктің көмегімен жасалған алаяқтық жағдайлары Ресейде де орын алды. Мысалы, 2021 жылы алаяқтар «Тинкофф» банкінің негізін қалаушымен дипфейк-бейнетүсірілім жасап, оны желіге таратқан. «Бизнесмен» пайдаланушыларды инвестициялық шот ашуға, өз қаражатын салуға және одан жақсы ақша табуға шақырды. Ол үшін төменде көрсетілген фишингтік сілтеме бойынша өтіп, өзіңіз туралы деректерді қалдыру қажет болды. Бейнетүсірілім өте сапалы болмаса да, көптеген пайдаланушылар оған алданып қалған.
Қазақстанда дипфейк технологиясын қолдану арқылы жасалатын алаяқтық фактілері туралы мәлімет жоқ. Біліп жүрсең, сақ жүресің дегендей, дипфейктерді қолданатын киберқылмыскерлерге қарсы күресудің негізгі тәсілі – пайдаланушылардың осындай схемасы туралы хабардар болуды арттыру және сандық гигиенаны сақтау.
Фейктің құрығына түспес үшін не істеу қажет?
Алаяқтар көп жағдайда өз «өнімдерінің» сапасына, ол бейне, фото немесе аудио өнім болмасын, жіті көңіл бөлмейді. Сол себепті адамның көзін бір түрлі ашып-жұмуы, қисынсыз сөздері, аздап тұтығып сөйлеуі немесе робот сияқты сөйлеу мәнері күдік туғызуы тиіс. Сізге жасанды болып көрінген нәрсенің барлығына күдікпен қарау қажет.
Жақын туысыңыз немесе танысыңыз телефон соғып, ақша аударуды сұрай ма? Сөйлесуді доғарыңыз және оның нөмірін өзіңіз теріп, оған қайтадан телефон шалыңыз. Сізге шын мәнінде алаяқтар емес, оның өзінің телефон соққанына көз жеткізіңіз.
Интернетте танымал адамның қиналмай-ақ көп ақша табуды ұсынатын ролик көрдіңіз делік. Көзбен көргеніңізге сенбеңіз, сарапқа салып, ойланыңыз. Мұндай кепілді кіріске кенелу жолын тек алаяқтар ғана ұсынады. Тіпті дипфейктерді пайдаланбайтын, тек белгілі және құрметті адамдардың бейнелерін пайдаланатын осындай «жарнамаларға» сенуге болмайды. Зиянкестер бүгінгі күні түрлі инвестициялық онлайн-платформаларда ақша табуды ұсынады, оған қатысу үшін фейк сайттарда жеке деректеріңізді қалдыру және ұйымдастырушыларға біраз сома аудару қажет.
Абай болыңыз, тек алаяқтар ғана «орасан байлыққа» кенелеуге уәде беріп, ақыр соңында өз құрбандарын сан соқтырып кетеді. Тек алаяқтар ғана ақшаның төңірегінде әңгіме өрбітіп, сізден аванс, кіру жарнасы, қосымша көрсетілетін қызметтер үшін төлем түрінде ақша алғысы келеді.
Енді олар мұны тікелей емес, жасанды интеллект арқылы жасай алады. Мейлі, сапасы аса жақсы болмаса да, кейбір сервистер дипфейк-бейне немесе аудио жасай алады, оларды тек бірнеше секундқа созылатын бір сурет не дыбыстық жазбаның көмегімен жасауға болады.
Сондықтан кибералаяқтардың құрығына түсіп қалмау үшін интернетте қарапайым қауіпсіздік шараларын сақтаған және кез келген жағдайда мұқият болған жөн.
Қызықты факт
Массачусетс технологиялық институты әзірлеген тест бар. Ол дипфейк технологиясының бейнеде қолданылуын анықтауға мүмкіндік беретін сегіз сұрақтан тұрады:
Өзіңізді, өз ақшаңызды сақтаңыз және қаржылық сауаттылығыңызды Fingramota.kz-пен бірге арттырыңыз!