Мошенники “заговорили” на казахском: как аферисты используют ИИ, рассказали в полиции
17 мая, 2025


Фото: Оңалхан Өнерхан
Аферисты могут использовать технологию Deepfake для создания поддельных изображений известных людей или родственников, чтобы повысить убедительность обмана, передает Elordainfo.kz со ссылкой на Polisia.kz.
Как сообщили в ведомстве, злоумышленники нередко рассылают сообщения или совершают звонки, имитируя голос и манеру речи реальных людей — например, сотрудников банков, правоохранительных органов или близких собеседника.
«Обращайте внимание на нелогичные фразы и отсутствие эмоций в голосе. Никогда не передавайте личные данные — ИИН, номер банковского счёта, пароли. Доверяйте только официальным источникам», — подчеркнули в пресс-службе.
Похожие новости

Сегодня, 17:55
Акимат в Павлодарской области требовал у бизнесменов доставшееся им по госпрограмме имущество

Сегодня, 14:41
Вооруженные силы Казахстана переходят на национальный мессенджер Aitu

Сегодня, 14:20
Аким в области Абай незаконно установил дорожные знаки

Сегодня, 13:56
За 7 месяцев заблокировано 20 тысяч наркосайтов – МВД