Роскачество предупредило граждан РФ, что телефонные мошенники могут использовать искусственный интеллект, чтобы сымитировать голос родственника потенциальной жертвы. Об этом пишет «Российская газета».
ИИ способен создать имитацию голоса на основе видео или аудиозаписи. Получить к ним доступ можно из соцсетей или при записи телефонного звонка. Схема обмана, по сути остается прежней, только теперь «пострадавший» родственник отправляет не СМС, а голосовое сообщение.
Специалисты Роскачества советуют не отвечать на звонки с неизвестных номеров, а также обращать внимание на голос родственников. Если в нем нет эмоций или много разных шумов, то повышается вероятность фейка. Такому «родственнику» нужно задать вопрос, который может знать только родной человек. Наконец, самое простое — перезвонить знакомому или родственнику и узнать, как у них идут дела на самом деле.
Ранее Агентство экономических новостей сообщало, что крупные российские банки усилили блокировку карт подставных лиц мошенников.
В результате посещения военного музея Минобороны в Балтийске несовершеннолетний лишился пальца. Об этом информирует пресс-служба…
Президент Украины Владимир Зеленский подписал указ, согласно которому 34 человека, большинство из которых — известные…
В Санкт-Петербурге сотрудники полиции задержали вооруженных грабителей, которые пытались похитить товары из магазина, специализирующегося на…
К моменту отзыва лицензии у Банка корпоративного финансирования (БКФ) 876 клиентов из Новосибирской области разместили…
В 2024 году в Российской Федерации было отмечено значительное увеличение числа посетителей игорных зон. По…
Представители игорных зон России, расположенные в Красной Поляне, Калининградской области, Алтайском крае и Приморском крае,…