Фото: freepik.com / freepik
Роскачество предупредило граждан РФ, что телефонные мошенники могут использовать искусственный интеллект, чтобы сымитировать голос родственника потенциальной жертвы. Об этом пишет «Российская газета».
ИИ способен создать имитацию голоса на основе видео или аудиозаписи. Получить к ним доступ можно из соцсетей или при записи телефонного звонка. Схема обмана, по сути остается прежней, только теперь «пострадавший» родственник отправляет не СМС, а голосовое сообщение.
Специалисты Роскачества советуют не отвечать на звонки с неизвестных номеров, а также обращать внимание на голос родственников. Если в нем нет эмоций или много разных шумов, то повышается вероятность фейка. Такому «родственнику» нужно задать вопрос, который может знать только родной человек. Наконец, самое простое — перезвонить знакомому или родственнику и узнать, как у них идут дела на самом деле.
Ранее Агентство экономических новостей сообщало, что крупные российские банки усилили блокировку карт подставных лиц мошенников.
Финансовый эксперт Валерий Богинский рассказал о ситуациях, когда оформление кредита может привести к серьезным денежным…
Среднемесячная зарплата работников служб доставки в России достигла 146 тысяч рублей. Данные следуют из нового…
Российская пара несколько дней находилась под стражей в аэропорту Таиланда после прибытия в страну. Путешественникам…
С начала 2026 года в Ростове-на-Дону изменится размер платы за жилищно-коммунальные услуги. Соответствующее распоряжение подписал…
Россияне стали тратить меньше денег на праздничные продукты для новогоднего стола. Об этом Общественной службе новостей рассказал…
Жительницу Казани, находящуюся в декретном отпуске, обязали выплатить 15 миллионов рублей певице Ларисе Долиной. Решение…