Искусственный интеллект в руках мошенников: как защититься от вымогательств
Мошенники используют поддельные сообщения, имитируя голос близкого человека в беде
Злоумышленники активно применяют искусственный интеллект для вымогательства, а также проникают в личные аккаунты, чтобы оказывать давление на жертв с помощью конфиденциальной информации, сообщила адвокат Вероника Полякова, сообщает РИА VladNews со ссылкой на РИАМО.
«Использование технологий искусственного интеллекта (deepfake) для шантажа и вымогательства – один из самых опасных трендов», – сказала Полякова.По словам юриста, мошенники используют поддельные сообщения, имитируя голос близкого человека в беде. Эффективная защита – договоренность о кодовом слове или алгоритме действий в экстренной ситуации. При подозрительном звонке следует прекратить его и связаться с родственником проверенным способом, подчеркнула Полякова.
Адвокат также предупредила, что уступка шантажистам усугубляет проблему. Сделав первую выплату, вы не решите проблему, а усугубите ее, став постоянным источником финансирования для преступника с юридической точки зрения. В подобных случаях важно сохранять доказательства переписки, а также немедленно обратиться в полицию за юридической помощью.
Эксперт также напомнила об опасности передачи кодов из SMS, доступа к личным кабинетам и перехода по сомнительным ссылкам.
«В случае малейших сомнений – прекращайте коммуникацию и консультируйтесь с близкими или юристом», – резюмировала эксперт.