Искусственный интеллект в руках мошенников: как защититься от вымогательств

Мошенники используют поддельные сообщения, имитируя голос близкого человека в беде

684f0d298974b28d3debef10bdeb4de74cefe0a5.jpeg

Злоумышленники активно применяют искусственный интеллект для вымогательства, а также проникают в личные аккаунты, чтобы оказывать давление на жертв с помощью конфиденциальной информации, сообщила адвокат Вероника Полякова, сообщает РИА VladNews со ссылкой на РИАМО.

«Использование технологий искусственного интеллекта (deepfake) для шантажа и вымогательства – один из самых опасных трендов», – сказала Полякова.

По словам юриста, мошенники используют поддельные сообщения, имитируя голос близкого человека в беде. Эффективная защита – договоренность о кодовом слове или алгоритме действий в экстренной ситуации. При подозрительном звонке следует прекратить его и связаться с родственником проверенным способом, подчеркнула Полякова.

Адвокат также предупредила, что уступка шантажистам усугубляет проблему. Сделав первую выплату, вы не решите проблему, а усугубите ее, став постоянным источником финансирования для преступника с юридической точки зрения. В подобных случаях важно сохранять доказательства переписки, а также немедленно обратиться в полицию за юридической помощью.

Эксперт также напомнила об опасности передачи кодов из SMS, доступа к личным кабинетам и перехода по сомнительным ссылкам.

«В случае малейших сомнений – прекращайте коммуникацию и консультируйтесь с близкими или юристом», – резюмировала эксперт.
Другие материалы рубрики "Общество"
de507d373ff55f444efd4d5add9c195902bcfe63.jpeg

Гороскоп на 21 января

Сегодня скромность – это верный способ стать невидимкой и потерять расположение окружающих

2dffe16e36521f60b706be3ced1186ebe7fdeec4.jpeg

Россияне продолжат получать пенсионные баллы во время декрета

Один год декрета дает 1,8 пенсионного балла

4f8bc60f44a58767b12b6a72bca134289428aa6d.jpeg

Доля китайских авто в России может снизиться ниже 40%

Рынок смещается в сторону машин локальной сборки