Новая схема мошенничества распространяется через мессенджеры. Под предлогом доставки письма злоумышленники просят выслать код из СМС. Основой для атак могла стать утечка данных из «Почты России»
Мошенники вновь обманывают россиян от лица «Почты России». Схема начинается со звонка по WhatsApp (принадлежит компании Meta, признанной экстремистской и запрещенной в РФ) якобы от сотрудника компании.
Жертву просят продлить срок хранения заказного письма или уточнить адрес доставки. Затем называют верный адрес электронной почты и просят прислать код из смс, чтобы воспользоваться аккаунтом на «Госуслугах».Пользователи в соцсетях делятся своими историями:
Также злоумышленник может сообщить о неком «чат-боте «Почты России» и предложить воспользоваться им. На деле бот используется, чтобы получить доступ к аккаунту жертвы. Он предлагает ввести личные данные для авторизации. Если это сделать — можно лишиться своей учетной записи на «Госуслугах».
Важно помнить: сотрудники банков и госорганизаций не звонят через мессенджеры, не запрашивают коды из СМС и тем более не предлагают перейти по фишинговым ссылкам и ботам.
Комментирует эксперт по информационной безопасности, генеральный директор Phishman Алексей Горелкин:
— При всем этом мы понимаем, что у мошенников уже есть пароли от «Госуслуг», если речь о двухфакторной аутентификации. Откуда у них первичный пароль?
— Скорее всего, это совпадение. Я уверен, что это просто низкая киберкультура. У людей один и тот же пароль от всего. Ведь у немногих пароль от «Госуслуг» отличается, скажем, от пароля от «ВКонтакте». Поэтому у злоумышленников может оказаться пароль от «Госуслуг», но это не значит, что они украли его именно оттуда.
— Какие меры безопасности?
— Первая — скептицизм. Если вам пишут с непонятного адреса от имени «Почты России» по поводу доставки — просто проверьте все через официальное приложение или сайт «Почты России». Также пароли должны быть разными для разных систем. Особенно — для «Госуслуг» и банковских приложений. Для них должен быть сложный, уникальный пароль, который можно сгенерировать с помощью специальных приложений или придумать по алгоритму, чтобы он не был банальным и легко подбираемым.
Ранее эксперты предупредили о росте случаев мошенничества с использованием дипфейков. Жертвам присылают сгенерированные нейросетями видео и голосовые сообщения якобы от друзей и родственников с просьбой одолжить денег. ИИ точно копирует голос и манеру общения. Эксперты рекомендуют в таких случаях выводить человека на разговор по телефону или видеосвязи и всегда проверять реквизиты карт перед переводом средств.
Свежие комментарии