Искусственный интеллект все больше входит в нашу жизнь. И пользы от него немало. Но в любой «бочке меда», как водится, и «ложка дегтя» имеется. А именно: возможности искусственного разума стали доступны и нечистым на руку гражданам. И уже начали появляться преступные схемы, где мошенники умело задействовали такие современные технологии. Что известно о случаях мошенничества с задействованием искусственного интеллекта и что важно знать тем, кто не хочет быть обманутым?
По данным Федеральной торговой комиссии, за последние два года случаи интернет-мошенничества увеличились на 150%. А преступные схемы становятся все более оригинальными и изощренными. Например, для своей деятельности преступники начали использовать технологию воспроизведения голоса с которой работает искусственный интеллект.
Статья по теме: Подмена лица и голоса. Что такое дипфейки и можно ли их распознать?
Мошенники просто генерируют необходимое звучание и таким образом обворовывают людей. Так, злоумышленники могут подделать голос близкого человека своей потенциальной жертвы и от его имени заявить, что тот попал в неприятную ситуацию (угодил в ДТП, был схвачен бандитами и т.д. Тут фантазия мошенников беспредельна) и на этом фоне начать вымогать деньги.
При этом эксперты по кибербезопасности утверждают: искусственному интеллекту достаточно всего 10 минут изучения, чтобы воспроизвести необходимый голос.
Поэтому специалисты советуют использовать с близкими «кодовое слово» и всегда перезванивать человеку, чтобы проверить, что вам точно звонил именно он. Также не стоит выкладывать в социальные сети приватную информацию – это тоже может сыграть на руку преступникам.
Ранее «Одесская жизнь» рассказывала: