Статьи

Не верь глазам своим: как не попасться на ИИ-обман в соцсетях

Несколько лет назад искусственный интеллект (ИИ) стремительно ворвался в нашу жизнь. Польза от его использования в медицине, науке, ведении военных действий, обучении, создании контента — огромная. Однако, как и каждая разработка, каждое научное открытие, ИИ несет определенные риски. Чем грозит использование и популяризация сгенерированных ИИ материалов, в частности в социальных сетях, нам разъяснил и дал советы эксперт Александр Гороховский, руководитель проекта по противодействию дезинформации «БезБрехни».

Получив доступ к соответствующим инструментам ИИ с 2022 года, любой из нас может сгенерировать изображение по текстовому описанию. Это удивляет, поражает и одновременно заставляет задуматься: как отличить настоящее от ложного и почему это важно?

Почему не стоит поздравлять незнакомых людей с днем рождения

Страницы соцсетей сейчас пестрят сгенерированными изображениями военных, раненых на войне, обездоленных детей или людей пожилого возраста. Немало и просьб поздравить воина с днем рождения в группах с довольно позитивными названиями: «Единая Украина», «Патриоты Украины» и других.

фейковое сообщение в Фейсбуке

Эти сообщения создаются таким образом, чтобы вызвать пользователя соцсетей на определенную эмоцию, задержать внимание на данной информации и главное — отреагировать на нее. Казалось бы, чем может быть опасен лайк под таким сообщением?

— Оказывается, может, — убежден Александр Гороховский, руководитель проекта по противодействию дезинформации «БезБрехні», — Одна из главных опасностей реакции на такой пост — возможность автора позже изменить его содержание (текст или изображение) или отредактировать его. Таким образом, вы одобряете информацию, с которой можете быть частично или полностью не согласны, однако доказать, что пост был изменен, очень сложно.

Александр Гороховский

Кроме того, авторы сгенерированного контента таким образом собирают личную информацию о пользователе, группе или сообществе и способствуют быстрому продвижению определенных страниц. Это дает возможность как изучать рынок сбыта информации, так и обрабатывать данные, которые впоследствии россияне будут использовать во время дальнейших дискредитирующих информационных кампаний. Вспомните, чего стоит только безумное влияние образа «распятого мальчика в трусиках» на общественное сознание россиян, поэтому не стоит недооценивать подобные методы.

ШІ на озброєнні росіян

фейковое сообщение о работнике ТЦК и СП

Яркий пример вражеской пропаганды в соцсетях — работник ТЦК извиняется перед украинскими военными, набрал только в Facebook почти 600 тысяч просмотров, 1500 комментариев и 10 тысяч лайков!

Детальный анализ, а именно: выявление учетной записи TikTok по водяной марке petrotremcykvolin на видео, скриншот кадра и загрузка его в раздел «Картинки» поисковых систем помогли узнать, что страница TikTok, на которой была создана эта картинка, оказалась однодневкой (то есть ее создали для одного-единственного «вброса»).

Дипфейк — мощный вид дезинформации

Следует обратить внимание на еще один способ обмана с помощью инструментов ИИ — использование дипфейков. Один из самых распространенных вариантов — сочетание фото или видео с недостоверным аудио или информацией. Например, мэры Берлина, Вены, Мадрида, Будапешта и Варшавы провели телефонный разговор со сгенерированной версией Виталия Кличко. Злоумышленники создали виртуальный двойник мэра Киева с помощью технологии deepfake, а перед этим самостоятельно договорились о звонке. Мэр Берлина Франциска Гиффай во время разговора отключилась, потому что из-за странных просьб мэра заподозрила, что с ним что-то не так. А вот Михаэль Людвиг, бургомистр австрийской столицы, не понял, что с ним вел разговор не настоящий Кличко.

Мэр Берлина Франциска Гиффай разговаривает с фейковым Кличко Источник канцелярия мэрии Берлина

Как определить правдивость информации?

Научиться соблюдать информационную гигиену необходимо, если мы не хотим быть обманутыми и подвергаться манипуляциям.

— Это не так сложно, как кажется на первый взгляд, однако приложить определенные усилия все же придется, — отмечает Александр Гороховский, — Проверять на истинность необходимо как контент в совокупности, так и каждую составляющую отдельно: информацию, ее источник, аудио, изображения.

Определяем реальность изображений

Недавно вышли обновления уже существующих программ, но пока в соцсетях в основном используют сгенерированные фото или рисунки, которые содержат ряд специфических признаков:

  • слишком яркие цвета изображений;
  • своеобразная «идеальность», искусственность изображений (чистая одежда солдат во фронтовых условиях);
  • глянцевая кожа, будто светящаяся изнутри;
  • повторы элементов, деталей и лиц (если на картинке изображено много людей, то определенное их количество будут иметь схожие черты лица);
  • отсутствие необходимых деталей, мелких дефектов предметов или присутствие лишних (лишние пальцы на руках, или ИИ не понимает, где и как располагаются украшения);
  • неравномерное распределение света/тени;
  • непропорциональность тела человека, расфокус взгляда (такая себе косоглазие человека);
  • использование на заднем плане текста с ошибками и другие.

Попробуем проанализировать эти два фото. На первый взгляд, они кажутся довольно реалистичными. Однако при внимательном наблюдении можно заметить, что на фото слева сумка будто «висит» в воздухе, а значит, именно это изображение является искусственным.

Какая женщина настоящая?

Полезные сервисы и инструменты

Распознавать сгенерированные изображения становится все сложнее, но существуют определенные инструменты, например AI or Not, Hive AI Detector для Chrome, TinEye, https://tineye.com/, которые помогают нам проверять изображения на предмет истинности.

Заметьте, эти и другие инструменты, к сожалению, могут ошибаться. Поэтому увеличьте фото, внимательно его проанализируйте, а при необходимости — примените вспомогательные программы или сервисы. Сделайте закладки таких сервисов в своих гаджетах — это позволит экономить время на поиск. Попробуйте самостоятельно сделать несколько изображений, а лучше подписаться на группу или канал, где люди делятся такими изображениями. Это поможет натренировать вашу способность отличать ИИ-изображения.

Определяем искусственный голос

Голос и незнакомого, и родного человека может быть ненастоящим. Учитывая, что звонки с помощью соцсетей довольно актуальны, приведем несколько признаков сгенерированного с помощью ИИ голоса и рекомендации его проверки:

  • ИИ-голоса могут звучать монотонно, без эмоций;
  • нестандартная интонация: иногда ИИ может неправильно ставить ударение в словах или делать паузы в несвойственных местах;
  • обратите внимание на лексику: она может не соответствовать региону, ситуации или часто употребляемым словам близкого вам человека;
  • действенный инструмент проверки искусственного голоса — сервис Descript’s Overdub;
  • если вам звонит друг или родственник, используйте текстовый запрос человеку, который вам звонит, из другой соцсети или мобильного оператора.

Почему люди распространяют в соцсетях ИИ-картинки и кому это выгодно

— Не забывайте о еще одной проблеме, условно ее можно назвать «усталость от информации», — объясняет Александр Гороховский, — Ежедневно мы находимся под давлением огромного количества информационных сообщений, и, отвлекаясь на ложные сообщения, в следующий раз проходим мимо правды, ведь каждый раз применять критическое мышление для обработки информации довольно сложно для обычного человека. Кроме того, «эмоционально тяжелые» нарративы, связанные с травматическими событиями в обществе во время войны, довольно сильно истощают нас ментально и психологически. И не забывайте о «потреблении» ложной информации, на основе которой формируется наше отношение к тому или иному человеку или событию, что искажает реальную картину происходящего.

К тому же любая социальная сеть — это рынок. И если правильно использовать его возможности, вполне реально заработать неплохие деньги. Чем больше лайков и комментариев под фальшивыми сообщениями, тем больше прибыль.

— Помните и о вредоносных ссылках, которые часто могут быть замаскированы под различные петиции, сборы средств и тому подобное. При попытке перейти на такие ссылки вполне реально потерять собственные средства или «подцепить» вредоносный вирус. А с возможностью сгенерировать с помощью ИИ голос и изображение, мошеннические схемы получения ваших средств стали делом пяти минут. Казалось бы, не так давно мы научились без соответствующей проверки не реагировать на просьбы друзей в соцсетях перевести определенную сумму денег, а сейчас и голосу родного человека не всегда можно доверять.

И это лишь некоторые опасные последствия обычных реакций на жалостливые сообщения неизвестных нам пользователей или сообществ соцсетей.

Противодействие лжи в соцсетях. Что можно сделать?

  • Установить запрет неизвестных групп и сообществ в своем профиле;
  • подавать жалобы на контент;
  • проверять профиль лица, группы или сообщества, которые распространяют ложный, по вашему мнению, контент;
  • комментарий под сообщением может иметь двойной эффект: или развенчание лжи, или лишнее внимание к сообщению;
  • старайтесь не выкладывать личную информацию в соцсетях (особенно фото несовершеннолетних) или просто закройте ваш профиль.

ИИ позволяет существенно экономить время и усилия, обрабатывая за считанные минуты довольно большие объемы информации, подобрать необходимые реалистичные изображения и видео, меткие названия, создавая довольно понятный и эмоциональный контент. Это довольно заманчиво. Скажем, создание этого материала с использованием ИИ значительно увеличило бы мое свободное время, однако было бы оно истинным и беспристрастным? Именно поэтому «потребление» сгенерированных с помощью ИИ материалов требует применения критического мышления.

Читайте также:

Share
Ольга Магазинська

За освітою – філолог, саме тому вже кілька десятиліть намагаюся плекати любов до Слова, яке перетворюючись на інформацію, на мою думку, має чинити виключно життєстверджуючий вплив на оточуючих. Більш ніж 20 років працювала у військових ЗМІ, висвітлюючи мужність і звитягу наших захисників. Членкиня Спілки журналістів України, учасник бойових дій.

Recent Posts

  • Positive News

Одесский юмор: суши на пробу и кактусы с глазами

Поздравляем с субботой, друзья! Время отдохнуть и посмеяться от души! Мы подготовили для вас подборку… Read More

19-04-2025 в 06:11
  • Новости

Магнитные бури и головные боли: проверьте прогноз на 19 апреля

В субботу, 19 апреля, существенных магнитных бурь на Земле не ожидается. Read More

19-04-2025 в 05:42
  • Новости

В Одессе прозвучали взрывы: город атакован российскими беспилотниками

Город Одесса в ночь на 19 апреля снова подвергся удару российскими ударными дронами. Силы ПВО… Read More

19-04-2025 в 01:43
  • Новости

Одесская область подверглась мощному ракетному обстрелу со стороны России

Вечером 18 апреля российские военные совершили комплексное ракетное нападение на Одесскую область, используя баллистические и… Read More

19-04-2025 в 01:17
  • Новости партнеров

Премикс для кур: эффективное питание для высокой яйценоскости

В птицеводстве нет мелочей. Любое, даже незначительное, отклонение в рационе кур может ощутимо сказаться на… Read More

18-04-2025 в 23:26
  • Новости

В Одесской области произошло землетрясение: что известно

Землетрясение магнитудой 3,5 балла произошло вечером 18 апреля в сейсмической зоне Вранча на территории Румынии.… Read More

18-04-2025 в 22:34