Несколько лет назад искусственный интеллект (ИИ) стремительно ворвался в нашу жизнь. Польза от его использования в медицине, науке, ведении военных действий, обучении, создании контента — огромная. Однако, как и каждая разработка, каждое научное открытие, ИИ несет определенные риски. Чем грозит использование и популяризация сгенерированных ИИ материалов, в частности в социальных сетях, нам разъяснил и дал советы эксперт Александр Гороховский, руководитель проекта по противодействию дезинформации «БезБрехни».
Получив доступ к соответствующим инструментам ИИ с 2022 года, любой из нас может сгенерировать изображение по текстовому описанию. Это удивляет, поражает и одновременно заставляет задуматься: как отличить настоящее от ложного и почему это важно?
Страницы соцсетей сейчас пестрят сгенерированными изображениями военных, раненых на войне, обездоленных детей или людей пожилого возраста. Немало и просьб поздравить воина с днем рождения в группах с довольно позитивными названиями: «Единая Украина», «Патриоты Украины» и других.
Эти сообщения создаются таким образом, чтобы вызвать пользователя соцсетей на определенную эмоцию, задержать внимание на данной информации и главное — отреагировать на нее. Казалось бы, чем может быть опасен лайк под таким сообщением?
— Оказывается, может, — убежден Александр Гороховский, руководитель проекта по противодействию дезинформации «БезБрехні», — Одна из главных опасностей реакции на такой пост — возможность автора позже изменить его содержание (текст или изображение) или отредактировать его. Таким образом, вы одобряете информацию, с которой можете быть частично или полностью не согласны, однако доказать, что пост был изменен, очень сложно.
Кроме того, авторы сгенерированного контента таким образом собирают личную информацию о пользователе, группе или сообществе и способствуют быстрому продвижению определенных страниц. Это дает возможность как изучать рынок сбыта информации, так и обрабатывать данные, которые впоследствии россияне будут использовать во время дальнейших дискредитирующих информационных кампаний. Вспомните, чего стоит только безумное влияние образа «распятого мальчика в трусиках» на общественное сознание россиян, поэтому не стоит недооценивать подобные методы.
Яркий пример вражеской пропаганды в соцсетях — работник ТЦК извиняется перед украинскими военными, набрал только в Facebook почти 600 тысяч просмотров, 1500 комментариев и 10 тысяч лайков!
Детальный анализ, а именно: выявление учетной записи TikTok по водяной марке petrotremcykvolin на видео, скриншот кадра и загрузка его в раздел «Картинки» поисковых систем помогли узнать, что страница TikTok, на которой была создана эта картинка, оказалась однодневкой (то есть ее создали для одного-единственного «вброса»).
Следует обратить внимание на еще один способ обмана с помощью инструментов ИИ — использование дипфейков. Один из самых распространенных вариантов — сочетание фото или видео с недостоверным аудио или информацией. Например, мэры Берлина, Вены, Мадрида, Будапешта и Варшавы провели телефонный разговор со сгенерированной версией Виталия Кличко. Злоумышленники создали виртуальный двойник мэра Киева с помощью технологии deepfake, а перед этим самостоятельно договорились о звонке. Мэр Берлина Франциска Гиффай во время разговора отключилась, потому что из-за странных просьб мэра заподозрила, что с ним что-то не так. А вот Михаэль Людвиг, бургомистр австрийской столицы, не понял, что с ним вел разговор не настоящий Кличко.
Научиться соблюдать информационную гигиену необходимо, если мы не хотим быть обманутыми и подвергаться манипуляциям.
— Это не так сложно, как кажется на первый взгляд, однако приложить определенные усилия все же придется, — отмечает Александр Гороховский, — Проверять на истинность необходимо как контент в совокупности, так и каждую составляющую отдельно: информацию, ее источник, аудио, изображения.
Недавно вышли обновления уже существующих программ, но пока в соцсетях в основном используют сгенерированные фото или рисунки, которые содержат ряд специфических признаков:
Попробуем проанализировать эти два фото. На первый взгляд, они кажутся довольно реалистичными. Однако при внимательном наблюдении можно заметить, что на фото слева сумка будто «висит» в воздухе, а значит, именно это изображение является искусственным.
Распознавать сгенерированные изображения становится все сложнее, но существуют определенные инструменты, например AI or Not, Hive AI Detector для Chrome, TinEye, https://tineye.com/, которые помогают нам проверять изображения на предмет истинности.
Заметьте, эти и другие инструменты, к сожалению, могут ошибаться. Поэтому увеличьте фото, внимательно его проанализируйте, а при необходимости — примените вспомогательные программы или сервисы. Сделайте закладки таких сервисов в своих гаджетах — это позволит экономить время на поиск. Попробуйте самостоятельно сделать несколько изображений, а лучше подписаться на группу или канал, где люди делятся такими изображениями. Это поможет натренировать вашу способность отличать ИИ-изображения.
Голос и незнакомого, и родного человека может быть ненастоящим. Учитывая, что звонки с помощью соцсетей довольно актуальны, приведем несколько признаков сгенерированного с помощью ИИ голоса и рекомендации его проверки:
— Не забывайте о еще одной проблеме, условно ее можно назвать «усталость от информации», — объясняет Александр Гороховский, — Ежедневно мы находимся под давлением огромного количества информационных сообщений, и, отвлекаясь на ложные сообщения, в следующий раз проходим мимо правды, ведь каждый раз применять критическое мышление для обработки информации довольно сложно для обычного человека. Кроме того, «эмоционально тяжелые» нарративы, связанные с травматическими событиями в обществе во время войны, довольно сильно истощают нас ментально и психологически. И не забывайте о «потреблении» ложной информации, на основе которой формируется наше отношение к тому или иному человеку или событию, что искажает реальную картину происходящего.
К тому же любая социальная сеть — это рынок. И если правильно использовать его возможности, вполне реально заработать неплохие деньги. Чем больше лайков и комментариев под фальшивыми сообщениями, тем больше прибыль.
— Помните и о вредоносных ссылках, которые часто могут быть замаскированы под различные петиции, сборы средств и тому подобное. При попытке перейти на такие ссылки вполне реально потерять собственные средства или «подцепить» вредоносный вирус. А с возможностью сгенерировать с помощью ИИ голос и изображение, мошеннические схемы получения ваших средств стали делом пяти минут. Казалось бы, не так давно мы научились без соответствующей проверки не реагировать на просьбы друзей в соцсетях перевести определенную сумму денег, а сейчас и голосу родного человека не всегда можно доверять.
И это лишь некоторые опасные последствия обычных реакций на жалостливые сообщения неизвестных нам пользователей или сообществ соцсетей.
ИИ позволяет существенно экономить время и усилия, обрабатывая за считанные минуты довольно большие объемы информации, подобрать необходимые реалистичные изображения и видео, меткие названия, создавая довольно понятный и эмоциональный контент. Это довольно заманчиво. Скажем, создание этого материала с использованием ИИ значительно увеличило бы мое свободное время, однако было бы оно истинным и беспристрастным? Именно поэтому «потребление» сгенерированных с помощью ИИ материалов требует применения критического мышления.
Читайте также:
Поздравляем с субботой, друзья! Время отдохнуть и посмеяться от души! Мы подготовили для вас подборку… Read More
В субботу, 19 апреля, существенных магнитных бурь на Земле не ожидается. Read More
Город Одесса в ночь на 19 апреля снова подвергся удару российскими ударными дронами. Силы ПВО… Read More
Вечером 18 апреля российские военные совершили комплексное ракетное нападение на Одесскую область, используя баллистические и… Read More
В птицеводстве нет мелочей. Любое, даже незначительное, отклонение в рационе кур может ощутимо сказаться на… Read More
Землетрясение магнитудой 3,5 балла произошло вечером 18 апреля в сейсмической зоне Вранча на территории Румынии.… Read More