Несколько лет назад искусственный интеллект (ИИ) стремительно ворвался в нашу жизнь. Польза от его использования в медицине, науке, ведении военных действий, обучении, создании контента — огромная. Однако, как и каждая разработка, каждое научное открытие, ИИ несет определенные риски. Чем грозит использование и популяризация сгенерированных ИИ материалов, в частности в социальных сетях, нам разъяснил и дал советы эксперт Александр Гороховский, руководитель проекта по противодействию дезинформации «БезБрехни».
Получив доступ к соответствующим инструментам ИИ с 2022 года, любой из нас может сгенерировать изображение по текстовому описанию. Это удивляет, поражает и одновременно заставляет задуматься: как отличить настоящее от ложного и почему это важно?
Страницы соцсетей сейчас пестрят сгенерированными изображениями военных, раненых на войне, обездоленных детей или людей пожилого возраста. Немало и просьб поздравить воина с днем рождения в группах с довольно позитивными названиями: «Единая Украина», «Патриоты Украины» и других.
Эти сообщения создаются таким образом, чтобы вызвать пользователя соцсетей на определенную эмоцию, задержать внимание на данной информации и главное — отреагировать на нее. Казалось бы, чем может быть опасен лайк под таким сообщением?
— Оказывается, может, — убежден Александр Гороховский, руководитель проекта по противодействию дезинформации «БезБрехні», — Одна из главных опасностей реакции на такой пост — возможность автора позже изменить его содержание (текст или изображение) или отредактировать его. Таким образом, вы одобряете информацию, с которой можете быть частично или полностью не согласны, однако доказать, что пост был изменен, очень сложно.
Кроме того, авторы сгенерированного контента таким образом собирают личную информацию о пользователе, группе или сообществе и способствуют быстрому продвижению определенных страниц. Это дает возможность как изучать рынок сбыта информации, так и обрабатывать данные, которые впоследствии россияне будут использовать во время дальнейших дискредитирующих информационных кампаний. Вспомните, чего стоит только безумное влияние образа «распятого мальчика в трусиках» на общественное сознание россиян, поэтому не стоит недооценивать подобные методы.
Яркий пример вражеской пропаганды в соцсетях — работник ТЦК извиняется перед украинскими военными, набрал только в Facebook почти 600 тысяч просмотров, 1500 комментариев и 10 тысяч лайков!
Детальный анализ, а именно: выявление учетной записи TikTok по водяной марке petrotremcykvolin на видео, скриншот кадра и загрузка его в раздел «Картинки» поисковых систем помогли узнать, что страница TikTok, на которой была создана эта картинка, оказалась однодневкой (то есть ее создали для одного-единственного «вброса»).
Следует обратить внимание на еще один способ обмана с помощью инструментов ИИ — использование дипфейков. Один из самых распространенных вариантов — сочетание фото или видео с недостоверным аудио или информацией. Например, мэры Берлина, Вены, Мадрида, Будапешта и Варшавы провели телефонный разговор со сгенерированной версией Виталия Кличко. Злоумышленники создали виртуальный двойник мэра Киева с помощью технологии deepfake, а перед этим самостоятельно договорились о звонке. Мэр Берлина Франциска Гиффай во время разговора отключилась, потому что из-за странных просьб мэра заподозрила, что с ним что-то не так. А вот Михаэль Людвиг, бургомистр австрийской столицы, не понял, что с ним вел разговор не настоящий Кличко.
Научиться соблюдать информационную гигиену необходимо, если мы не хотим быть обманутыми и подвергаться манипуляциям.
— Это не так сложно, как кажется на первый взгляд, однако приложить определенные усилия все же придется, — отмечает Александр Гороховский, — Проверять на истинность необходимо как контент в совокупности, так и каждую составляющую отдельно: информацию, ее источник, аудио, изображения.
Недавно вышли обновления уже существующих программ, но пока в соцсетях в основном используют сгенерированные фото или рисунки, которые содержат ряд специфических признаков:
Попробуем проанализировать эти два фото. На первый взгляд, они кажутся довольно реалистичными. Однако при внимательном наблюдении можно заметить, что на фото слева сумка будто «висит» в воздухе, а значит, именно это изображение является искусственным.
Распознавать сгенерированные изображения становится все сложнее, но существуют определенные инструменты, например AI or Not, Hive AI Detector для Chrome, TinEye, https://tineye.com/, которые помогают нам проверять изображения на предмет истинности.
Заметьте, эти и другие инструменты, к сожалению, могут ошибаться. Поэтому увеличьте фото, внимательно его проанализируйте, а при необходимости — примените вспомогательные программы или сервисы. Сделайте закладки таких сервисов в своих гаджетах — это позволит экономить время на поиск. Попробуйте самостоятельно сделать несколько изображений, а лучше подписаться на группу или канал, где люди делятся такими изображениями. Это поможет натренировать вашу способность отличать ИИ-изображения.
Голос и незнакомого, и родного человека может быть ненастоящим. Учитывая, что звонки с помощью соцсетей довольно актуальны, приведем несколько признаков сгенерированного с помощью ИИ голоса и рекомендации его проверки:
— Не забывайте о еще одной проблеме, условно ее можно назвать «усталость от информации», — объясняет Александр Гороховский, — Ежедневно мы находимся под давлением огромного количества информационных сообщений, и, отвлекаясь на ложные сообщения, в следующий раз проходим мимо правды, ведь каждый раз применять критическое мышление для обработки информации довольно сложно для обычного человека. Кроме того, «эмоционально тяжелые» нарративы, связанные с травматическими событиями в обществе во время войны, довольно сильно истощают нас ментально и психологически. И не забывайте о «потреблении» ложной информации, на основе которой формируется наше отношение к тому или иному человеку или событию, что искажает реальную картину происходящего.
К тому же любая социальная сеть — это рынок. И если правильно использовать его возможности, вполне реально заработать неплохие деньги. Чем больше лайков и комментариев под фальшивыми сообщениями, тем больше прибыль.
— Помните и о вредоносных ссылках, которые часто могут быть замаскированы под различные петиции, сборы средств и тому подобное. При попытке перейти на такие ссылки вполне реально потерять собственные средства или «подцепить» вредоносный вирус. А с возможностью сгенерировать с помощью ИИ голос и изображение, мошеннические схемы получения ваших средств стали делом пяти минут. Казалось бы, не так давно мы научились без соответствующей проверки не реагировать на просьбы друзей в соцсетях перевести определенную сумму денег, а сейчас и голосу родного человека не всегда можно доверять.
И это лишь некоторые опасные последствия обычных реакций на жалостливые сообщения неизвестных нам пользователей или сообществ соцсетей.
ИИ позволяет существенно экономить время и усилия, обрабатывая за считанные минуты довольно большие объемы информации, подобрать необходимые реалистичные изображения и видео, меткие названия, создавая довольно понятный и эмоциональный контент. Это довольно заманчиво. Скажем, создание этого материала с использованием ИИ значительно увеличило бы мое свободное время, однако было бы оно истинным и беспристрастным? Именно поэтому «потребление» сгенерированных с помощью ИИ материалов требует применения критического мышления.
Читайте также:
Пончики – это не просто сладкий десерт, а для многих культур – подлинная традиция со… Read More
Депутаты Одесского областного совета подготовили обращение к Президенту Украины и Верховной Раде, призывая продлить мораторий… Read More
Сегодня, 6 июня, в Одессе временно меняется маршрут трамвая в Пересыпском районе. Это связано с… Read More
Верховная Рада приняла два постановления о переименовании населенных 165 пунктов, названия которых содержат символику российской… Read More
В автопроисшествии, которое произошло вечером 5 июня на улице Краснова в Одессе, пострадала пешеходка. Read More
В Одессе уже стартовал пляжный сезон - официально открыты 11 пляжей. В области такая зона… Read More