Декілька років тому штучний інтелект (ШІ) стрімко увірвався у наше життя. Користь від його використання у медицині, науці, веденні воєнних дій, навчанні, створенні контенту – величезна. Проте, як і кожна розробка, кожне наукове відкриття, ШІ несе певні ризики. Чим загрожує використання та популяризація згенерованих ШІ матеріалів, зокрема у соціальних мережах, нам роз'яснив та надав поради експерт Олександр Гороховський, керівник проєкту з протидії дезінформації «БезБрехні».
Отримавши доступ до відповідних інструментів ШІ з 2022 року, будь-хто з нас може згенерувати зображення за текстовим описом. Це дивує, вражає і водночас змушує замислитись: як відрізнити справжнє від хибного та чому це важливо?
Сторінки соцмереж нині рясніють згенерованими зображеннями військових, поранених на війні, знедолених дітей чи людей літнього віку. Чимало і прохань привітати воїна з днем народження у групах з доволі позитивними назвами: «Єдина Україна», «Патріоти України» та інших.
Ці дописи створюються таким чином, аби викликати користувача соцмереж на певну емоцію, затримати увагу на даній інформації і головне – відреагувати на неї. Здавалося б, чим може бути небезпечний лайк під таким дописом?
– Виявляється, може, – переконаний Олександр Гороховський, керівник проєкту з протидії дезінформації «БезБрехні». – Одна з головних небезпек реакції на такий пост – можливість автора пізніше змінити його зміст (текст або зображення) чи відредагувати його. Таким чином, ви схвалюєте інформацію, з якою можете бути частково або повністю не згодні, проте довести, що пост було змінено, дуже складно.
Окрім того, автори згенерованого контенту таким чином збирають особисту інформацію про користувача, групу чи спільноту й сприяють швидкому просуванню певних сторінок. Це дає можливість як вивчати ринок збуту інформації, так і обробляти дані, які згодом росіяни використовуватимуть під час подальших дискредитуючих інформаційних кампаній. Згадайте, чого вартий лише шалений вплив образу «розіп’ятого хлопчика у трусіках» на суспільну свідомість росіян, тож не варто недооцінювати подібні методи.
Яскравий приклад ворожої пропаганди у соцмережах – працівник ТЦК вибачається перед українськими військовими, набрав лише у Facebook майже 600 тисяч переглядів, 1500 коментарів та 10 тисяч вподобайок!
Детальний аналіз, а саме: виявлення обліковки TikTok за водяною маркою petrotremcykvolin на відео, скриншот кадру та завантаження його в розділ «Картинки» пошукових систем допомогли дізнатися, що сторінка TikTok, на якій була створена ця картинка, виявилася одноденкою (тобто її створили для одного-єдиного «вкиду»).
Слід звернути увагу на ще один спосіб ошуканства за допомогою інструментів ШІ – використання діпфейків. Один з найпоширеніших варіантів – поєднання фото або відео з недостовірним аудіо чи інформацією. Наприклад, мери Берліна, Відня, Мадрида, Будапешта та Варшави провели телефонну розмову зі згенерованою версією Віталія Кличка. Зловмисники створили віртуальний двійник мера Києва за допомогою технології deepfake, а перед цим самостійно домовились про дзвінок. Мер Берліна Франциска Ґіффай під час розмови відключилась, бо через дивні прохання мера запідозрила, що з ним щось не так. А от Міхаель Людвіг, бургомістр австрійської столиці, не зрозумів, що з ним вів розмову не справжній Кличко.
Навчитися дотримуватися інформаційної гігієни необхідно, якщо ми не хочемо бути ошуканими та зазнавати маніпуляцій.
– Це не так складно, як видається на перший погляд, проте докласти певних зусиль таки доведеться, – зазначає Олександр Гороховський. – Перевіряти на істинність необхідно як контент у сукупності, так і кожну складову окремо: інформацію, її джерело, аудіо, зображення.
Нещодавно вийшли оновлення вже існуючих програм, але поки що у соцмережах здебільшого використовують згенеровані фото чи малюнки, які містять низку специфічних ознак:
Спробуємо проаналізувати ці два фото. На перший погляд, вони видаються доволі реалістичними. Однак при уважному спостереженні можна помітити, що на фото ліворуч сумка ніби «висить» у повітрі, а отже, саме це зображення є штучним.
Розпізнавати згенеровані зображення стає все складніше, але існують певні інструменти, наприклад AI or Not, Hive AI Detector для Chrome, TinEye, https://tineye.com/, які допомагають нам перевіряти зображення на предмет істинності.
Зауважте, ці та інші інструменти, на жаль, можуть помилятися. Тому збільшіть фото, уважно його проаналізуйте, а за необхідності – застосуйте допоміжні програми чи сервіси. Зробіть закладки таких сервісів у своїх гаджетах – це дозволить економити час на пошук. Спробуйте самостійно зробити кілька зображень, а краще підписатися на групу чи канал, де люди діляться такими зображеннями. Це допоможе натренувати вашу здатність відрізняти ШІ-зображення.
Голос і незнайомої, і рідної людини може бути несправжнім. Враховуючи, що дзвінки за допомогою соцмереж доволі актуальні, наведемо кілька ознак згенерованого за допомогою ШІ голосу та рекомендації його перевірки:
– Не забуваймо про ще одну проблему, умовно її можна назвати «втома від інформації», – пояснює Олександр Гороховський. – Щодня ми перебуваємо під тиском шаленої кількості інформаційних повідомлень, і, відволікаючись на неправдиві дописи, наступного разу проходимо повз правду, адже щоразу застосовувати критичне мислення для обробки інформації доволі складно для пересічної людини. Окрім того, «емоційно важкі» наративи, пов’язані з травматичними подіями у суспільстві під час війни, доволі сильно виснажують нас ментально та психологічно. І не забувайте про «споживання» неправдивої інформації, на основі якої формується наше відношення до тієї чи іншої людини або події, що спотворює реальну картину того, що відбувається.
До того ж будь-яка соціальна мережа – це ринок. І якщо правильно використовувати його можливості, цілком реально заробити непогані гроші. Чим більше лайків і коментарів під фальш-дописами, тим більший прибуток.
– Пам’ятаймо і про шкідливі посилання, які часто можуть бути замасковані під різноманітні петиції, збори коштів тощо. При спробі перейти на такі лінки цілком реально втратити власні кошти або «підчепити» шкідливий вірус. А з можливістю згенерувати за допомогою ШІ голос і зображення, шахрайські схеми отримання ваших коштів стали справою п’яти хвилин. Здавалося б, не так давно ми навчилися без відповідної перевірки не реагувати на прохання друзів у соцмережах перевести певну суму грошей, а нині й голосу рідної людини не завжди можна довіряти.
І це лише деякі небезпечні наслідки звичайних реакцій на жалісливі дописи невідомих нам користувачів або спільнот соцмереж.
ШІ дозволяє суттєво економити час і зусилля, обробляючи за лічені хвилини доволі великі обсяги інформації, підібрати необхідні реалістичні зображення та відео, влучні назви, створюючи доволі зрозумілий і емоційний контент. Це досить заманливо. Скажімо, створення цього матеріалу з використанням ШІ значно збільшило б мій вільний час, проте чи було б воно істинним і неупередженим? Саме тому «споживання» згенерованих за допомогою ШІ матеріалів вимагає застосування критичного мислення.
Читайте також:
В Одесі виявили ртуть у дворі житлового будинку. На місце виїжджала група радіаційного, хімічного та… Read More
Volkswagen Golf - одна з тих моделей, яка не потребує представлення. Його впізнають на вулицях,… Read More
Сьогодні, у суботу, 19 квітня 2025 року, 1151 день повномасштабної війни в Україні. Так, незморячи… Read More
У дошкільному закладі «Топольок» Бессарабського ліцею пройшов «Тиждень добрих справ на підтримку ЗСУ». Підтримали його… Read More
Прокуратура Одеської області розпочала розслідування за результатами ракетних ударів по цивільній інфраструктурі Одеської області увечері… Read More
У Приморському районі Одеси ТЦК відкрив одразу сім проваджень проти одного чоловіка. Такий випадок став… Read More