“Український гітлерюґенд”: чому підготовка підлітків на фронт є фейком роспропаганди

Бахмут Брехомір Данило Вінниченко 15:40, 5 Січня 2024
Військовослужбовці ЗСУ
Мобілізація в Україні / фото з відкритих джерел

Російські пропагандисти поширюють інформацію, що через великі втрати на фронті та недостатню кількість військових в Україні почали мобілізовувати людей з соціально вразливих верст населення та жінок. Автори матеріалу наголошують, що 103-тя бригада ТрО займається мобілізацією неповнолітніх на базі нібито навчально-виховного табору “Гайдамацька Січ”. Пропагандисти підкреслюють, що першу партію підлітків нібито вже направили воювати у Харківську область. 

Ця інформація пропагандистів є фейковою. Слід звернути увагу на конкретні наративи, які просувають росзмі. 

Російський фейк
Пропагандистські змі поширюють фейк / скриншот

Маніпуляція: “Воюють усі: жінки, інваліди, а тепер і діти”

Роспропаганда намагається одразу продемонструвати, що втрати в українській армії настільки великі, що буцімто почалась мобілізація майже усього населення України, зокрема дітей-сиріт.

Пропагандисти розповідають про наче рекламу служби жінок в ЗСУ. Однак такої реклами немає на жодному медіаресурсі, в соціальних мережах українських посадовців, Головнокомандувача, військових командирів тощо. Восени пропагандисти вже поширювали “рекламу” рекрутингу жінок, хоча відео було фейковим. 

Російський фейк
Пропагандисти створили фейковий ролик про мобілізацію жінок в ЗСУ / скриншот

Росзмі підкреслюють, що начебто жінки в армії займають офіцерські посади, а не “медиків-телефоністів”. Тобто, чоловік-офіцерів майже не залишилось, їх замінюють вже жінками. 

19 грудня 2023 року на підсумковій пресконференції Володимира Зеленського президент зазначив, що підписувати закон про мобілізацію жінок не буде. 

Враховуючи вищенаведене, підкреслимо, що ця маніпуляція спрямована на те, щоб продемонструвати завищені втрати українського війська на полі бою, а мобілізація торкнеться усіх соціально вразливих верств населення України: жінок, дітей, сиріт, людей з інвалідністю тощо. 

Фейк: “103-та бригада ТрО сформована з дітей-сиріт на Львівщині”

Цей фейк став головним “аргументом” в матеріалах роспропаганди. Тут окупанти згадують начебто навчально-виховний табір “Гайдамацька Січ”, який функціонує на Львівщині. Однак самого табору не існує, а під цією назвою працює навчально-виховний центр, керівником якого є Вадим Арнаут. 

Вадим Арнаут
Вадим Арнаут / фото Facebook

Детальної інформації про діяльність центру у відкритому доступі немає. Однак у коментарі виданню Укрінформ керівник центру Арнаут наголосив, що діяльність виховного центру спрямована на забезпечення всебічного розвитку та національно-патріотичного виховання дітей і молоді, а табори-вишколи після повномасштабного вторгнення росії працюють в основному з постійними вихованцями. 

Арнаут також підкреслив, що потрапити до центру не так просто: робота ведеться з невеликими групами, до яких молодь може приєднатися лише після серйозної бесіди з батьками. 

Виходячи зі слів Арнаута, ми можемо підкреслити, що просто так діти-сироти потрапити до “військового табору” (так виховний центр називають пропагандисти) не могли. 

Фотографія, на якій підлітки стоять у військовій формі з шевронами ЗСУ і яку використовували пропагандисти у своїх матеріалах, була взята з офіційної сторінки Facebook Київського військового ліцею імені Івана Богуна, на якій заохочували призерів олімпіади. 

Російський фейк
Допис, звідки пропагандисти використали фото / скриншот

Пропагандисти ніяк не зазначили, де саме у Харківській області воює 103-тя бригада ТрО, яка нібито складається з неповнолітніх. Цьому немає ніяких фото- чи відеопідтверджень, тому правдивість цієї інформації піддається сумніву.

Примітка. 103-тя окрема бригада Сил територіальної оборони Збройних Сил України (103 ОБрТрО) — кадроване формування Сил територіальної оборони Збройних сил України у Львівській області. Бригада перебуває у складі Регіонального управління “Захід” Сил ТрО.

Фейк: “Підлітки на передовій та загиблий сирота”

До того, як поширити інформацію про начебто рекрутинг дітей-сиріт у військо, пропагандисти писали про загибель Володимира Сачали, якому, зі слів росзмі, на момент “мобілізації” у 103-тю бригаду ТрО було лише 17 років. 

Російський фейк
Пропагандисти поширили фейкову новину про загибель “неповнолітнього” / скриншот
Захисник загиблий на війні
Полеглий Володимир Сачала / фото Facebook Яворівська міська рада

Цей фейк пропагандистів швидко спростували. Загиблий Сачала був мешканцем села Оселя Яворівської громади, що на Львівщині. Як зазначили в Яворівській міській раді, захиснику було 26 років, він служив у складі 24 бригади. Загинув не біля Новоселівського, що на Луганщині, як зазначили росзмі, а під населеним пунктом Дружба на Донеччині. 

Допис у соцмережі
Яворівська міськрада висловила співчуття / скриншот

А вже через декілька днів окупаційний Telegram-канал поширив інформацію про начебто 17-річного захисника з позивним “Юнха”, який став “випускником” загадкового табору. Однак Вадим Арнаут зазначив, що ніколи не було кемперів із таким позивним.

Пропагандисти розповідають про нібито неповнолітніх на фронті / скриншот

“Кемперів із позивним «Юнха» у нас ніколи не було. Деякі наші студенти сьогодні дійсно зі зброєю в руках захищають нашу країну. Але наймолодшому з них — 21 рік. Варто наголосити, що всі вони служать в елітних військових частинах”, — зазначив Арнаут.

Російський фейк
Фото воїна 103-ої бригади ТрО / скриншот

Хто саме на фото та в який період воно було зроблене — достеменне невідомого. Однак його почали активно публікувати у себе саме пропагандистські медіа. 

Чи можуть мобілізувати на війну неповнолітніх громадян?

У період повномасштабної війни під мобілізацію підлягають усі громадяни віком від 18 до 60 років (переважно чоловіки), які можуть виконувати військовий обов’язок.

Хто не підпадає під призов під час мобілізації:

  • громадяни, які залучені до роботи в органах державної влади, критично важливих підприємствах та організаціях;
  • громадяни, визнані непридатними до військової служби за станом здоров’я або віком;
  • громадяни, які постійно доглядають за особами, що потребують піклування.

Згідно із законом “Про військовий обов’язок і військову службу”, щороку впродовж січня-березня повістку отримують допризовники, яким у рік приписки виповнюється 17 років. Щоб стати на військовий облік, приписники отримують повістку від військкомату та мають з’явитися у визначений термін.

Молоді люди, які з’являються до військового комісаріату, повинні пройти обов’язковий медичний огляд. На підставі результатів медичного огляду призовна комісія може ухвалити рішення про придатність особи до військової служби. Громадяни України, які вже проходять військову службу або на примусовому лікуванні, не підлягають приписці.

Росіяни продовжують розхитувати українське суспільство темою мобілізації. Водночас приховану мобілізацію в середині росії населення країни-агресора не помічає, а лише акцентує на постійних втратах та недоліках українського війська. 

Росіяни жваво проводять паралелі, порівнюючи ЗСУ з нацистським третім рейхом — пропагандистське повідомлення про нібито мобілізацію дітей-сиріт не є виключенням. “Зеля-юґенд”, на думку пропагандистів, це сучасне втілення “Гітлер’юґенду”, через який Адольф Гітлер мобілізовував на війну дітей в часи Другої світової війни. На думку росіян, це має вплинути на суспільство та змусити українців вимагати закінчення війни та перемовин з росіянами.

Читайте також:

Бахмут живе тут – підписуйтесь на наш Телеграм та Інстаграм!

Цифрові медіаманіпуляції. Як обманюють за допомогою штучного інтелекту

Маргарита Огнева Огнева Маргарита 13:01, 23 Жовтня 2024
Колаж “Бахмут IN.UA”

Графічний контент — невіддільна частина Інтернету. Фотографіями та картинками ілюструють новини, а іноді й самі знімки стають інформаційним приводом. Але не всі фотознімки є справжніми, хай там як реалістично вони виглядають. Деякі з таких фейкових фото створили ажіотаж у мережі. Команда “Бахмут IN.UA” на прикладах розкаже про такі кейси.

Використання ШІ там, де це не треба

Кожен з нас має телефон, на який може встановити застосунки на основі ШІ, в яких змінюється обличчя, тло знімка тощо. Такі додатки ми використовуємо для розваги. Але для тих, хто заробляє на дезінформації, штучний інтелект — найкращий помічник. Адже за його допомогою можна створити реалістичний знімок на будь-яку тему, супроводити це потрібним контекстом — у вуаля! Гучний інфопривід готовий. Почнемо з доволі невинного прикладу. 

Відомі у світі інформаційні агентства Reuters і Associated Press на своїх онлайн-сторінках опублікували фотознімки принцеси Уельської Кейт з дітьми, зроблені вперше після операції Кейт на черевній порожнині. Але пізніше журналісти відкликали ці фото. Причина — виявлені на світлині ознаки цифрової маніпуляції. Інформагентства виявили на фотографії непослідовність у положенні руки принцеси Шарлотти – дочки Кейт та Вільяма.

Джерело: Prince and Princess of Wales

Пізніше принцеса публічно попросила вибачення за фотознімок. У соцмережі Х (колишній Twitter) Кейт написала, що, як і багато фотографів-любителів, вона “іноді експериментує з редагуванням” світлин.

Якщо продовжувати тему офіційних акаунтів, то Верховна Рада України також вдалася до використання ШІ контенту у 2023 році. У соцмережі X адміністратори сторінки зробили допис про обстріл міста Дніпро, який здійснили росіяни 14 січня. Для цього вони використали зображення дитини, згенероване штучним інтелектом. Користувачі мережі розкритикували пост, що набрав майже 40 тисяч переглядів. 16 січня допис видалили зі сторінки.

Джерело: видалений допис Верховної Ради

Штучний інтелект — зброя у руках дезінформаторів

У 2023 році мережею рознісся знімок, на якому буцімто володимир путін припав на коліна перед лідером китаю сі цзіньпінем. На фейковому знімку путіна і сі задній черевик президента рф надто великий і широкий. Литка тієї ж ноги здається подовженою. Та й голова при уважному розгляді надто велика і непропорційна щодо тіла. Окрім того, існують інші ознаки нереалістичності цього “знімку”:


Джерело: Twitter/DW

Використання ШІ для дезінформації

18 жовтня заступник міністра закордонних справ України Антон Демьохін повідомив Reuters про те, що росія використовує генеративний штучний інтелект для посилення кампаній з дезінформації проти України.

“Цього року ми бачимо, що щільність кібератак з боку росії зберігається, але більше акценту на дезінформації”, – сказав заступник міністра МЗС в кулуарах Сінгапурського міжнародного кібертижня.

Демохін зауважив, що, відтоді як з’явився генеративний ШІ, це дозволяє рф множити та поширювати дезінформаційні наративи на новому, складнішому рівні. За його словами, ці нові кампанії з дезінформації важко виявити. Антон Демьохін сказав Reuters, що сама Україна використовує генеративний штучний інтелект для відстеження кампаній з дезінформації.

Окрім того, росія, китай та іран використовують інструменти штучного інтелекту, аби вплинути на вибори президента США. Про це повідомили представники Офісу директора національної розвідки та ФБР під час брифінгу для журналістів. Зазначається, що дії росії найагресивніші та наймайстерніші з усіх трьох країн — вони націлені на віцепрезидентку, кандидатку від Демократичної партії Камалу Гарріс. 

Зокрема, росія фальсифікувала фрагменти промов Гарріс, щоб замінити деякі її слова. Також вона використала штучний інтелект для створення неправдивого тексту, фотографій, відео та аудіо.

Раніше “Бахмут IN.UA” розповідав про те, як розпізнати зображення, створене ШІ. Якщо коротко підсумувати цей матеріал, то головна порада — це зберігати “холодну голову”, бути уважними та критично оцінювати все, що зустрічаєте в інтернеті. Це допоможе не вестися на фейки, як-от про путіна, що кланяється сі.

Читайте також:

Бахмут живе тут – підписуйтесь на наш Телеграм та Інстаграм!

Штучний інтелект створює графічний контент для соцмереж: як розпізнати зображення, створене ШІ

Маргарита Огнева Огнева Маргарита 15:35, 14 Жовтня 2024
Колаж Бахмут IN.UA

Соціальні мережі заполонили картинки, які “малює” AI — Artificial Intelligence, що перекладається як штучний інтелект. У деяких випадках ці зображення створюються спеціально для того, аби розповсюдити неправду або дезінформацію, але це — тема для окремого тексту, який команда “Бахмут IN.UA” опублікує пізніше. У цьому матеріалі ми розкажемо вам як розпізнати ілюстрації, що створив ШІ.

Як штучний інтелект створює зображення?

Штучний інтелект створює картини за допомогою спеціальних алгоритмів — нейромережа може виконати зображення за вашим бажанням. Наприклад, можна попросити ШІ згенерувати картину у стилі певного художника або змінити стиль фотографії. Нейромережі, задіяні у ШІ, імітують людське мислення і вчаться на великій кількості даних.

До прикладу, ми звернулися до звичайного ChatGPT із запитом намалювати місто Бахмут. Штучний інтелект вирішив зобразити місто вже після початку бойових дій та продемонструвати незламність міста:

Найпопулярнішими нейромережами для створення графічного контенту у соцмережі є Midjourney, DALL-E чи DeepAI, які за секунди можуть згенерувати фотореалістичну картинку або створити оригінальне зображення. Кожен з цих сервісів має свої особливості та використовується для різних завдань: від художніх проєктів до створення реалістичних сцен і фантастичних візуалізацій.

Картинки, створені ШІ: як розпізнати

ШІ-технології стають все більш досконалими, тому неозброєним оком не завжди можливо впізнати штучний контент, який видають за знімок. Придивіться: що із цим “фото” буцімто щасливих молодят не так?

Зображення взяте з відкритого джерела

Саме тому треба бути обачними та уважно приглядатися до зображень. Дамо кілька порад:

  1. спробуйте знайти візуальні аномалії. Наприклад, ШІ може мати труднощі з відтворенням дрібних деталей, таких як форма рук, пальців або тіні. Деформації або неприродні переходи можуть бути ознакою, що зображення створене алгоритмом;
  2. перевірка метаданих зображення: метадані — це інформація, що міститься у файлі зображення (як-от дані про камеру, місце зйомки та програмне забезпечення, за допомогою якого було створено зображення). Програми, що генерують зображення на базі ШІ, часто залишають сліди в метаданих;
  3. часом зображення, створене ШІ, може виглядати занадто ідеально або, навпаки, неприродно. Наприклад, на портретах людей можуть бути непропорційні риси обличчя або дивні відображення в окулярах. Може бути присутньою асиметрія обличчя (зміщені зуби, різні розміри очей), більша або менша кількість пальців на руках, дивні написи на задньому фоні тощо;
  4. застосуйте інструменти для розпізнавання ШІ-зображень. Існують спеціальні інструменти та сервіси, що допомагають визначити, чи було зображення згенеровано ШІ:
  • AI Image Analyzers: цей сервіс дозволяє завантажити зображення та здійснити аналіз, щоб визначити, чи є воно згенерованим штучно;
  • Forensically: це онлайн-інструмент для аналізу зображень, що може виявити маніпуляції та використання штучного інтелекту;
  1. зворотний пошук: наша команда вже неодноразово розповідала про цей метод. Google Images або TinEye — вони допоможуть перевірити, чи існує взагалі оригінал зображення або ж воно модифіковане чи “покращене” штучним інтелектом. Якщо оригінал значно відрізняється від перевіреного зображення, це може бути ознакою того, що воно було створене або модифіковане ШІ;
  2. шукайте водяний знак. Ще одна важлива підказка для ідентифікації зображення, згенерованого ШІ, є водяний знак. Частіше за все, він є на зображеннях, що зроблені у безкоштовних версіях сервісу;
  3. будьте уважними та критично оцінюйте те, що зустрічаєте у мережі. Це взагалі найперші правила, які треба вивчити для того, аби не вестися на дезінформаційну інформацію в Інтернеті.

Читайте також:

Бахмут живе тут – підписуйтесь на наш Телеграм та Інстаграм!

Цифрові медіаманіпуляції. Як обманюють за допомогою штучного інтелекту

Графічний контент — невіддільна частина Інтернету. Фотографіями та картинками ілюструють новини, а іноді й самі знімки стають інформаційним приводом. Але не всі фотознімки є справжніми, […]

Штучний інтелект створює графічний контент для соцмереж: як розпізнати зображення, створене ШІ

Соціальні мережі заполонили картинки, які “малює” AI — Artificial Intelligence, що перекладається як штучний інтелект. У деяких випадках ці зображення створюються спеціально для того, аби […]

Що не так із Telegram та чи має він альтернативи

Останніми місяцями популярною є тема “забороняти Telegram чи не треба”. У рамках роз’яснювального проєкту “Бахмут IN.UA” розкаже про основні “за” та “проти” заборони найпопулярнішого месенджера, […]

Ми всі із цим стикалися. Що таке “астротурфінг”

Астро… Що? Скоріш за все, ви не чули цей термін, але точно були свідками його дії в соцмережах та навіть у реальному житті. Команда “Бахмут […]

Фейк: Bloomberg назвав воєнну операцію в курську найпровальнішою за 21 століття

Пропагандисти поширюють інформацію, що американське фінансово-економічне медіа Bloomberg нібито розмістило відео про воєнну операцію в курській області. У ньому, мовляв, військовий аналітик та генерал армії […]

14:00, 31.08.2024 Гук Лідія