Українські захисники тримають позиції на гарячих ділянках фронту в Донецькій області, відбиваючи численні атаки окупантів. На Бахмутському напрямку ситуація стабільна, а на Сіверському та Краматорському напрямках тривають жорстокі бої.
Згідно з повідомленнями представника ЗСУ та добровольця 24-ї ОШБ “Айдар” Станіслава Буняткова, на Бахмутському напрямку українські військові утримують свої позиції. Захисники відбивають спроби окупантів просунутися вперед, застосовуючи артилерію та іншу високоточну зброю. Ворог намагається накопичити сили в місті та околицях, готуючись до можливого форсування каналу.
Попри тривалі бої в районі Бахмута, представники ЗСУ налагодили ефективну систему оборони. Кожен військовослужбовець знає свої завдання, райони дії, де літати безпілотникам, куди стріляти, як керувати вогнем, штурмувати та підтримувати сусідні підрозділи.
Сіверський напрямок
На Сіверському напрямку російські окупанти здійснили п’ять спроб штурмувати українські позиції поблизу населених пунктів Роздолівка та Спірне. Бойові дії в цих районах ще тривають, проте ситуація перебуває під контролем ЗСУ.
Згідно з повідомленням Генерального штабу ЗСУ, українські війська на Краматорському напрямку відбили п’ять атак російських окупантів. Бої точаться в районах населених пунктів Новий та Андріївка.
На російському телебаченні озвучили абсурдну брехню про 10-річних дітей у Маріуполі, які нібито вбивали російських окупантів. Ця вигадка є черговою спробою виправдати злочини росіян проти мирного населення, зокрема й дітей.
Редакція Бахмут.IN.UA спростувала фейк.
Примітка. Матеріал було оновлено 16 червня 2024 року, редакція актуалізувала інформацію та додала аргументовані обґрунтування фейку. Редакція оновлює матеріал та додає примітку “Оновлено” згідно з Редакційною Політикою.
Спростування фейку
Твердження про 10-річних дітей у Маріуполі, які нібито вбивали російських окупантів, є абсолютно безпідставним і не відповідає дійсності. Про це не повідомляли жодні авторитетні джерела чи офіційні органи, окрім російських пропагандистських ЗМІ. Якби такі випадки мали місце, на них би звернули увагу українські та міжнародні правозахисні організації, дитячі омбудсмени тощо.
Ця вигадка є черговою брехнею кремлівської дезінформаційної машини з метою:
виправдати численні воєнні злочини російської армії проти цивільних, зокрема дітей;
знецінити гуманітарну трагедію в Маріуполі;
сформувати викривлений образ українців як “звірів”.
Насправді як повідомляють правдиві джерела та численні свідчення, саме російські окупанти розстрілювали та катували мирних жителів Маріуполя, включно з дітьми. Путінський режим веде відверту дезінформаційну кампанію проти України.
Діти, які “різали” російських військових
Російська пропаганда не припиняє поширювати фейки про Україну та українців. Цього разу російські ЗМІ вигадали історію про маріупольських дітей віком 10 років, які нібито “ходили окупованим містом і вбивали російських військових, встромляючи ножі їм під бронежилети”. Новину опублікував Денис Казанський, український блогер та журналіст
Катерина шугаєва: що відомо
В росзмі було поширене відео з катериною шугаєвою, телеведучою, блогером, ведучою стрима “Общероссийского народного фронта” на першому телеканалі.
Небезпечна риторика
Окремо варто наголосити на вкрай небезпечному та цинічному характері такої пропаганди. Російські ЗМІ відверто заявляють, що “на війні як на війні” і дітей “шкодувати не треба”. Це риторика, яка виправдовує вбивства дітей і повністю суперечить нормам міжнародного права та елементарної людяності.
Такі фейки від російських каналів лише посилюють образ держави-терориста, який веде відкриту інформаційну війну проти інших країн.
На сьогодні технологія діпфейк є доволі відомою: тримаючи у руках смартфон, можна створити як жартівливе відео, в якому “Анджеліна Джолі” вітає друга з Днем народження, так і фейкове відео із псевдо Зеленським, який оголошує капітуляцію України.
Що це за технологія, як нею користуються росіяни в інфовійні проти України та чи можливо неозброєним оком помітити фейкове відео — розповідає “Бахмут IN.UA” у рамках проєкту з підвищення медіаграмотності.
Що таке діпфейк простими словами?
Технологія Deepfake — це дуже реалістичне відео або аудіо, яке створили за допомогою штучного інтелекту. Діпфейк “говорить” із нами від особи політиків, співаків, акторів тощо, та передає ту інформацію, яку заклав у неї автор. Ба більше: будь-хто зараз може створити подібне відео, вставивши обличчя свого друга або коханої людини, за допомогою додатків на мобільному телефоні.
Першим найпопулярнішим діпфейком стало відео американського ЗМІ Buzzfeed, яке у 2018 році опублікувало фейкове відео із експрезидентом США Бараком Обамою, що нібито пояснює як, власне, працює технологія.
Діпфейки як інструмент російської дезінформації проти України
У березні 2022 року урядовий Центр стратегічних комунікацій та інформаційної безпеки попереджав про те, що росіяни використовуватимуть технологію Deepfake, щоб запустити в медіапростір відео, в якому нібито Володимир Зеленський оголошує капітуляцію України.
Інший приклад, також за 2022 рік: мер Києва Віталій Кличко заявив, що від його імені мерам кількох європейських столиць з фейкового email розіслали запити на спілкування через ZOOM. Мери Мадрида та Берліна погодилися на розмову і деякий час спілкувалися із “мером столиці”. 15 хвилин бургомістерка Берліна вела бесіду із псевдо Кличком про українських біженців.
Сумніви у реальності особистості мера Києва заклалися у пані мера у той момент, коли той почав говорити про те, щоб німецька влада заохотила українських чоловіків повернутися до України на фронт. Також співрозмовник мерки Берліна попросив підтримати Київ порадою щодо проведення ЛГБТ-прайду.
Своєю чергою, пранкер зв’язався також і з мером Мадрида, який майже одразу запідозрив, що спілкується не з Кличком, та перервав зв’язок.
Відеофейки також робилися і з ціллю дискредитувати колишнього головкома Валерія Залужного. На цьому відео “Залужний” нібито каже про те, що Володимир Зеленський хоче ліквідувати самого воєначальника і здати Україну росії.
В іншому ролику фейковий Залужний спростовує свої попередні відео, наказує українським військовослужбовцям покинути зону бойових дій та захопити владу у країні. Ролик наповнений фразами, притаманними російській пропаганді: “повний провал на фронті”, “солдатів відправляють на забій”, “корупція у країні” тощо.
Але цей метод публікації фейкових відео та аудіо працює в обидва боки. До прикладу, у 2022 році в мережі опублікували нібито розмову між путіним та міністром оборони рф сергієм шойгу. Ці двоє “обговорювали” війну в Україні, а шойгу жалівся на “сапратівлєніє”.
Діпфейки та меми
Цю технологію, яка останніми роками стала доступною кожному, зараз активно використовують у мемній культурі. Фальшиві відео стали особливо популярними у мережі TikTok, де українці публікують відео з діпфейками Зеленського, Тимошенко, Буданова та інших українських політичних діячів.
На відео персонажі несуть, на перший погляд, ахінею, але це лише елемент сучасного гумору: іноді — на межі, іноді — незрозумілого людині, яка не у контексті культури мемів. Саме тому люди, до прикладу, похилого віку можуть сприйняти за чисту монету відео із президентом України, який каже, що Фредді Крюгеру (ред. — персонаж з вигаданого кіновсесвіту “Жах на вулиці В’язів”) представники ТЦК вручили повістку.
Для чого роблять діпфейки?
Фейкові відео використовуються для штучного створення паніки та з ціллю скомпроментувати ту чи іншу особу. Це ефективний метод швидко рознести мережею інформацію, яка вигідна авторам фальшивих матеріалів.
Поширюючи брехню як правду, можна із легкістю переконати людей у тому, чого насправді не існує. Це небезпечно і може мати наслідки: знищення репутації, руйнування взаємин, зриви виборів тощо. Розповсюдження дезінформації порушує довіру та стабільність у суспільстві, а також може призвести до великих соціальних і політичних проблем.
Як відрізнити діпфейк від реального відео?
Для цього потрібно бути уважними та звертати увагу на такі деталі:
уважно розгляньте рух людей і предметів у відео: діпфейки можуть мати несправжній або нереалістичний рух;
краї маски навколо обличчя: у деяких випадках відео може мати помітні ознаки недосконалості відтворення реальної людини;
оклюзія обличчя: може спотворювати предмети або приховувати їх;
розмите обличчя: при ретельному розгляданні обличчя персонажа може бути розмитим, незалежно від якості відео;
іноді алгоритми не можуть повністю “розпізнати” та відтворити зображення людини, що може проявлятися у коротких мерехтіннях на екрані;
перевірте джерело відео. Якщо воно походить з ненадійного джерела, це може бути підозрілим.
Якщо ви маєте досвід у користуванні штучним інтелектом, та розумієтеся на алгоритмах його роботи, відрізнити діпфейк від справжнього відео вам допоможуть наступні інструменти:
Загальний страховий стаж — це необхідний елемент роботи будь-якого працівника й працівниці в Україні, який гарантує йому соціальний захист й різноманітні можливості, зокрема, виплати. Детальніше […]
28 листопада Президент України Володимир Зеленський підписав закон про збільшення податків і військового збору на період дії воєнного стану. Закон, зокрема, передбачає підвищення військового збору […]
У Часів Ярі тривають бойові дії. Окупанти намагаються захопити місто та постійно його обстрілюють. Через це в місті є значні руйнування. Який вигляд має Часів […]
єМалятко — це особлива функція в застосунку “Дія”, яка дозволяє батькам новонародженої дитини зареєструвати її народження, а також отримати доступ до різноманітних послуг та державних […]
Наприкінці жовтня 2022 року росіяни вперше поцілили в Благовіщенський храм, що розташовувався на вулиці Ювілейній. Станом на грудень 2024 року окупанти повністю зруйнували святиню. Який […]