Російські окупаційні війська посилили власний наступ на Часів Яр, проте вони не мають успіхів. Битва за місто продовжується.
Про це в ефірі телемарафону розповів речник ОСУВ “Хортиця” Назар Волошин.
Бої за Часів Яр
За словами військового, в останні дні в Часів Яру та на його околицях відбулося певне загострення ситуації, адже ворог продовжує вести активні наступальні дії. Одночасно з цим, росіяни не мають жодних територіальних успіхів у місті та навіть плацдармів у ньому.
Речник ОСУВ “Хортиця” також розповів про те, що окупанти не полишають спроб захопити Красногорівку на Донеччині. Ворог прорвався на схід від Красногорівки та невеликими групами зайшов на вогнетривкий завод. Своєю чергою, ЗСУ вже відрізали їм логістичні шляхи, взявши під контроль підходи до підприємства.
Яка ситуація поблизу Часів Яру
За даними Інституту вивчення війни (ISW) з посиланням на одного з командирів українських батальйонів, в районі Часового Яру росіяни мають значну перевагу у живій силі, яка досягає показників 10 до 1. Раніше у ЗСУ повідомляли, що ворог зібрав близько 20-25 тисяч окупантів біля міста.
На російському телебаченні озвучили абсурдну брехню про 10-річних дітей у Маріуполі, які нібито вбивали російських окупантів. Ця вигадка є черговою спробою виправдати злочини росіян проти мирного населення, зокрема й дітей.
Редакція Бахмут.IN.UA спростувала фейк.
Примітка. Матеріал було оновлено 16 червня 2024 року, редакція актуалізувала інформацію та додала аргументовані обґрунтування фейку. Редакція оновлює матеріал та додає примітку “Оновлено” згідно з Редакційною Політикою.
Спростування фейку
Твердження про 10-річних дітей у Маріуполі, які нібито вбивали російських окупантів, є абсолютно безпідставним і не відповідає дійсності. Про це не повідомляли жодні авторитетні джерела чи офіційні органи, окрім російських пропагандистських ЗМІ. Якби такі випадки мали місце, на них би звернули увагу українські та міжнародні правозахисні організації, дитячі омбудсмени тощо.
Ця вигадка є черговою брехнею кремлівської дезінформаційної машини з метою:
виправдати численні воєнні злочини російської армії проти цивільних, зокрема дітей;
знецінити гуманітарну трагедію в Маріуполі;
сформувати викривлений образ українців як “звірів”.
Насправді як повідомляють правдиві джерела та численні свідчення, саме російські окупанти розстрілювали та катували мирних жителів Маріуполя, включно з дітьми. Путінський режим веде відверту дезінформаційну кампанію проти України.
Діти, які “різали” російських військових
Російська пропаганда не припиняє поширювати фейки про Україну та українців. Цього разу російські ЗМІ вигадали історію про маріупольських дітей віком 10 років, які нібито “ходили окупованим містом і вбивали російських військових, встромляючи ножі їм під бронежилети”. Новину опублікував Денис Казанський, український блогер та журналіст
Катерина шугаєва: що відомо
В росзмі було поширене відео з катериною шугаєвою, телеведучою, блогером, ведучою стрима “Общероссийского народного фронта” на першому телеканалі.
Небезпечна риторика
Окремо варто наголосити на вкрай небезпечному та цинічному характері такої пропаганди. Російські ЗМІ відверто заявляють, що “на війні як на війні” і дітей “шкодувати не треба”. Це риторика, яка виправдовує вбивства дітей і повністю суперечить нормам міжнародного права та елементарної людяності.
Такі фейки від російських каналів лише посилюють образ держави-терориста, який веде відкриту інформаційну війну проти інших країн.
На сьогодні технологія діпфейк є доволі відомою: тримаючи у руках смартфон, можна створити як жартівливе відео, в якому “Анджеліна Джолі” вітає друга з Днем народження, так і фейкове відео із псевдо Зеленським, який оголошує капітуляцію України.
Що це за технологія, як нею користуються росіяни в інфовійні проти України та чи можливо неозброєним оком помітити фейкове відео — розповідає “Бахмут IN.UA” у рамках проєкту з підвищення медіаграмотності.
Що таке діпфейк простими словами?
Технологія Deepfake — це дуже реалістичне відео або аудіо, яке створили за допомогою штучного інтелекту. Діпфейк “говорить” із нами від особи політиків, співаків, акторів тощо, та передає ту інформацію, яку заклав у неї автор. Ба більше: будь-хто зараз може створити подібне відео, вставивши обличчя свого друга або коханої людини, за допомогою додатків на мобільному телефоні.
Першим найпопулярнішим діпфейком стало відео американського ЗМІ Buzzfeed, яке у 2018 році опублікувало фейкове відео із експрезидентом США Бараком Обамою, що нібито пояснює як, власне, працює технологія.
Діпфейки як інструмент російської дезінформації проти України
У березні 2022 року урядовий Центр стратегічних комунікацій та інформаційної безпеки попереджав про те, що росіяни використовуватимуть технологію Deepfake, щоб запустити в медіапростір відео, в якому нібито Володимир Зеленський оголошує капітуляцію України.
Інший приклад, також за 2022 рік: мер Києва Віталій Кличко заявив, що від його імені мерам кількох європейських столиць з фейкового email розіслали запити на спілкування через ZOOM. Мери Мадрида та Берліна погодилися на розмову і деякий час спілкувалися із “мером столиці”. 15 хвилин бургомістерка Берліна вела бесіду із псевдо Кличком про українських біженців.
Сумніви у реальності особистості мера Києва заклалися у пані мера у той момент, коли той почав говорити про те, щоб німецька влада заохотила українських чоловіків повернутися до України на фронт. Також співрозмовник мерки Берліна попросив підтримати Київ порадою щодо проведення ЛГБТ-прайду.
Своєю чергою, пранкер зв’язався також і з мером Мадрида, який майже одразу запідозрив, що спілкується не з Кличком, та перервав зв’язок.
Відеофейки також робилися і з ціллю дискредитувати колишнього головкома Валерія Залужного. На цьому відео “Залужний” нібито каже про те, що Володимир Зеленський хоче ліквідувати самого воєначальника і здати Україну росії.
В іншому ролику фейковий Залужний спростовує свої попередні відео, наказує українським військовослужбовцям покинути зону бойових дій та захопити владу у країні. Ролик наповнений фразами, притаманними російській пропаганді: “повний провал на фронті”, “солдатів відправляють на забій”, “корупція у країні” тощо.
Але цей метод публікації фейкових відео та аудіо працює в обидва боки. До прикладу, у 2022 році в мережі опублікували нібито розмову між путіним та міністром оборони рф сергієм шойгу. Ці двоє “обговорювали” війну в Україні, а шойгу жалівся на “сапратівлєніє”.
Діпфейки та меми
Цю технологію, яка останніми роками стала доступною кожному, зараз активно використовують у мемній культурі. Фальшиві відео стали особливо популярними у мережі TikTok, де українці публікують відео з діпфейками Зеленського, Тимошенко, Буданова та інших українських політичних діячів.
На відео персонажі несуть, на перший погляд, ахінею, але це лише елемент сучасного гумору: іноді — на межі, іноді — незрозумілого людині, яка не у контексті культури мемів. Саме тому люди, до прикладу, похилого віку можуть сприйняти за чисту монету відео із президентом України, який каже, що Фредді Крюгеру (ред. — персонаж з вигаданого кіновсесвіту “Жах на вулиці В’язів”) представники ТЦК вручили повістку.
Для чого роблять діпфейки?
Фейкові відео використовуються для штучного створення паніки та з ціллю скомпроментувати ту чи іншу особу. Це ефективний метод швидко рознести мережею інформацію, яка вигідна авторам фальшивих матеріалів.
Поширюючи брехню як правду, можна із легкістю переконати людей у тому, чого насправді не існує. Це небезпечно і може мати наслідки: знищення репутації, руйнування взаємин, зриви виборів тощо. Розповсюдження дезінформації порушує довіру та стабільність у суспільстві, а також може призвести до великих соціальних і політичних проблем.
Як відрізнити діпфейк від реального відео?
Для цього потрібно бути уважними та звертати увагу на такі деталі:
уважно розгляньте рух людей і предметів у відео: діпфейки можуть мати несправжній або нереалістичний рух;
краї маски навколо обличчя: у деяких випадках відео може мати помітні ознаки недосконалості відтворення реальної людини;
оклюзія обличчя: може спотворювати предмети або приховувати їх;
розмите обличчя: при ретельному розгляданні обличчя персонажа може бути розмитим, незалежно від якості відео;
іноді алгоритми не можуть повністю “розпізнати” та відтворити зображення людини, що може проявлятися у коротких мерехтіннях на екрані;
перевірте джерело відео. Якщо воно походить з ненадійного джерела, це може бути підозрілим.
Якщо ви маєте досвід у користуванні штучним інтелектом, та розумієтеся на алгоритмах його роботи, відрізнити діпфейк від справжнього відео вам допоможуть наступні інструменти:
У Києві бахмутяни мають можливість вакцинуватися від COVID-19. Це можна зробити в амбулаторії №11. Про це повідомив Центр підтримки Бахмутян у Києві. Вакцинація від ковіду: […]
Захисники України, які перебувають на передовій або раніше виконували військовий обов’язок, відповідно до чинного законодавства можуть отримати пільги при оплаті житлово-комунальних послуг. Про це повідомляє […]
Села Нова Полтавка та Олександро-Калинове тепер мають газ, це близько 120 осель. У обох населених пунктах газу не було через російські атаки. Про це повідомляє […]
Морква — унікальний овоч, який регулярно використовують майже в кожній сім’ї. Утім, він настільки універсальний, що може стати гарною основою у багатьох рецептах. До того […]
У місті Дніпро відбудеться остання виставка спогадів “Bakhmut Before” цього року. На захід запрошують бахмутян та усіх охочих. Про це повідомляють організатори заходу. Виставка у […]