Примусове виселення з Часового Яру: що не так з “наказом” Міноборони

Бахмут Брехомір Данило Вінниченко 15:38, 3 Квітня 2024
Часів Яр
Прифронтовий Часів Яр / фото 93-тя ОМБр 

У мережі шириться відео нібито наказу Міноборони України від 29.03.2024, що мешканцям прифронтового міста Часів Яр треба негайно виїхати зі своїх домівок, тому що будівлі нібито стануть опорою в обороні міста проти орків. Саме таке формулювання використали в документі. 

Міноборони не наказувало виселятись з Часового Яру

Цей документ, який поширюють росіяни, є фейковим. У Центрі протидії дезінформації (ЦПД) верифікували інформацію в оперативно-тактичного угруповання “Схід”, де їм підтвердили, що “документ” неправдивий та не має ніякого відношення до Міноборони. 

Перше, на що звернули увагу У ЦПД, це те, що слово “орки” не вживаються в офіційних документах. Це розмовне слово і не підпадає під офіційно-діловий стиль, у якому пишуться всі ділові документи. 

Друге, це оформлення. У наказі зазначена дата 29.03.2024, однак на офіційному сайті Міноборони немає жодного наказу за березень. Останній наказ Міністерства оборони №123 “Про затвердження примірних договорів” датується 19.02.2024 (на сайті допущена помилка). Жодного наказу за 2024 рік, пов’язаного з евакуацією населення з прифронтових міст немає. Ми також порівняли оформлення офіційних документів та “документу” з відео: на офіційному є довідкова інформація, назва наказу, документ написаний в офіційно-діловому стилі з дотриманням вимог оформлення організаційно-розпорядчих документів. 

Натомість “документ”, який на відео, зроблений з порушенням вимог до оформлення, текст надрукований у розмовному стилі, немає назви населених пунктів чи об’єктів, звідки триває евакуація, немає назви наказу, чіткого регламенту реалізації, також невідомо, хто дав та підписав наказ. 

Фейковий наказ, який поширює рф
Ліворуч — наказ з офіційного сайту МО, праворуч — “документ” з відео / колаж Бахмут IN.UA

Третє, фахівці з ЦПД зазначили, що відселення не входить до компетенції Міноборони. У пункті 1 статті 8 Закону України “Про правовий режим воєнного стану” зазначено, що в Україні або в окремих її місцевостях, де введено воєнний стан, військове командування разом із військовими адміністраціями (у разі їх утворення) можуть самостійно або із залученням органів виконавчої влади, Ради міністрів Автономної Республіки Крим, органів місцевого самоврядування запроваджувати та здійснювати в межах тимчасових обмежень конституційних прав і свобод людини й громадянина, а також прав і законних інтересів юридичних осіб, передбачених указом Президента України про введення воєнного стану.

Перераховані органи також уповноважені проводити евакуацію населення у разі виникнення або загрози виникнення надзвичайної ситуації, а також із зон збройних конфліктів (з районів можливих бойових дій), про це йдеться зокрема у підпункті 19 статті. 

Наразі в Часовому Яру залишається близько 800 мешканців. Ситуація на Донеччині залишається напруженою. Загарбники продовжують тиснути по всій лінії фронту. Поширюючи подібні фейки, росЗМІ намагаються розхитати ситуацію всередині українського суспільства та посіяти паніку. Тому закликаємо не вестись на ворожу дезінформацію та перевіряти інформацію на офіційних джерелах.

Читайте також:

Бахмут живе тут – підписуйтесь на наш Телеграм та Інстаграм!

Як же він дратує: клікбейт у ЗМІ зменшує рівень медіаграмотності українців

Маргарита Огнева Огнева Маргарита 12:02, 30 Жовтня 2024
Колаж Бахмут IN.UA

Новинні Telegram канали, засоби масової інформації та блогери, виробляючи тонни контенту, щоденно борються за увагу аудиторії. Не всі з них роблять це екологічно, вдаючись до такого явища як клікбейт. Що це таке, навіщо він використовується та чим шкодить — читайте в матеріалі “Бахмут IN.UA”.

Клікбейт — це…

Клікбейтні заголовки побудовані на психологічних прийомах: використання емоційних тригерів, цікавість, страх пропустити щось важливе та бути не в курсі. Його головне завдання — привернути увагу та змусити людей клікнути на покликання. І так — ця тактика працює. Настільки працює, що один з прикладів старезного клікбейту вже став мемом, розповсюдженим у російськомовному сегменті Інтернету: “щоб вилікувати цю хворобу, достатньо взяти звичайний радянський…”

Клікбейт у ЗМІ

Попри те, що Кодекс етики українського журналіста стверджує: “редакційна обробка матеріалів, включаючи знімки, текстівки, заголовки, відповідність відеоряду та текстового супроводу тощо, не повинна фальсифікувати зміст”, не всі засоби масової інформації дотримуються цього.

Яскрава клікбейтна обкладинка та гучна назва відео, частіше за все, ведуть до звичайних новинних сюжетів, які не містять у собі сенсаційної інформації. Таких прикладів у YouTube щоденно публікується сотнями, і всі вони скроєні за єдиним шаблоном.

Колаж Бахмут IN.UA

Візьмемо до прикладу сюжет “24 каналу” від 26 жовтня 2024 року із кричущою назвою “😱СКАНДАЛ в ООН. Кислиця поставив Гутерреша НА МІСЦЕ! Жорстко РОЗНІС генсека цією ЗАЯВОЮ”. Які очікування можуть виникнути у потенційного глядача цього ролику? Як мінімум, відеодоказ того, що постпред України при ООН Сергій Кислиця кричить на генерального секретаря організації Гутерреша, і між ними дійсно виникає скандал. Що отримав глядач? Ведучу, що 10 хвилин у доволі монотонній манері пояснює як Сергій Кислиця у соцмережі Х (колишній Twitter) відреагував на візит Гутерреша до росії у рамках БРІКС. Тим часом відео отримало майже 300 тисяч переглядів.

Чим шкодить такий підхід медіа до висвітлення інформації? По-перше, він зменшує довіру до засобів масової інформації. Людина, не отримавши того, що її зачепило, розчаровується, запам’ятовує саму ідею того, що її “намахали” ЗМІ (не завжди запам’ятавши саме назву медіа) і втрачає довіру.

По-друге, подібні заголовки та обкладинки до відео — це дезінформація, і такий спосіб просування відеороликів заборонений Google. Глядачі не дивляться кожне відео з власних рекомендацій YouTube, але, гортаючи сторінку, візуально запам’ятовують інформацію. Думаємо, що кожна людина мала діалог на кшталт:

— Я бачив інформацію, що у росії скоро закінчаться гроші на війну?

— Ого, а кинь мені посилання.

— Ой, я не пам’ятаю де це бачив, десь писали.

Саме клікбейтні заголовки можуть бути причиною такого діалогу, а подібні дії деяких ЗМІ знижують рівень медіаграмотності населення.

Чому клікбейт — проблема

Якщо підсумувати, зловживання клікбейтними заголовками у довгостроковій перспективі може стати проблемою. Наведемо кілька причин, чому:

  • розчарування і втрата часу. Люди нажимають на клікбейт, очікуючи отримати цікаву або важливу інформацію, але часто зміст не відповідає заголовку або є поверхневим. Це розчаровує і створює відчуття марно витраченого часу;
  • поширення дезінформації. Деякі клікбейт заголовки перебільшують або навіть спотворюють факти, щоб привернути увагу. Це може вводити людей в оману, створювати неправильне враження про події або підкріплювати міфи й стереотипи;
  • маніпуляція емоціями. Клікбейт активно експлуатує наші емоції, такі як страх щось пропустити, тривогу чи здивування. Це може викликати стрес або тривогу, особливо коли мова йде про теми, пов’язані з важливими темами (наприклад, війною, здоров’ям чи безпекою).
  • зниження якості контенту. Коли сайти більше орієнтуються на кількість кліків, а не на якість інформації, страждає сам контент. Це призводить до того, що журналісти і автори надають перевагу поверхневим або сенсаційним матеріалам замість глибоких і добре досліджених статей;
  • втрата довіри до медіа. Постійні клікбейти знижують довіру до сайтів і медіа, які їх використовують. Коли люди часто бачать клікбейт, вони починають сумніватися в об’єктивності та надійності таких ресурсів.

Через це клікбейт не просто дратує, але й негативно впливає на інформаційне середовище, ускладнюючи пошук правдивої та корисної інформації.

Як відрізнити клікбейт від корисного контенту

  • занадто емоційний заголовок. Клікбейт часто використовує емоційно забарвлені слова, такі як “шокуюче”, “ви не повірите”, “сенсація” тощо. Якщо заголовок обіцяє щось неймовірне або намагається вас здивувати, це вже сигнал бути обережним;
  • невизначеність і інтрига. Клікбейт заголовки часто навмисно розмиті або нечіткі. Наприклад, “Цей простий трюк змінить ваше життя!” або “Ось що сталося далі…”. Якщо немає конкретики, то це — типова ознака клікбейту;
  • обіцянка “секретної інформації”. Якщо заголовок обіцяє “секретні факти” або “приховану правду”, це також майже на 100% “байт” на перегляди;
  • розбіжність заголовка і змісту. Тут все наче просто: сама інформація не відповідає заголовку? Ви попалися на “замануху”.

Українська медійна громадська організація Інститут масової інформації у вересні 2024 року провела аналіз професійних стандартів онлайн-медіа. В моніторинговий період клікбейту було менше у ЗМІ, які аналізували представники ІМІ. Спеціалісти зазначили, що видання “Суспільне” “ефективно уникає клікбейту та емоційно забарвлених заголовків, демонструючи фокус на достовірності та відповідальності”.

Критичне мислення та обережність допоможуть вам уникати клікбейту та вибирати дійсно цінний контент. Окрім цього, радимо вам “білий” список медіа від Інституту масової інформації. До речі, наше медіа “Бахмут IN.UA” також є у списку регіональних якісних медіа. Журналісти цих майданчиків не роблять новини із гучними заголовками, які не відповідають дійсності. Тому радимо вам читати перевірені новини на сторінках цих ресурсів, які мають всі зручні способи комунікації з аудиторією.

Читайте також:

Бахмут живе тут – підписуйтесь на наш Телеграм та Інстаграм!

Цифрові медіаманіпуляції. Як обманюють за допомогою штучного інтелекту

Маргарита Огнева Огнева Маргарита 13:01, 23 Жовтня 2024
Колаж “Бахмут IN.UA”

Графічний контент — невіддільна частина Інтернету. Фотографіями та картинками ілюструють новини, а іноді й самі знімки стають інформаційним приводом. Але не всі фотознімки є справжніми, хай там як реалістично вони виглядають. Деякі з таких фейкових фото створили ажіотаж у мережі. Команда “Бахмут IN.UA” на прикладах розкаже про такі кейси.

Використання ШІ там, де це не треба

Кожен з нас має телефон, на який може встановити застосунки на основі ШІ, в яких змінюється обличчя, тло знімка тощо. Такі додатки ми використовуємо для розваги. Але для тих, хто заробляє на дезінформації, штучний інтелект — найкращий помічник. Адже за його допомогою можна створити реалістичний знімок на будь-яку тему, супроводити це потрібним контекстом — у вуаля! Гучний інфопривід готовий. Почнемо з доволі невинного прикладу. 

Відомі у світі інформаційні агентства Reuters і Associated Press на своїх онлайн-сторінках опублікували фотознімки принцеси Уельської Кейт з дітьми, зроблені вперше після операції Кейт на черевній порожнині. Але пізніше журналісти відкликали ці фото. Причина — виявлені на світлині ознаки цифрової маніпуляції. Інформагентства виявили на фотографії непослідовність у положенні руки принцеси Шарлотти – дочки Кейт та Вільяма.

Джерело: Prince and Princess of Wales

Пізніше принцеса публічно попросила вибачення за фотознімок. У соцмережі Х (колишній Twitter) Кейт написала, що, як і багато фотографів-любителів, вона “іноді експериментує з редагуванням” світлин.

Якщо продовжувати тему офіційних акаунтів, то Верховна Рада України також вдалася до використання ШІ контенту у 2023 році. У соцмережі X адміністратори сторінки зробили допис про обстріл міста Дніпро, який здійснили росіяни 14 січня. Для цього вони використали зображення дитини, згенероване штучним інтелектом. Користувачі мережі розкритикували пост, що набрав майже 40 тисяч переглядів. 16 січня допис видалили зі сторінки.

Джерело: видалений допис Верховної Ради

Штучний інтелект — зброя у руках дезінформаторів

У 2023 році мережею рознісся знімок, на якому буцімто володимир путін припав на коліна перед лідером китаю сі цзіньпінем. На фейковому знімку путіна і сі задній черевик президента рф надто великий і широкий. Литка тієї ж ноги здається подовженою. Та й голова при уважному розгляді надто велика і непропорційна щодо тіла. Окрім того, існують інші ознаки нереалістичності цього “знімку”:


Джерело: Twitter/DW

Використання ШІ для дезінформації

18 жовтня заступник міністра закордонних справ України Антон Демьохін повідомив Reuters про те, що росія використовує генеративний штучний інтелект для посилення кампаній з дезінформації проти України.

“Цього року ми бачимо, що щільність кібератак з боку росії зберігається, але більше акценту на дезінформації”, – сказав заступник міністра МЗС в кулуарах Сінгапурського міжнародного кібертижня.

Демохін зауважив, що, відтоді як з’явився генеративний ШІ, це дозволяє рф множити та поширювати дезінформаційні наративи на новому, складнішому рівні. За його словами, ці нові кампанії з дезінформації важко виявити. Антон Демьохін сказав Reuters, що сама Україна використовує генеративний штучний інтелект для відстеження кампаній з дезінформації.

Окрім того, росія, китай та іран використовують інструменти штучного інтелекту, аби вплинути на вибори президента США. Про це повідомили представники Офісу директора національної розвідки та ФБР під час брифінгу для журналістів. Зазначається, що дії росії найагресивніші та наймайстерніші з усіх трьох країн — вони націлені на віцепрезидентку, кандидатку від Демократичної партії Камалу Гарріс. 

Зокрема, росія фальсифікувала фрагменти промов Гарріс, щоб замінити деякі її слова. Також вона використала штучний інтелект для створення неправдивого тексту, фотографій, відео та аудіо.

Раніше “Бахмут IN.UA” розповідав про те, як розпізнати зображення, створене ШІ. Якщо коротко підсумувати цей матеріал, то головна порада — це зберігати “холодну голову”, бути уважними та критично оцінювати все, що зустрічаєте в інтернеті. Це допоможе не вестися на фейки, як-от про путіна, що кланяється сі.

Читайте також:

Бахмут живе тут – підписуйтесь на наш Телеграм та Інстаграм!

Як же він дратує: клікбейт у ЗМІ зменшує рівень медіаграмотності українців

Новинні Telegram канали, засоби масової інформації та блогери, виробляючи тонни контенту, щоденно борються за увагу аудиторії. Не всі з них роблять це екологічно, вдаючись до […]

Цифрові медіаманіпуляції. Як обманюють за допомогою штучного інтелекту

Графічний контент — невіддільна частина Інтернету. Фотографіями та картинками ілюструють новини, а іноді й самі знімки стають інформаційним приводом. Але не всі фотознімки є справжніми, […]

Штучний інтелект створює графічний контент для соцмереж: як розпізнати зображення, створене ШІ

Соціальні мережі заполонили картинки, які “малює” AI — Artificial Intelligence, що перекладається як штучний інтелект. У деяких випадках ці зображення створюються спеціально для того, аби […]

Що не так із Telegram та чи має він альтернативи

Останніми місяцями популярною є тема “забороняти Telegram чи не треба”. У рамках роз’яснювального проєкту “Бахмут IN.UA” розкаже про основні “за” та “проти” заборони найпопулярнішого месенджера, […]

Ми всі із цим стикалися. Що таке “астротурфінг”

Астро… Що? Скоріш за все, ви не чули цей термін, але точно були свідками його дії в соцмережах та навіть у реальному житті. Команда “Бахмут […]