443

Кіберзброя. Як выявіць маніпуляцыі з візуальным кантэнтам?

11.05.2023 Крыніца: Аўтар для Беларускай асацыяцыі журналістаў

А таксама якія інструменты аналізу фота і відэа могуць быць карысныя ў журналісцкай працы. Пра ўсё гэта распавялі  сузаснавальніца незалежнай украінской арганізацыі StopFake.org Вольга Юркова і журналіст, рэдактар, медыятрэнер Аляксей Шота падчас варкшопаў, што ладзяцца ў межах Фактчэк-марафону «Давярай, але правярай» праекта Рэгіянальнага офіса Прадстаўніцтва Фонда ім. Фрыдрыха Эберта «Дыялог Усходняя Еўропа». Прапануем вам канспект заняткаў.

Адкуль браць інфармацыю (асабліва калі вы не ў Беларусі)

У якасці крыніц інфармацыі першымі часта называюць сацыяльныя сеткі: паблікі ў Facebook і Vkontakte, фотафакты ў Instagram, чаты, чат-боты і каналы ў Telegram — мясцовыя, тэматычныя і іншыя.

За імі ідуць сведчанні і фотаздымкі ад знаёмых і відавочцаў. Таксама карысныя лічбы і факты можна знайсці проста ў афіцыйных ці фінансаваных дзяржавай крыніцах. Сярод іх, напрыклад, прэс-службы арганізацый, лакальныя і нацыянальныя дзяржаўныя СМІ.

Варта звярнуць увагу на масівы і аналіз дадзеных, якія можа знайсці ў сеціве: ад сайта Белстата да апытанняў (Chatham House ды іншыя) і спадарожнікавых здымкаў (Maxar і іншыя).

Але атрыманыя звесткі могуць быць няпоўнымі ці недастатковымі, а часам — патрабаваць дадатковай праверкі. 

Што такое дыпфейк?

Частка інфармацыі прыходзіць у выглядзе фота ці відэа, якія самі па сабе перасталі з’яўляцца дастатковымі доказамі факта. Яны могуць быць мадыфікаваныя ці нават створаныя штучным інтэлектам, ці AI з нуля.

Стварэнне фота, відэа ці аўдыяпрадукту з нуля нейрасеткай і называецца дыпфэйкам — deepfake. Літаральна гэта азначае «падробка сродкамі глыбокага навучання».

Дыпфэйкі зрабіліся папулярнымі прыкладна шэсць гадоў таму, калі адзін з карыстальнікаў Reddit падстаўляў у порна твары знакамітых асоб. З таго часу тэхналогіі развіваюцца вельмі хутка, і з кожным годам якасць штучна згенераванага кантэнту робіцца вышэйшай.

Тэхналогіі выкарыстоўваюцца не толькі для замены твараў, але таксама для генерацыі цэлых фэйкавых відэа і аўдыя. Чым больш у сеціве інфармацыі пра чалавека, тым больш верагодна, што пра яго тэхнічна магчыма стварыць дыпфейк. Што тычыцца мадыфікацыі ўжо існуючай інфармацыі, то вельмі даступны аб’ект — запісы анлайн-камунікацыі.

Як вызначыць дыпфэйк і фотамантаж?

Першы спосаб — параўнаць з аналагам з першакрыніцы. Крыніцу фота можна знайсці зваротным пошукам праз Google Image Reverse Search, дзе трэба запампаваць малюнак ці ўставіць спасылку, а потым націснуць «Знайсці крыніцу». Альбо можна выкарыстаць Tineye, які пасля запампоўкі фота прапануе вынікі пошуку і даты публікацый.

Яшчэ адзін варыянт — усталяваць дадатак да браўзера, якім можна карыстацца, пстрыкнуўшы на малюнак правай кнопкай мышы. Напрыклад, гэта Search by Image для Chrome. Ён уключае розныя сістэмы пошуку і таксама опцыю All searche images па іх усіх.

Другі спосаб вызначыць мадыфікацыю — праграмны. Напрыклад, анлайн-сэрвіс Forensically дазваляе ўбачыць прыкметы фотамантажу і дадзеныя здымка.

  • Опцыя Error Level Analysis паказвае ўклееныя месцы, падсвечваючы іх іншым колерам.

  • Clone Detection падсвечвае скапіяваныя і ўклееныя элементы малюнка (так можа быць павялічаная колькасць людзей, дададзеныя вокны на будынак і г. д.).

З відэа спрацуе:

  • плагін InVID-WeVerify для Firefox (інструкцыя);

  • проста пакадравы прагляд, бо АІ стварае відэа з асобных кадраў. У гэтым дапаможа відэаплэер VLC для камп'ютара ці Wathcframebyframe для YouTube.

Вось, напрыклад, знакамітае фэйкавае відэа, дзе Кім Чэн Ын выказваецца пра дэмакратыю:

Аб чым раскажуць мета- і геатэгі

Трэці спосаб вызначыць маніпуляцыю — праглядзець інфармацыю пра фотаздымак. Гэта можна рабіць не толькі праз адмысловыя праграмы, але і проста ў Windows, націснуўшы на малюнак правай кнопкай мышы. Адкрыецца вакенца, дзе трэба шукаць укладкі «Уласцівасці — Падрабязна». Там могуць быць напісаныя:

  • Геатэгі, калі ў аўтара фота ў тэлефоне не выключана захаванне геалакцыі ў файле (гэта рэдкасць).

  • Метададзеныя, калі іх адмыслова не пачысцілі: мадэль фотаапарата, дата фота, калі і нават якім софтам зробленая мадыфікацыя.

Важна! З 2020 года актывісты часта чысцяць метатэгі фотаздымкаў, каб па іх не знайшлі сілавікі. З той жа мэтай рэдакцыі лепш правяраць і чысціць метададзеныя здымкаў перад публікацыяй. Гэта можна рабіць у графічных рэдактарах, анлайн-сэрвісах і нават дадатках для тэлефона.

Як натрэніраваць вока на дыпфэйкі?

Чацвёрты спосаб вызначыць маніпуляцыю — «натрэніраваць вока» і ўважліва аналізаваць выявы.

Згенераваны кантэнт бывае рознай якасці ў залежнасці ад выдаткаваных на яго рэсурсаў. У тэорыі яго лёгка пазнаць: на фота гэта крывыя будынкі, размыты край вопраткі, ненатуральныя плечы ці нават часткі цела і гэтак далей. На аўдыязапісе гэта змена тону голаса, няякасны гук.

На відэа — пэўная «мульцяшнасць» героя, калі ён крыху падобны да персанажа камп'ютарнай гульні. Гэта ненатуральная міміка, міргае занадта рэдка альбо занадта часта. Вусны могуць рухацца несінхронна з прамоўленымі словамі, а галава — не рухацца ўвогуле. Якасць відэа можа быць кепскай — акурат для таго, каб не кідаліся ў вочы дзіўныя дэталі.

На няякасным дыпфейку чалавек наадварот будзе занадта сіметрычны, але яму будзе не хапаць завушніцы, дужкі акуляраў, будуць няроўнасці ў вобласці шыі, валасоў, пальцаў. Надпісы могуць быць нечытэльнымі.

Можна скласці яшчэ вельмі доўгі спіс прыкметаў. Але калі каротка — чалавек на дыпфэйку выглядае ненатуральна, і яскравей за ўсё гэта бачна па форме, колеру і рухах дэталяў.

Натрэніраваць вока можна тут:

А што наконт тэксту?

З тэкстам пакуль працуе толькі праверка ўручную: ChatGPT і іншыя нейрасеткі не заўсёды генеруюць карэктную і актуальную інфармацыю. Наколькі — залежыць ад спосабу навучання нейрасеткі і ад таго, якой былі якасць і актуальнасць інфармацыі для навучання. Базы ChatGPT — не зусім актуальныя і абмежаваныя 2021 годам.

Дарэчы, зараз існуюць якасныя праграмы для транскрыбавання аўдыя — і іх выкарыстанне таксама можа правакаваць скажэнне інфармацыі. Але рэцэпт усё той жа — правяраць.

Бонус — як знайсці чалавека па фота ці скрыншоце

Штучны інтэлект дапамагае не толькі ствараць неіснуючыя асобы, але і апрацоўваць звесткі пра рэальных людзей. Напрыклад, вызначыць асобу па фота і відэа.

Ідэнтыфікацыя па фота можа дапамагчы, напрыклад, даведацца імёны набліжаных да ўладаў, што фігуруюць на афіцыйных здымках. Таксама можна даведацца імёны людзей, якіх сілавікі затрымалі і выклалі з імі фота ці відэа без імя і прозвішча.

Адзін з інструментаў для ідэнтыфікацыі асобы — анлайн-сэрвіс Pimeyes. Сюды можна запампаваць фота ці два (лепш з розных ракурсаў). Пасуюць нават скрыншоты з відэа і выявы, дзе чалавек у шапцы ці акулярах.

Сэрвіс пакажа, на якіх сайтах сустракаецца твар чалавека, у тым ліку ў некаторых сацсетках. Бясплатная версія дае тры спробы пошуку на дзень, у платнай гэтая колькасць большая, да таго ж можна проста перайсці па спасылцы на крыніцу.

Каб вызначыць крыніцу праз бясплатную версію, можно зрабіць скрыншот фота з выдачы на сайце. Пасля — пашукаць яго праз пошук па малюнку ў Google і Яндэксе (яны паказваюць розныя вынікі).

Чытайце яшчэ:

Появилось руководство по фандрейзингу от MediaDev

Феномен Midjourney: чаму гэтая нейрасетка стала мегапапулярнай і як ёй карыстацца?

«Трымаемся праўды, трымаемся разам!» З Вільні стартаваў марафон салідарнасці са зняволенымі калегамі

Самыя важныя навіны і матэрыялы ў нашым Тэлеграм-канале — падпісвайцеся!