Компенсація Знаку Зодіаку
Субстанційність С Знаменитості

Дізнайтеся Сумісність За Знаком Зодіаку

Пояснення: чому стає все важче виявити глибокі фейкові відео, і які наслідки?

Потенційна небезпека дипфейків полягає в тому, що рівень маніпуляції настільки досконалий, що часом неможливо відрізнити їх від реальних відео. І чим складніше стає виявити фальшивість, тим більшою загрозою вона є, щоб видатися за реальну і спричинити хаос, який він має намір.

DeepfakeЖодна з осіб на цій фотографії не реальна. Це фальшиві люди, створені ШІ. (Джерело: https://thispersondoesnotexist.com/)

Відремонтовані відео чи дипфейки вже досить тривалий час є однією з ключових знарядь, які використовуються в пропагандистських битвах. Дональд Трамп знущається над Бельгією за те, що вона залишилася в Паризькій кліматичній угоді, Девід Бекхем вільно говорить дев’ятьма мовами, Мао Цзедун співає «I will survive» або Джефф Безос та Ілон Маск у пілотному епізоді «Зоряного шляху»… всі ці відео стали вірусними, незважаючи на те, що вони підробка, або тому, що вони були глибокими фейками.







Минулого року Марко Рубіо, сенатор-республіканець від Флориди, сказав, що дипфейки настільки ж потужні, як і ядерна зброя, у веденні воєн у демократії. У старі часи, якщо ви хотіли загрожувати Сполученим Штатам, вам потрібно було 10 авіаносців, і ядерна зброя, і далекобійні ракети. Сьогодні вам просто потрібен доступ до нашої Інтернет-системи, до нашої банківської системи, до нашої електричної мережі та інфраструктури, і все, що вам більше потрібно, - це можливість створювати дуже реалістичне підроблене відео, яке може підірвати наші вибори, яке може зруйнувати нашу країну у величезну внутрішню кризу і глибоко послаблюють нас, Forbes процитував його слова.

Потенційна небезпека дипфейків полягає в тому, що рівень маніпуляції настільки досконалий, що часом неможливо відрізнити їх від реальних відео. І чим складніше стає виявити фальшивість, тим більшою загрозою вона є, щоб видатися за реальну і спричинити хаос, який він має намір. Але з більш складними інструментами на основі штучного інтелекту, доступними для створення цих відео, стає важче виявити глибокі підробки?



Що таке дипфейки і як вони створюються?

Deepfakes — це підроблений контент — часто у вигляді відео, а також інших медіа-форматів, таких як зображення чи аудіо, — створений за допомогою потужних інструментів штучного інтелекту. Їх називають deepfakes, оскільки вони використовують технологію глибокого навчання, розділ машинного навчання, який застосовує моделювання нейронної мережі до масивних наборів даних, щоб створити підроблений контент.

У ньому використовується галузь штучного інтелекту, де, якщо комп’ютер отримує достатньо даних, він може генерувати підробки, які ведуть себе як справжня людина. Наприклад, AI може дізнатися, як виглядає вихідне обличчя, а потім перемістити його на іншу ціль, щоб виконати заміну обличчя.



Застосування технології під назвою Generative Adversarial Networks (GAN), яка використовує два алгоритми штучного інтелекту — де один створює підроблений вміст, а інший оцінює його зусилля, навчаючи систему бути кращою, — допомогло створити більш точні дипфейки.

GAN також може придумати згенеровані комп’ютером зображення фальшивих людей, які були використані веб-сайтом під назвою «This Person Does Not Exist». Це робить практично неможливим визначити, чи є відео чи зображення, які ми бачимо в Інтернеті, справжніми чи підробленими.



Дипфейки дуже важко виявити. Наприклад, багато людей захопилися відео Tiktok, на яких Том Круз грає в гольф, які пізніше з’ясувалося, що вони були дипфейками.

Чи стає важче виявляти дипфейки?

У статті, представленій на Зимовій конференції із застосування комп’ютерного зору 2021 року, описано нову техніку, яка робить глибокі підробки більш надійними, що ускладнює їх виявлення для традиційних інструментів.



Дослідження, яке проводили Паарт Некхара і Шехзін Самара Хуссейн, обидва аспіранти Каліфорнійського університету в Сан-Дієго, виявило, що інструменти виявлення можна обдурити, вставляючи в кожен відеокадр злегка маніпульовані дані, які називаються прикладами змагань.

PhDПаарт Некхара та Шехзін Самара Хуссейн, аспіранти Каліфорнійського університету в Сан-Дієго, які керували дослідженням. Некхара навчається на 4-му курсі аспірантури на факультеті комп'ютерних наук, а Хуссейн, яка також навчається на 4-му курсі її докторської програми, є студенткою факультету електротехніки та комп'ютерної техніки.

Сучасні методи виявлення глибоких фейків можна легко обійти, якщо зловмисник має повне або навіть часткове знання про детектор, стверджується в статті під назвою «Змагальні Deepfakes: Оцінка вразливості Deepfake Detectors to Adversarian examples».



У розмові з сайтом indianexpress.com Некхара і Хуссейн сказали, що стандартні методи виявлення можуть бути далекими від надійності, оскільки вони не гарантують виявлення новітніх фейкових відео, синтезованих з використанням нових методів, яких немає в наборі даних, і вони вразливі до ворожих даних.

ПРИЄДНУЙСЯ ЗАРАЗ :Телеграм-канал Express пояснив

Змагальні входи — це дещо змінені вхідні дані, які змушують глибокі нейронні мережі робити помилку. Було показано, що глибокі нейронні мережі вразливі до таких вхідних даних, які можуть спричинити зміну вихідних даних класифікатора. У нашій роботі ми показуємо, що зловмисник може трохи модифікувати кожен кадр глибокого фейку, щоб він міг обійти детектор глибокого фейку і класифікуватись як справжній, сказали вони.

DeepfakeЗмагальні приклади для набору даних FaceForensics++, розробленого дослідницькою групою з Каліфорнійського університету в Сан-Дієго, щоб обдурити детектори глибоких фейків. ( https://adversarialdeepfakes.github.io/ )

Вони додали, що зловмисник може створити невелике непомітне протиборство для кожного кадру глибокого фейкового відео, додати його до кадру, а потім об’єднати всі відеокадри разом, щоб створити протилежне відео. У наших експериментах з використанням цих методів ми змогли досягти показника успіху (обдурити детектор) понад 90%.

Які загрози несуть дипфейкові відео?

У зв’язку з розповсюдженням фейкових відео, зростає занепокоєння, що вони будуть використані для проведення політичних кампаній і можуть бути використані авторитарними режимами.

У 2019 році дослідницька організація Future Advocacy і UK Artist Bill Posters створили відео, на якому прем’єр-міністр Великобританії Борис Джонсон і лідер Лейбористської партії Джеремі Корбін підтримують один одного на посаді прем’єр-міністра. Група заявила, що відео було створено, щоб показати потенціал дипфейків для підриву демократії.

Крім того, минулого року, перед голосуваннями в Делійській асамблеї, відео президента Делі BJP Маноджа Тіварі, яке говорить англійською мовою, і Хар'янві стали вірусними. На цих відео Тіварі було помічено, як критикує Арвінда Кеджрівала і просить людей голосувати за BJP. Пізніше було виявлено, що відео, якими поділилися понад 5000 груп WhatsApp, є глибоким фейком, повідомила компанія Vice.

Глибокі фейки також викликають занепокоєння в той час, коли ВООЗ заявила, що криза Covid-19 спровокувала інфодемію, і були навмисні спроби поширити неправильну інформацію, щоб підірвати реакцію громадського здоров’я та просувати альтернативні програми груп або окремих осіб.

Більше того, підроблені відео, які включають маніпулювання вмістом шляхом використання неправильної дати або місця розташування, вирізання вмісту для зміни контексту, упущення, з’єднання та вигадування — сьогодні все частіше використовуються в соціальних мережах для навмисного спотворення фактів у політичних цілях. Більшість із цих відео не є прикладами глибоких фейків, але показують, як легко приховувати факти та поширювати брехню на основі маніпуляційного вмісту, який маскується під вагомі докази.

Інша велика проблема, пов’язана з фейковими відео, – це генерація порнографічного вмісту без узгодження. У 2017 році користувач застосував алгоритм заміни обличчя, щоб створити фейкові порнографічні відео таких знаменитостей, як Скарлетт Йоханссон, Галь Гадот, Крістен Белл та Мішель Обама, і поділився ними на загрозі Reddit під назвою r/deepfake. На момент видалення в лютому наступного року обліковий запис мав майже 90 000 передплатників.

З тисяч фейкових відео в Інтернеті понад 90% є порнографією без згоди. Одним із найжахливіших минулорічних експериментів із штучним інтелектом був додаток під назвою DeepNude, який роздягав фотографії жінок — він міг фотографувати, а потім змінювати жіночий одяг на дуже реалістичні оголені тіла. Додаток було видалено після сильної реакції.

Крім того, як широко повідомляється, дедалі частіше використовуються фейкові відео для створення порнографії помсти відкинутими коханцями, щоб переслідувати жінок.

Загроза, яку представляють відео Deepfake, вже очевидна, сказали Neekhara і Hussain indianexpress.com. Зловмисники використовують такі відео для наклепу на відомих особистостей, поширення дезінформації, впливу на вибори та поляризації людей. Вони додали, що завдяки більш переконливим і доступним методам синтезу глибоких фейків ця загроза стала ще більшою.

Попереду розгін?

Більшість компаній у соціальних мережах, таких як Facebook і Twitter, заборонили дипфейкові відео. Вони сказали, що як тільки вони виявлять будь-яке відео як дипфейк, воно буде видалено.

Facebook найняв дослідників з Берклі, Оксфорда та інших установ для створення детектора глибоких фейків. У 2019 році він провів Deepfake Detection Challenge у партнерстві з лідерами галузі та науковими експертами, під час якого було створено та опубліковано унікальний набір даних, що складається з понад 100 000 відео.

Однак не всі дипфейки можна точно виявити, і для їх пошуку та видалення може знадобитися багато часу. Більше того, багато порнографічних сайтів не мають такого рівня обмежень.

Некхара і Хуссейн сказали: «Щоб точніше виявляти фейк-відео, нам потрібні надійні моделі, які включають зловмисника під час навчання таких моделей виявлення глибоких фейків». Довгостроковим рішенням є водяні знаки або цифрове підписання зображень і відео з пристрою, на який вони зняті. Водяний знак або цифровий підпис повинні бути порушені, якщо використовуються методи глибокого підроблення, як-от заміна обличчя. Потім детектор глибоких фейків може просто перевірити підпис або водяний знак. Однак для цього потрібно встановити стандарт водяних знаків для всіх камер і мобільних телефонів. Тому може пройти деякий час, поки це стане реальністю.

Поділіться Зі Своїми Друзями: