Які існують тактики розпізнавання штучно зроблених ЗМІ?


12

З ростом здатності дешево створювати підроблені фотографії, фальшиві саунд-біти та підроблені відео, виникає все більша проблема розпізнавання того, що є реальним, а що ні. Навіть зараз ми бачимо низку прикладів програм, які створюють підроблені медіа за невеликі витрати (див. Deepfake , FaceApp тощо).

Очевидно, що якщо ці додатки використовуються неправильно, вони можуть бути використані для заплямування образу іншої людини. Deepfake можна було б використати, щоб людина виглядала невірною своєму партнерові. Інша програма може бути використана для того, щоб здатися, що політик сказав щось суперечливе.

Які існують методи, які можна використовувати для розпізнавання та захисту від штучно виготовлених носіїв інформації?

Відповіді:


2

Поле Digital Media Forensics (DMF) спрямоване на розробку технологій для автоматизованої оцінки цілісності зображення чи відео, тому DMF - це поле, яке ви шукаєте. У DMF існує декілька підходів: наприклад, такі, що базуються на техніках машинного навчання (ML), зокрема, конволюційних нейронних мережах (CNN).

Наприклад, у статті Deepfake Video Detection Using Recurrent Neural Networks (2018) Девід Гюра та Едвард Дж. Delp пропонують двоступеневий аналіз, що складається з CNN, для вилучення функцій на рівні кадру з подальшим тимчасово обізнаним RNN для зйомки тимчасова невідповідність між кадрами, що вводяться за допомогою інструменту «глубокий файл» Більш конкретно, вони використовують конволюційну LSTM-архітектуру (CNN у поєднанні з LSTM), яка навчається в кінці, так що CNN вивчає функції у відео, які передаються до RNN, що намагається передбачити ймовірність. тих функцій, що належать до підробленого відео чи ні. Розділ 3 пояснює створення відеороликів із глибокого підробки, що призводить до невідповідностей між кадрами відео (які використовуються у запропонованому способі) через використання зображень з різними умовами перегляду та освітлення.

Запропоновані й інші подібні роботи. Дивіться цей кураторний список https://github.com/aerophile/awesome-deepfakes для інших супутніх робіт.


1

Я думаю, що тут важливий контекст. Використання такої тактики, як ті, що використовуються Скотланд-Ярдом протягом більше століття, мабуть, найкращий спосіб. Встановлення алібісу, реалістичних часових ліній, мотивів. Для правових налаштувань можна було б довести, що ці зображення були підробленими, використовуючи такі методи. З точки зору ІТ, можливо, можна точно визначити походження цих зображень. Якщо тисячі повторних зображень походили з одного походження, то будь-які зображення цього походження є підозрюваними.

Я думаю, загалом ми повинні перекваліфікуватися, щоб не вірити всьому, що бачимо. Існує так багато методів підробки зображень, що фотографія вже не може вважатися найкращим свідченням події, що сталася. Ми не повинні ігнорувати всі образи, а натомість шукати зовнішнього узгодження фактів, перш ніж приступати до висновків. Якщо всі факти вказують на подію, яка відбувається, то ця фотографія, ймовірно, справжня.


0

Якщо припустити, що артефакти та неприродні елементи не існують у відповідних засобах масової інформації та що засоби масової інформації не відрізняються від людського ока, єдиний спосіб зробити це - простежити назад до джерела зображень.

Аналогію можна провести напад DoS (Denial of Service), де абсурдна кількість запитів надсилається з одного IP на єдиний сервер, що спричиняє його збій - Поширене рішення - це сот, де велика кількість запитів від одного IP переспрямовується на сервер привласнення, де, навіть якщо він виходить з ладу, тривалість роботи не порушена. У цих рядках було проведено деяке дослідження, де в цьому документі йшлося про перевірку цифрового підпису зображення або цього, коли вони запропонували підробити зображення та виявити камеру джерела.

Після повернення до джерела, якщо абсурдна кількість потенційно фальшивих зображень походить з особливого джерела, його слід сумніватися.

Поширений страх виникає, коли ми маємо справу з чимось, на основі аналогії, як атака DDoS (розподіленого відмови в обслуговуванні), коли кожен підроблений запит надходить з розподіленого джерела - Network Security знайшла способи вирішити це, але безпека та виявлення шахрайства в умовах ІІ просто не встановлено.

По суті, за добре продуманого штучного носія для конкретних шкідливих цілей сьогодні досить важко зловити - Але в даний час ведеться робота над безпекою в ШІ. Якщо ви плануєте використовувати штучні носії для шкідливих цілей, я б сказав, зараз, напевно, найкращий час.

Ця безпека з часу хвилює проблему. Стаття написана вченим дані цитати

Глибокі фейки вже використовувались для того, щоб намагатися цькувати та принижувати жінок за допомогою фальшивих порно відео. Термін насправді походить від імені користувача Reddit, який створював ці відео, будуючи генеративні змагальні мережі (GAN) за допомогою TensorFlow. Зараз чиновники розвідки говорять про можливість Володимира Путіна використовувати підроблені відеоролики для впливу на президентські вибори 2020 року. Проводиться більше досліджень щодо глубоких ударів як загрози демократії та національній безпеці, а також способів їх виявлення.

Зауважте - я досить незрозумілий про мережеву безпеку, всі мої знання походять з однієї розмови з другом, і я вважав, що це буде хороша аналогія. Пробачте про будь-які помилки в аналогії та будь ласка, виправте, якщо можливо!


Було б добре, якщо ви могли б зробити деякі дослідження та надати посилання на принаймні 1 науково-дослідну роботу / папір, яка базується на чомусь у цих напрямках (тобто, що використовує джерело потенційно підроблених відео).
nbro

Окрім паперів, що говорять про потенційну шкоду та тих, які зазвичай намагаються виявити артефакти, менша кількість паперів, що роблять те, що зазначено у відповіді, наприклад, ця та ця, - Як було сказано, широких досліджень у цих рядках не проводилося, але це досліджується. Сподіваюся, що ці посилання допомогли!
ashenoy

-1

Методи, які ви згадуєте, використовують GAN. Ключова ідея GANs полягає в тому, що у вас є генератор і дискримінатор. Генератор генерує новий контент, дискримінатор повинен повідомити, чи є вміст із реальних даних чи він був створений.

Дискримінатор набагато сильніший. Навчити дискримінатора для виявлення підробок не повинно бути занадто важким. Навчання моделі, яка здатна точно визначити маніпуляцію та розуміння цього є доказом маніпуляції, є складніше. Неможливо отримати доказ того, що чимось не маніпулюють.

Щодо питання, як поводитися з фотошопами: ви дивитесь на відмінності в рівнях стиснення зображення. Ключове слово, яке потрібно шукати, - це криміналістика зображень: http://fotoforensics.com/tutorial-estq.php

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.