Deepfake видеоклипове: Зловещата нова интернет тенденция, заплашваща нашата демокрация

Технология

Вашият Хороскоп За Утре

„Разбира се, че това са фалшиви видеоклипове, всеки може да види, че не са истински. Все пак те наистина казаха тези неща, нали?



Това са думите на Вивиен Рук, измисленият политик, изигран от Ема Томпсън в брилянтната дистопична телевизионна драма на BBC Години и Години .



Въпросният епизод, чието действие се развива през 2027 г., се занимава с темата за „deepfakes“ – видеоклипове, в които лицето и гласът на жив човек са дигитално манипулирани, за да кажат всичко, което програмистът иска.



Рук перфектно обобщава проблема с тези видеоклипове - дори и да знаете, че са фалшиви, те оставят трайно впечатление.

Ема Томпсън като Вивиен Рук в „Години и години“. (Изображение: BBC)

И думите й са още по-убедителни, защото дълбоките фалшификати са реални и вече са сред нас.



Миналата година в мрежата се появиха няколко дълбоки фалшиви порно клипа, показващи знаменитости като Ема Уотсън, Гал Гадот и Тейлър Суифт в явни ситуации.

Deepfakes също са били използвани за изобразяване на високопоставени фигури като Доналд Тръмп, Барак Обама и Марк Зукърбърг, които правят провокативни изявления.



Във видеото на Зукърбърг, например, Facebook основателят твърди, че е „един човек с пълен контрол върху откраднатите данни на милиарди хора, всичките им тайни, техния живот, тяхното бъдеще“.

Видео зарежданеВидео не е наличноКликнете, за да играете Докоснете, за да играете Видеото скоро ще се възпроизведе автоматично8ОтмянаИграй сега

В някои случаи дълбоките фалшификати са почти неразличими от истинските - което е особено тревожно за политиците и други хора в очите на обществото.

какво се случи с леона люис

Видеоклиповете, които първоначално може да са били създадени за смях, лесно могат да бъдат тълкувани погрешно от зрителите.

По-рано тази година, например, се появи дигитално променен видеоклип, на който се вижда Нанси Пелоси, говорител на Камарата на представителите на САЩ, мрачна пияна с реч.

Видеоклипът беше широко разпространен във Facebook и YouTube, преди президентът Доналд Тръмп да го туитира с надпис: „ПЕЛОСИ ЗАПЪКВА ЧРЕЗ НОВИНСКА КОНФЕРЕНЦИЯ“.

Видеото беше развенчано, но не и преди да бъде гледано милиони пъти. Тръмп все още не е изтрил туита, който е бил ретуиран над 30 000 пъти.

Настоящият подход на компаниите за социални медии е да филтрират и намалят разпространението на дълбоко фалшиви видеоклипове, вместо да ги премахват направо - освен ако не са порнографски.

Това може да доведе до сериозни щети на репутацията на жертвите, да не говорим за непрекъснато унижение и подигравки от страна на зрителите.

„Deepfakes са една от най-тревожните тенденции, на които съм била свидетел като конгресмен до момента“, каза конгресменът на САЩ Ивет Кларк в скорошна статия за Quartz .

„Ако американската общественост може да бъде накарана да повярва и да се довери на променени видеоклипове на кандидати за президент, нашата демокрация е в сериозна опасност.

„Трябва да работим заедно, за да спрем дълбоките фалшификати да се превърнат в определящата характеристика на изборите през 2020 г.“

Видео зарежданеВидео не е наличноКликнете, за да играете Докоснете, за да играете Видеото скоро ще се възпроизведе автоматично8ОтмянаИграй сега

Разбира се, не само демокрацията е застрашена, но и икономиката, правната система и дори самите индивиди.

Кларк предупреждава, че ако технологията за дълбоко фалшифициране продължи да се развива без проверка, видеодоказателството може да загуби своята достоверност по време на изпитанията.

Не е трудно да си представим, че се използва от недоволни бивши любовници, служители и случайни хора в интернет, за да си отмъстят и да развалят репутацията на хората.

Софтуерът за създаване на тези видеоклипове вече е широко достъпен.

Програми като FakeApp позволяват на потребителите да наслагват лицето на всеки върху тялото на всеки друг.

Междувременно технологичният гигант Samsung наскоро демонстрира алгоритъм, който може да създава фалшиви видеоклипове на хора въз основа на едно изображение на лицето им.

Компанията тества алгоритъма си върху неподвижни изображения на добре познати лица, включително Мерилин Монро, Алберт Айнщайн и Мона Лиза - със зловещо реалистични резултати.

AI на Samsung може да създава фалшиви видеоклипове на хора въз основа на едно изображение на лицето им (Изображение: Samsung)

Ранните опити за дълбоки фалшиви видеоклипове бяха сравнително лесни за забелязване - често защото не включваха нормалното количество мигане на очите на човек.

Въпреки това, последното поколение deepfakes се адаптира и технологията се подобри, което ги прави по-реалистични от всякога.

Сега изследователите се опитват да идентифицират манипулирането на видеоклипове, като разглеждат отблизо пикселите на конкретни кадри и откриват недостатъци, които не могат да бъдат лесно коригирани.

Компютърни учени от университета в Олбани са разработили алгоритъм за откриване на „артефакти“ на цифровата трансформация , дори когато хората не виждат разликите.

„Когато алгоритъмът за синтез на дълбоко фалшиво видео генерира нови изражения на лицето, новите изображения не винаги съвпадат с точното позициониране на главата на човека, или условията на осветление, или разстоянието до камерата“, каза Сиуей Лю , директор на лабораторията за компютърно зрение и машинно обучение към Университета на Олбани.

Когато компютър постави лицето на Никълъс Кейдж върху главата на Илон Мъск, може да не подреди лицето и главата правилно. (Изображение: Siwei Lyu)

„За да накарат фалшивите лица да се слеят с околната среда, те трябва да бъдат геометрично трансформирани – завъртени, преоразмерени или по друг начин изкривени. Този процес оставя цифрови артефакти в полученото изображение.'

Алгоритъмът на изследователите изчислява накъде сочи носът на човека в изображението. Той също така измерва накъде е насочена главата, изчислено с помощта на контура на лицето.

В истински видеоклип на главата на действителен човек всички те трябва да се подредят доста предвидимо. При дълбоките фалшификати обаче те често са неправилно подравнени.

Освен че откриват дълбоки фалшификати, изследователите проучват и начини да възпрепятстват създаването им.

Изкуствен интелект

Алгоритмите на Deepfake работят, като обработват хиляди онлайн снимки и видеоклипове и използват машинно обучение за откриване и извличане на лица.

Колкото по-висококачествени изображения на лица са в библиотеката, толкова по-убедително вероятно ще бъде полученото дълбоко фалшиво видео.

„Намерихме начин да добавим специално проектиран шум към цифровите снимки или видеоклипове, които не са видими за човешките очи, но могат да заблуждават алгоритмите за разпознаване на лица“, каза Лю.

„Той може да прикрие моделите на пикселите, които детекторите за лица използват, за да намерят лице, и създава примамки, които предполагат, че има лице, където няма такова, като в част от фона или квадрат от облеклото на човек.

Вляво лице се разпознава лесно в изображението преди обработка. В средата са добавени смущения, което кара алгоритъма да открива други лица, но не и истинското. Вдясно са промените, които са добавени към изображението, подобрени 30 пъти, за да бъдат видими. (Изображение: Siwei Lyu)

„С по-малко истински лица и повече нелицеви, които замърсяват данните за обучението, алгоритъмът за дълбоко фалшифициране ще бъде по-лош при генерирането на фалшиво лице.

„Това не само забавя процеса на създаване на дълбоко фалшифициране, но също така прави получения дълбоко фалшифициране по-неправилно и по-лесно за откриване.“

В бъдеще хората може да изберат да прилагат този „цифров шум“ към всички видеоклипове, които качват в социалните медии, което затруднява използването им в дълбоки фалшификати.

Въпреки това Лю признава, че науката за откриване на дълбоки фалшификати на практика е надпревара във въоръжаването.

„Файкерите ще стават по-добри в създаването на своите измислици и затова нашето изследване винаги трябва да се опитва да бъде в крак и дори да изпревари малко“, каза той.

Най-четени
Не пропускайте

Вижте Също: