Бывало ли для вас встречать на улице человека, который один в один был бы похож на вас? Одежка, лицо, походка, манера общения, повадки на сто процентов схожи вашим. Как как будто вас отсканировали и распечатали на принтере. Звучит незначительно жутковато, не так ли? А сейчас представьте, что вы узрели видео, в каком таковой человек что-то ведает о для себя. В наилучшем случае вы постараетесь вспомянуть, когда гуляли так, что ничего не помнили, но могли наговорить такое на камеру. Пока все это звучит как обыкновенные рассуждения, но технологии уже впритирку приблизились к тому, чтоб создавать таковых людей. Они уже есть, но скоро их станет намного больше.
Откуда берется фейк?
На данный момент уже очень много всего, что принято именовать фейками. Они есть всюду. Их можно отыскать в фото, в новостях, в производстве продуктов и в информационных услугах. Проще сказать где нет явлений, сопровождаемых сиим словом. Пока с ними можно биться. Можно изучить происхождение фото, проверить отличительные черты фирменного продукта от подделки, а анонсы перепроверить. Хотя, анонсы являются отдельной темой.
В наше время пользователь контента не желает ожидать и просит от его создателя мгновенного производства, время от времени ему даже плевать на свойство, основное, чтоб стремительно. Отсюда и появляются ситуации, когда кто-то что-то произнес, а другие, не проверив, растащили это по своим веб-сайтам и газетам. В неких вариантах требуется много времени на раскрутку этого клубка назад и подтверждение того, что это все было неправдой.
Разъяснять, для что это все делается, смысла нет. С одной стороны стоят те, кто просто желает похохотать над ситуацией, с иной — те, кто вправду не знали, что они неправы. Отдельное пространство, приблизительно в центре, занимают те, кому это обыденно прибыльно. Это могут быть интересы воздействия на разном уровне, включая политический. Время от времени это бывает целью получения прибыли. К примеру, сеяние паники на фондовом рынке и проведение прибыльных операций с ценными бумагами. Но часто это бывает соединено с неприязнью к человеку (компании, продукту и т.д) с целью принизить его. Обычным примером является “опускание” в рейтингах неугодного кому-то кинофильма либо заведения. Естественно, для этого нужна армия тех, кто пойдет и поставит дизлайк (время от времени даже роботов), но это уже отдельная история.
Что такое Deep Learning?
В крайнее время этот термин звучит все почаще. Время от времени он даже не имеет дела к делу и его путают с кое-чем иным. Так программный продукт смотрится наиболее красиво.
Не стоит мыслить, что понятие и главные принципы машинного обучения возникли лишь несколько годов назад. По сути, им уже столько лет, что почти все из нас тогда даже не родились. Главные механизмы работы систем глубочайшего обучения и математические модели для их работы были известны еще в 80-е годы прошедшего века.
В то время они не имели такового смысла из-за отсутствия 1-го принципиального компонента. Им являлась высочайшая вычислительная мощность. Лишь посреди двухтысячных возникли системы, которые могут посодействовать работать в этом направлении и разрешают просчитывать всю нужную информацию. Сейчас машинки развились еще посильнее и некие системы машинного зрения, голосового восприятия и некие остальные работают так отлично, что даже иногда превосходят способности человека. Хотя, на ответственные направления их пока не “сажают”, делая их дополнением способностей человека с сохранением контроля над ними.
Что такое Deepfake? Когда возник Deepfake?
Нетрудно додуматься, что Deepfake это маленькая игра слов, сплетенная с Deep Learning и теми фейками, о которых я говорил выше. Другими словами, Deepfake должен вывести подделку на новейший уровень и разгрузить человека в этом нелегком деле, позволив создавать поддельный контент, не растрачивая на это силы.
Сначала, такие подделки касаются видео. Другими словами, хоть какой человек сумеет сесть перед камерой, сказать что-то, а его лицо будет заменено на другого человека. Смотрится жутковато, ведь, на самом деле, нужно будет просто поймать главные движения человека и отличить подделку будет просто нереально. Давайте разберемся, с что это все началось.
1-ая генеративно-состязательная нейросеть была сотворена студентом Стэнфордского института. Вышло это в 2014 году, а звали студента Ян Гудфеллоу. На самом деле, он столкнул меж собой две нейросети, одна из которых занималась генерацией лиц людей, а 2-ая анализировала их и гласила похоже либо нет. Так они учили друг дружку и в один красивый денек 2-ая нейросеть начала путаться и принимать сгенерированные изображения за настоящие. Конкретно таковая повсевременно усложняющаяся система и рождает Deepfake.
На данный момент одним из основных популяризаторов идеи Deepfake является Хао Ли (Hao Li). Он занимается не только лишь сиим, да и почти всем иным. За это он был не раз удостоен разных наград, в том числе, и внегласных. К слову, он один из тех, кому стоит сказать спасибо за возникновение в iPhone X анимодзи. Если любопытно, на его сайте можно ознакомиться с ним более подробно. Сейчас не он является главной темой обсуждения.
Вспомянули мы о нем лишь из-за того, что на глобальном экономическом форуме в Давосе он показал свое приложение, которое дозволит поменять лицо человека, сидячего перед камерой, на хоть какое другое лицо. А именно, он демонстрировал, как работает система на примере лиц Леонардо Дикаприо, Уилла Смита и остальных узнаваемых людей.
Смотрится это незначительно жутковато. С одной стороны, можно лишь восхититься современными технологиями, которые разрешают исследовать лицо, на ходу поменять его на другое и выдавать новейшую картину. На все это тратятся толики секунды и система даже не тормозит. Другими словами, это дозволяет не попросту обработать готовое видео и поменять лицо, да и участвовать такому персонажу в каком-нибудь живом общении по видеосвязи.
Опасность Deepfake. Как поменять лицо на видео?
Можно сколько угодно гласить о том, что таковая разработка нужна, это весьма круто и не нужно наговаривать. Можно даже дойти до крайности и начать гласить о том, что это позиция свирепого олдфага, который просто опасается всего новейшего, но здесь вправду угроз больше, чем полезности.
С таковой технологией, в особенности, если она будет с открытым кодом, хоть какой желающий сумеет сеcть и записать хоть какое видео. Половина беды, если оно просто будет порочащим чью-то честь и достоинство, еще ужаснее, если это будет заявление, изготовленное от имени принципиального человека. К примеру, записав ролик длиной всего 30-40 секунд от имени Тима Кука, можно обрушить чуток ли не всю IT-сферу США (Соединённые Штаты Америки – государство в Северной Америке) во главе с Apple. Фондовый рынок получит таковой мощный удар, что это посеет панику посреди инвесторов. В итоге тыщи людей растеряют в сумме млрд баксов.
Тот, кто не любит таковой метод заработка, произнесет, что так им и нужно, пусть идут на завод. Но при самом грустном сценарии и завода не будет опосля такового. Не считая того, обыденно мы получаем человека, который обманом наварится на колебаниях цены ценных бумаг. Довольно просто впору их приобрести и реализовать.
Ситуация быть может и ужаснее, если “шутник” выскажется от лица фаворита большого страны. Естественно, позже все вскроется, но за этот период времени можно натворить много противных дел. На фоне этого, просто подставить лицо знаменитости заместо актера в кинофильме для взрослых будет невинной шалостью.
Можно представить и оборотную ситуацию, когда настоящий человек что-то произнесет, а позже будет всех уверять, что его подставили. Как быть в данной для нас ситуации тоже не весьма понятно. Это занесет такую смуту в ленты новостей, что перепроверить это в другом источнике просто не получится. В итоге станет совершенно неясно, что в этом мире правда, а что ересь. Вырисовывается картина из кинофильмов о сумрачном будущем, вроде Суррогатов либо Терминатора, где Т-1000 представлялся иными людьми и, в том числе, звонил Джону Конору от имени его приемной мамы.
На данный момент я даже не говорю о еще одном злоупотреблении, которое дозволит собирать неверные улики. На фоне этого вся забавность игрушки становится очень непонятной.
Как выявить Deepfake?
Неувязка даже не в том, что такие системы нужно запретить, а в том, что это уже нереально. Они уже есть и развитие технологий, в том числе, и считывания лиц привело к их возникновению и распространению открытого кода. Даже если представить, что система в сегодняшнем виде не станет существовать, нужно осознавать, что ее создадут поновой. Просто снова обучат нейросети работать меж собой и все.
Пока не все так жутко, и найти подделку можно практически невооруженным глазом. Картина похожа, но она довольно грубая. Не считая этого, она время от времени имеет некие препядствия с совмещением, в особенности по границам лица. Но ничего не стоит на месте и развить ее еще более совершенно легко. Этот же Хао Ли уверен, что на это будет нужно не больше нескольких месяцев, а для сотворения “масок”, которые не отличит даже комп, нужно еще пару лет. Опосля этого пути вспять уже не будет.
С одной стороны, от этого сумеет защитить метод, который уже делают YouTube и Facebook. К слову, крайние даже открыли конкурс на разработку технологии определения — Deepfake Detection Challenge («Задачка по выявлению дипфейков»). Призовой фонд этого конкурса составляет 10 миллионов баксов. Конкурс уже идет и закончится в марте 2020 года. Еще можно успеть поучаствовать.
Может быть, таковая щедрость обоснована фейковым видео с самим Марком Цукербергом. Если эти две вещи соединены, возникновение такового конкурса логично.
Если замененное лицо будет на сто процентов соответствовать оригиналу, противосила в лице специальной нейросети будет бессильна. В этом случае ей придется ловить малые отличия в мимике, движениях и манере гласить. В случае с известными людьми таковая неувязка будет решена на уровне видеосервиса, потому что этот же YouTube понимает, как двигается условный Дональд Трамп. Когда дело дойдет до наименее известного человека, это будет труднее. Хотя, это тоже можно будет обосновать, посадив его перед камерой и ведя непосредственную беседу, пока нейросеть анализирует его движения. Получится что-то вроде исследования отпечатка пальца, но, как лицезреем, это снова приведет к лишним сложностям.
Если вшить системы определения подлинности видео в камеры, их тоже можно будет обойти. Можно создать так, чтоб камера маркировала снятое видео и было понятно, что оно не снято через отдельное приложение либо не обработано в специальной программке. Но как в этом случае быть с видео, которые просто были обработаны. К примеру, смонтированное интервью. На выходе мы получим видео, в каком уже не будет того начального ключа.
Сценарий темного грядущего
Можно ли сказать, что мы на данный момент накидали один из сценариев темного грядущего? В целом да. Если технологии, которые были сделаны для заслуги не плохих целей, выйдут из под контроля, с ними можно хлебнуть горя. Фактически, вариантов таковых небезопасных технологий много, но бОльшая часть из их находится под защитой. К примеру, ядерный синтез. Здесь мы имеем дело с кодом, который может получить любой.
Напишите в комментах, какой вы видите защиту от подделок, если учитывать, что система наложения масок смогла создать маски на сто процентов схожими необычным лицам. А из-за того, что они на видео, к ним недозволено даже применить определение глубины и размера. Не считая этого, допустим, что хоть какой код и зашитый в изображение ключ можно взломать. Как говорится, было бы ради что. Сейчас можно дискуссировать, все вводные есть.