Нейросеть, «подрисовывающая» лица в порноролике, стала очень популярна, но столкнулась с мерами от Твиттера и Pornhub.
В декабре 2017 года в сети появились поддельные порноролики с Галь Гадот, Эммой Уотсон и Мейси Уильямс, созданные с помощью нейросети deepfakes. За несколько месяцев количество подобных видео резко увеличилось благодаря простому приложению FakeApp, которое установили более 100 тысяч человек. Появились и примеры использования технологии, не связанные с порно.
О нейросети заговорили в обществе и СМИ, критикуя пользователей приложения за «подрисовку» лиц знаменитостей в порнороликах. К началу февраля подобные работы стали активно удалять крупные сервисы вроде Твиттера, Discord, Imgur и Pornhub. А владельцы FakeApp задумались, не закроют ли главную площадку для творчества — раздел на Reddit.
Война за ролики
К моменту написания материала на раздел r/deepfakes, где публикуются ролики и происходят основные обсуждения, подписались более 90 тысяч человек. Ещё в середине января количество подписчиков не превышало 10 тысяч человек. Из-за такой популярности на порноролики со знаменитостями обратили внимание сервисы, куда эти видео загружаются.
27 января мессенджер Discord заблокировал сообщество, участники которого обсуждали работу FakeApp: они делились советами, обменивались «моделями» для подставления лиц и помогали новичкам освоить приложение. Следом основная платформа для пользователей deepfakes и хостинг гифок Gfycat начал удалять со своего сайта все работы, созданные нейросетью, включая «приличные». Представители компании объяснили, что считают подобный контент «неприемлимым».Gfycat был основной платформой для пользователей deepfakes.
Участники раздела перешли на Imgur, но там тоже начали удалять FakeApp-гифки. После этого видео стали появляться на Pornhub: пользователи предположили, что оттуда откровенные ролики точно не пропадут. Однако сервис приравнял их к «порномести»: публикации порновидео без согласия второго участника с целью навредить ему. На Reddit заметили, что странно слышать подобные объяснения от сайта, где есть «слитые» видео секса с Ким Кардашьян. Несмотря на заявление Pornhub, на их сайте всё ещё можно найти видео, созданные сообществом deepfakes.
Также удалять результаты работы FakeApp стал Twitter, при этом в сервисе микроблогов можно публиковать «взрослый» контент с соответствующей пометкой. По словам представителей компании, порнофейки нарушают правила сервиса, запрещающие публиковать интимные видео без согласия всех героев.
Журналистка Саманта Коул, которая уже несколько месяцев пишет о развитии нейросети, заявила, что обратилась за комментарием в Reddit ещё в середине января. Но администрация форума так и не ответила, что собирается делать с разделом и порнофейками. По данным Би-би-си, сейчас в Reddit «рассматривают варианты» последующих действий.
Торговля видео с «пересадкой» лиц
26 января пользователь под ником DeepFake (созвучно с ником создателя нейросети deepfakes) в одной из записей на Reddit объявил, что готов делать порноролики с помощью FakeApp на заказ. Для этого клиенты должны отправить ему не менее двух минут видео с лицом-«источником», но порноактрису DeepFake выберет сам. Пользователь запросил награду в биткоинах.
Начало торговли роликами, сделанных нейросетью, затронуло опасения многих западных СМИ: а что, если на Reddit начнут делать порновидео не только со знаменитостями, но и со знакомыми в реальной жизни? DeepFake не поставил никаких ограничений по «источнику»: только то, что человеку, чьё лицо попадёт в ролик, должно быть только 18 лет.
Заместитель директора по технологической политике адвокатской компании R Streer Чарльз Дуан (Charles Duan) заметил, что подобное развитие технологии может привести к юридическим последствиям.
Думаю, эти видео являются незаконными независимо от того, сделаны они за деньги или нет. Но важно, что коммерческая торговля ими создаёт точку отчёта для отслеживания и прекращения всей этой деятельности. Легко быть анонимным в интернете, но это намного сложнее, если ты хочешь зарабатывать там деньги.
Чарльз Дуан
заместитель директора по технологической политике R Streer
Предложения по созданию FakeApp-роликов на заказ появились на отдельном сабреддите r/deepfakeservice, на который подписаны около 200 человек. Пользователи основного раздела раскритиковали подобные услуги, заявив, что так их технологию подставляют под удар.
Окей, послушайте, дебилы. Перестаньте покупать или продавать видео. Мы установили эти правила с самого создания раздела. Прекратите или уходите куда-нибудь, забрав с собой всех желающих. Сделайте свою нейросеть.
Ответ сообщества
Критика со стороны общественности и СМИ сильно повлияла на сообщество r/deepfakes, которое не было готово к подобному вниманию. Некоторые пользователи замечали, что их хобби стало напоминать типичный сюжет из сериала «Чёрное зеркало». Другой комментатор сравнил FakeApp с эпизодом из «Бегущего по лезвию 2049», когда ИИ-голограма синхронизировалась с реальным человеком, чтобы заняться сексом.
В разделе появились новые правила, чтобы регулировать возросшее число пользователей. Теперь отдельно прописано, что в порнороликах нельзя использовать лица, которые принадлежат не знаменитостям или несовершеннолетним. Также появился список сервисов, на которые нельзя загружать видео и гифки.
Одной из самых популярных записей раздела за всё время стало «обращение к противникам deepfakes». В неё пользователь Gravity_Horse от лица сообщества заявил: «Мы в курсе, что наше увлечение нельзя назвать полезным или благородным. Это унизительно и вульгарно по отношению к женщинам, которых используют для создания порнофейков». Но, по его словам, это не значит, что сообщество делает ролики из злого умысла. Наоборот: они считают, что тем самым развивают экспериментальную технологию, используя самые доступные методы.
Это очень новая технология. А всё новое пугает людей. Сильно. Но хоть нейросеть и превосходит тот же Photoshop, но принцип тот же. И результат тот же: изменённые изображения.
из заявления на Reddit
Пользователь подчеркнул, что результат работы FakeApp сложно использовать в качестве «порномести», потому что в роликах можно легко найти артефакты, а в крайнем случае — провести специальную проверку. «Никогда не видел "порноместь", сделанную с помощью Photoshop, которую бы воспринимали всерьёз», — заключил он.
Развитие «приличных» видео
В конце января появился призыв разделить deepfakes на несколько разделов на случай, если Reddit закроет основной сабреддит из-за порнороликов. Пользователи предложили оставить основное сообщество для обсуждения самой нейросети и её перспектив, а откровенные видео коллекционировать в другом месте. Идею поддержали другие участники форума, решив, что так они смогут создать «позитивный образ» технологии, которая прочно ассоциируется с порно.
Так на форуме появился раздел r/SFWDeepFakes, посвящённый исключительно «приличным» видео. Его администратором стал пользователь под ником Peter_File, поддерживавший флешмоб с «пересадкой» лица Николаса Кейджа в различные фильмы и ролики.
Одним из самых активных участников нового сообщества стал derpfakes, который уже «улучшал» компьютерную графику в фильме «Изгой Один» (позже видео удалили с Gfycat). Его идею по исправлению плохих спецэффектов в фильмах подхватили другие пользователи.
Например, они убрали усы у актёра Генри Кэвилла, игравшего Супермена. Из-за масштабных досъёмок «Лиги справедливости» актёру пришлось играть супергероя с усами, потому что он был задействован ещё и в съёмках фильма «Миссия невыполнима». Усы в итоге так плохо «затёрли», что они стали мемом. Однако на Reddit «улучшили» ситуацию с помощью FakeApp.
Другой участник r/SFWDeepFakes Свен Чарлир (Sven Charleer) объяснил изданию Boing Boing, что использует нейросеть «ради благих целей». Например, подставил лицо жены в вечернее шоу, чтобы она хотя бы так смогла побывать в одной студии со своим любимым актёром Стивом Каррелом. По его словам, у технологии есть коммерческий потенциал, но он не связан с продажей порнороликов: с помощью «подрисовывания» можно создавать и сервисы, которые помогают подобрать одежду к лицу.
Полагаю, бороться с этим бесполезно. Алгоритмы будут совершенствоваться, а методы распространения какие-нибудь да найдутся. На мой взгляд, обществу нужно меняться. Если на любого человека можно будет сделать кучу качественных порнороликов без признаков подделки, то все просто перестанут обращать внимание на порноместь. Мы же привыкли к фотоаппаратам и уже давно не считаем (большинство, по крайней мере), что фотографирование отнимает у человека душу.
Специалисты по запрету онанизма похоже боятся потерять работу. И вдруг люди начнут использовать эту же технологию для видеозвонков? Как тогда касте господ отследить всю праздно шатающуюся челядь? Удои с кредиторабов от такого понизятся - к гадалке не ходи.
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете голосовать в опросах