Цифровое клонирование
Цифровое клонирование (англ. digital cloning) — развивающаяся технология, основанная на алгоритмах глубокого обучения, позволяющая манипулировать уже существующими аудиозаписями, фотографиями и видеороликами с высокой степенью реалистичности[1]. Одним из последствий такого рода технологий является усложнение различения подлинных и поддельных медиафайлов для человеческого глаза[2]. Распространение цифрового клонирования в публичном доступе приносит как новые выгоды, так и потенциальные юридические и этические проблемы.
Цифровое клонирование подразделяется на аудиовизуальное (AV), клонирование памяти, клонирование личности и клонирование потребительского поведения[3]. В аудиовизуальном клонировании создаётся цифровая копия оригинала — цифрового или недигитального, например, для подделки изображения или создания аватара, видео или аудиозаписи человека практически неотличимых от «оригинала». Клон памяти и личности (например, mindclone) — это цифровая копия разума человека. Клон поведения потребителя представляет собой профиль или группу клиентов на основе демографических данных.
Термин «цифровой клон мышления» (англ. digital thought clone) был предложен Труби и Брауном для наиболее продвинутой персонализированной цифровой копии — «реплики всех известных данных и поведения конкретного живого человека, записывающей в реальном времени его выбор, предпочтения и модель принятия решений»[3].
Цифровое клонирование впервые приобрело популярность в индустрии развлечений: идея цифровых клонов возникла с появлением виртуальных актёров для замены умерших исполнителей. Для завершения производства фильма цифровой двойник актёра синтезируется на базе отснятых кадров, фотографий и записей голоса[4].
Современный искусственный интеллект позволил создавать дипфейки — видеоролики, в которых человеку приписываются слова и действия, которых он не совершал[5]. В апреле 2018 года портал BuzzFeed опубликовал дипфейк-видео с Джорданом Пилом, показывающее Барака Обаму, произносящего не сделанные им ранее заявления, чтобы продемонстрировать опасности дипфейков[6].
Появление таких сервисов, как Intellitar, позволяет частным лицам создать собственный цифровой клон на основе серии изображений и аудиозаписей — это технология так называемого цифрового бессмертия, дающая возможность «общения» с умершими родными или историческими персонажами в образовательных целях[7].
С развитием подобных технологий возрастают риски кражи личности, утечки данных и другие этические опасения. Законодательная база для защиты потенциальных жертв цифрового клонирования пока практически отсутствует.
Технологии
Платформа интеллектуальных аватаров (англ. Intelligent Avatar Platform, IAP) — это онлайн-платформа на основе искусственного интеллекта, позволяющая пользователю создать своего цифрового клона[7]. Для обучения клона пользователь предоставляет многочисленные аудиозаписи и видеоролики своего голоса и поведения[8]. Такие платформы позиционируются как способ для «виртуального бессмертия» и создания цифрового семейного древа[7].
Примерами платформы интеллектуальных аватаров являются Intellitar и Eterni.me. Компании предлагают различные сценарии создания — от бесплатных (выбор аватара из набора готовых образов) до премиальных, где пользователь загружает собственные фотографии, видео и голос[9]. Чтобы сделать клон максимально похожим на оригинал, компания поощряет взаимодействие пользователя со своим клоном — переписку, ответы на вопросы, обучая алгоритм когнитивным особенностям личности. Проект Intellitar был закрыт в 2012 году из-за юридических споров по интеллектуальной собственности[10].
К рискам относятся утечки данных, недостаточная проработка вопросов согласия и приватности умерших. Существенно важно обеспечить ответственное хранение персональных данных для защиты информации умерших[8].
Дипфейк — это разновидность видео- или аудиоманипуляции, когда на основе серии изображений и записей создаются поддельные видео и голосовые сообщения. В 2018 году вышло приложение FakeApp, популяризировавшее технологию среди широкой публики: оно использовалось, в частности, для создания ролика BuzzFeed с Бараком Обамой[6]. Дипфейки позволяют значительно снижать затраты на съёмки рекламы и фильмов, используя минимальный объём оригинального материала[11].
Однако такая доступность создаёт риск злоупотреблений: создание поддельных компрометирующих роликов, манипуляция публичными образами и вмешательство в частную жизнь[12].
Клонирование голоса — это один из случаев генерации аудиодипфейков с помощью искусственного интеллекта, где нейросеть по аудиозаписям конкретного человека обучается синтезировать новые реплики с реалистичным тембром и интонацией[13]. Обычно используются графические процессоры (GPU) и облачные технологии из-за высокой вычислительной нагрузки.
Для обучения требуется исходная аудиобаза с голосом — из неё формируется голосовая модель, способная воспроизводить любые введённые тексты (преобразование текста в речь) или транслировать голос другого человека (Speech-to-speech).
Технология вызывает опасения в связи с её влиянием на политические и правовые процессы: появились случаи телефонных мошенничеств[14][15] и фейковых роликов в соцсетях с действиями, которых человек никогда не совершал[16].
Борьба с угрозами возможна двумя путями: развитием инструментов обнаружения манипуляций и внедрением неустранимых водяных знаков для маркировки медиафайлов[17][18][19]. Также рассматривается технология внесения в невидимый слой файла сведений о происхождении и моделировании содержимого.
Примером массового некоммерческого применения служит проект 15.ai — бесплатное веб-приложение для синтеза голоса известных персонажей на основе текста[20]. Несмотря на похвалы за простоту и эффективность[21][22][23], проект критикуется с правовых и этических позиций[24][25][26].
Технология активно развивается благодаря инвестициям крупных компаний (например, Google, Amazon).
Положительное применение — автоматизированная озвучка аудиокниг[27], перевод подкастов на разные языки с сохранением голоса ведущего[28], а также восстановление голоса для людей, утративших его из-за болезни[29].
Использование голосовых клонов также подвергается злоупотреблениям — например, клонированием голоса знаменитостей с целью провокационных заявлений[30].
Об опасности злоупотреблений предупреждают государственные и научные органы, такие как Федеральная торговая комиссия США, Министерство юстиции США и Управление перспективных исследовательских проектов Минобороны США (DARPA), а также Министерство образования, университетов и исследований Италии[31][32][33].
Конструктивные применения
Цифровое клонирование может использоваться для создания захватывающего образовательного опыта: например, в виде «оживших» исторических личностей (к примеру, Авраам Линкольн), моделирования жизненных ситуаций, а также для дистанционного выступления спикеров и представителей различных организаций[11].
В кино и искусстве цифровое клонирование расширяет возможности для создания компьютерных актёров и массовки, удешевляя производство и позволяя работать с образом умерших актёров. Также художники могут использовать цифровые аватары для экспериментов и планирования произведения[11].
Актёр Вэл Килмер, потерявший голос в 2014 году из-за трихеотомии при лечении рака горла, смог вновь исполнить роль в фильме «Лучший стрелок: Мэверик» (2022) благодаря синтетическому голосу на базе ИИ[34].
За счёт цифрового клонирования возникает новая форма цифрового бессмертия: можно сохранить не только визуальный, но и поведенческий, психологический образ человека для последующего взаимодействия поколений, формируя цифровую «семейную летопись»[7].
Проблемы и ограничения
Недостаток регулирования дипфейков усиливает опасность поддельных видео — политических, криминальных, компрометирующих, способных послужить причиной общественной дезинформации и даже дестабилизации[35]. Смешение дипфейков и фейковых новостей создаёт новый уровень ложной информации, чрезвычайно трудноотличимой для массового зрителя[11]. Для социальных сетей и новостных ресурсов актуальна задача саморегулирования и выработки чётких политик публикации[36].
Распространение дипфейков позволяет вымогателям и злоумышленникам создавать весьма убедительные ложные видео и звонки от имени жертв, используя голосовые клоны, с целью получения выгоды[11]. Использование дипфейков часто наносит психологический и эмоциональный ущерб, сложный для правового преследования ввиду отсутствия коммерческого вреда[5]. Также возможны случаи шантажа.
Проблемы этики цифрового клонирования включают кражу личности, трудность выявления подделки и угрозу приватности — ведь алгоритмы работают тем лучше, чем больше персональных данных им предоставлено[37]. Не исключены нарушения приватности умерших — когда родственники создают клон без согласия покойного[38].
Законы США в области цифрового клонирования
В США авторское право требует определённого уровня оригинальности и творческого вклада, чтобы охранять результат. При создании цифрового клона используются данные реального человека, однако сам процесс часто лишён оригинального творчества, что делает статус таких клонированных образов спорным[39]. В решении Верховного суда по делу Feist Publications Inc. v. Rural Television Services Company, Inc. подчёркнута важность оригинальности, однако критерии для цифровых клонов размыты. В деле Meshwerks v. Toyota суд признал применимость аналогичных с фотографией норм и для цифровых моделей[39].
В отсутствие специальных норм наиболее эффективной защитой может стать право на публичность, предоставляющее индивиду возможность контролировать использование своего образа и голоса в коммерческих целях[4]. В случае появления дипфейка без согласия правообладателя это право позволяет обратиться в суд. Реализация этого права зависит от законодательства конкретного штата, а современные дискуссии о расширении его действия идут в сторону защиты интересов любого гражданина[40].
Предотвращение злоупотреблений
Цифровое клонирование и клоны мышления вызывают вопросы приватности, согласия, авторского права и антидискриминации. Всё больше юрисдикций должно срочно принять законы, подобные Общему регламенту защиты данных ЕС, чтобы защитить население от недобросовестного использования данных[3].
Одним из решений является создание ИИ для выявления манипуляций; уже существуют алгоритмы, анализирующие структуру изображения для обнаружения признаков подделки[41][42].
Развитие ИИ влечёт за собой необходимость пересмотра политики в областях медицины, образования, политики и экономики. Требуется внедрение жёстких нормативных актов для недопущения злоупотреблений частными компаниями, а прошлые утечки данных служат предостережением для будущих действий.
Просвещение пользователей о плюсах и минусах цифрового клонирования помогает повысить осмотрительность и осознанность при оценке медиаконтента[43]. Повышение цифровой грамотности делает возможным самостоятельное выявление подделок и защиту персональных данных.