Вот это поворот: технология Deepfake как инструмент кибербезопасности.
Слово deepfake ассоциируется с мошенничеством и дезинформацией. Например, использование внешности или голосов известных людей без их ведома.
Правильные промты, хорошо обученный ИИ, работа в видеоредакторе… И вот уже в рекламном клипе стреляет глазками в поклонниц двойник Леонардо ди Каприо, а не студент местного театрального. А весь интернет горячо спорит, настоящий ли он, пересылая видео. Мечта маркетолога!
Но технологию deepfake можно использовать не только для обмана в сети, но и для борьбы с ним.
Улучшение систем аутентификации
В 2021 году американские исследователи провели эксперимент. Они использовали два публично доступных алгоритма синтеза речи и проверили фейки на добровольцах. Выяснилось, что в половине случаев люди не сумели различить настоящий голос от поддельного. Удалось обмануть не только людей, но и сервисы, причем Amazon Alexa — в 100% случаев.
В связи с широким распространением голосовых ассистентов, проблема аутентификации по биометрии становится все актуальнее. Для ее решения требуется разработка более сложных и надежных систем проверки личности, которые могут отличать подлинный контент от поддельного.
Уже сейчас голосовые помощники умеют отвечать на нежелательные звонки вместо абонента. Правда, не всегда удачно.
Тестирование и эксперименты
Deepfake может быть использован для создания реалистичных сценариев для обучения специалистов и систем безопасности. Например, можно создать фейковые записи голосов и тренировать алгоритмы распознавать их от настоящих.
Еще технологию можно использовать для моделирования и анализа поведения людей при кибератаках, без реального риска для данных. Например, можно синтезировать голоса родственников, якобы попавших в беду, чтобы проверить стрессоустойчивость своего сотрудника. Но здесь уже встает вопрос об этичности таких проверок.
Потенциал deepfake как инструмента кибербезопасности довольно высок, но пока исследований в этой области мало. А как вы считаете, может ли эта технология стать новым инструментом защиты в нашем арсенале?
Интересуетесь сферой кибербезопасности? Подпишитесь на нашу рассылку: https://vk.cc/csrAo0
Слово deepfake ассоциируется с мошенничеством и дезинформацией. Например, использование внешности или голосов известных людей без их ведома.
Правильные промты, хорошо обученный ИИ, работа в видеоредакторе… И вот уже в рекламном клипе стреляет глазками в поклонниц двойник Леонардо ди Каприо, а не студент местного театрального. А весь интернет горячо спорит, настоящий ли он, пересылая видео. Мечта маркетолога!
Но технологию deepfake можно использовать не только для обмана в сети, но и для борьбы с ним.
Улучшение систем аутентификации
В 2021 году американские исследователи провели эксперимент. Они использовали два публично доступных алгоритма синтеза речи и проверили фейки на добровольцах. Выяснилось, что в половине случаев люди не сумели различить настоящий голос от поддельного. Удалось обмануть не только людей, но и сервисы, причем Amazon Alexa — в 100% случаев.
В связи с широким распространением голосовых ассистентов, проблема аутентификации по биометрии становится все актуальнее. Для ее решения требуется разработка более сложных и надежных систем проверки личности, которые могут отличать подлинный контент от поддельного.
Уже сейчас голосовые помощники умеют отвечать на нежелательные звонки вместо абонента. Правда, не всегда удачно.
Тестирование и эксперименты
Deepfake может быть использован для создания реалистичных сценариев для обучения специалистов и систем безопасности. Например, можно создать фейковые записи голосов и тренировать алгоритмы распознавать их от настоящих.
Еще технологию можно использовать для моделирования и анализа поведения людей при кибератаках, без реального риска для данных. Например, можно синтезировать голоса родственников, якобы попавших в беду, чтобы проверить стрессоустойчивость своего сотрудника. Но здесь уже встает вопрос об этичности таких проверок.
Потенциал deepfake как инструмента кибербезопасности довольно высок, но пока исследований в этой области мало. А как вы считаете, может ли эта технология стать новым инструментом защиты в нашем арсенале?
Интересуетесь сферой кибербезопасности? Подпишитесь на нашу рассылку: https://vk.cc/csrAo0