Как использовать технологию блокчейна и искусственный интеллект в борьбе с дипфейком

0
178
deepfake, blockchain, technologies

Довольно новым явлением, проникшим в век информации, является удар по целостности. С ростом фишинга и других мошеннических действий, наряду с распространением фальшивых новостей на социальных платформах, таких как Facebook и WhatsApp, становится все труднее отделить подлинную информацию от скомпрометированной.

К счастью, однако, люди начинают опасаться подозрительных вложений электронной почты и стараются избегать открытия подобных писем. Однако внедрение ИИ, в частности дипфейк, в целях кибербезопасности – довольно радикальное решение.

В попытке продемонстрировать опасное влияние, которое может оказать программное обеспечение ИИ, в частности дипфейк, давайте рассмотрим две отдельные ситуации. В первой ситуации вы получаете фишинговое письмо от коллеги с просьбой о деньгах, в то время как во второй ситуации вы получаете телефонный звонок, очевидно, от того же сотрудника, с просьбой о наличных деньгах. Любой человек в этой ситуации с гораздо большей вероятностью попадется на второй сценарий и будет обманут в процессе.

Чтобы понять ужасные последствия дипфейка, которые до сих пор использовались только для изображения политиков в комедийном контексте, давайте кратко изложим, что такое технология дипфейка.

bitcoin technology, blockchain, cryptocurrency

Что же такое дипфейк?

Возможно, истинный характер влияния, которое оказал дипфейк на видео можно выразить в убеждении экспертов о том, что наступающая эра видеотрансляций будет включать в себя очень реалистичный элемент дипфейка с бесконечной комбинацией наложенных аудио, видео и изображений.

Рассмотрение вопроса сопутствующего риск, знание того, что такое дипфейк, имеет первостепенное значение. В отличие от CGI (изображения, сгенерированные компьютером), к которому мы так привыкли (спасибо, Голливуд), дипфейк применяет генеративно-состязательные сети (сокращенно GAN), в которых две модели машинного обучения работают одновременно, создавая убедительные подделки.

Как правило, чем больший объем имеющихсяданных, тем более убедительным является видео дипфейка. Вот почему политики и знаменитости были самыми распространенными целями первого поколения дипфейка, уже есть огромное количество доступного о них видеоматериала.

Как только вы обойдете кривую обучения, возможности подделок станут бесконечны. Вы можете подшутить над Дональдом Трампом или заставить Николаса Кейджа играть роли, которые он никогда не играл раньше. Однако в отдельных случаях такой дипфейк может привести к опасным последствиям.

Какие угрозы представляет дипфейк?

Даже само существование этой техники достаточно, чтобы вызвать серьезные опасения у политиков и знаменитостей, или любого человека, обеспокоенного кибербезопасностью. На карту поставлена не только целостность всего, что мы видим в интернете, дипфейк рисует ужасную картину будущего как не что иное, как оруэлловский кошмар.
Как выразился Марко Рубио, пару л
ет назад вам нужно было надлежащее оружие и инструменты, чтобы угрожать США, теперь любой, у кого есть доступ к интернету и глубоко укоренившаяся пропаганда, может создать поддельное видео, полное ненависти, которое может свергнуть правительство почти любой страны, включая такие сверхдержавы, как США.

Возможно, еще более тревожным является порнографический контент с использованием технологии дипфейка.

Было также несколько случаев, когда женщины-активисты и политики были унижены с помощью технологии дипфейка в качестве непристойного инструмента против них самих.
Хотя дипфейк представляет угрозу для хрупкой системы демократии, которую мы построили,, и еще более страшная угроза заключается в ее применении к порноиндустрии, особенно в отсутствии контроля, который правительственные учреждения могут осуществлять над распространением этих видео — видео, которые могут нанести непоправимый ущерб репутации человека.

Что можно сделать для борьбы с угрозой, исходящей от дипфейка?

Когда дело доходит до борьбы с дипфейком, лучшие решения, как правило, те, которые учат людей обнаруживать видео и изображения из достоверных данных.
Организации и предприятия могут играть ключевую роль в борьбе с дипфейком, только путем повышения осведомленности своих сотрудников об опасностях, которые представляет технология дипфейка. Кроме того, вторичный уровень защиты также может быть развернут в виде усиленного процесса аутентификации. Обычно эти процессы включают двухфакторную аутентификацию, генераторы одноразовых паролей и другие альтернативы паролей.

Третичный уровень защиты приходит в виде организаций, инвестирующих в создание встречного программного обеспечения, которое помогает обнаруживать и бороться с дипфейком. Тем не менее, любое программное обеспечение на этом уровне требует огромного количества времени для разработки, поэтому организации должны уделять приоритетное внимание осведомленности.

Как могут помочь блокчейн и ИИ?

Принимая во внимание тот факт, что дипфейк очень напоминает современный «век информации», в котором мы живем сегодня, специалисты по кибербезопасности и организации должны придумать современные решения для возможных опасностей.

В настоящее время сфера кибербезопасности процветает с использованием ИИ и блокчейна, и обе эти технологии могут помочь нейтрализовать угрозу дипфейка.

Что касается технологии блокчейна, то она может играть жизненно важную роль в аутентификации цифровых удостоверений, особенно когда речь идет о доступе к конфиденциальной информации, такой как финансовые данные или номера социального страхования.

bitcoin technology, blockchain, cryptocurrency

Кроме того, аутентификация подозрительных видео и аудио файлов может быть выполнена с помощью блокчейна, где файлы можно сравнить с их оригинальными аналогами. По сути, технология блокчейна может быть тем самым инструментом, который отделяет пшеницу от плевел, то есть подделки от правды.
Когда дело доходит до использования искусственного интеллекта в борьбе с технологией дипфейка, алгоритмы машинного обучения могут играть жизненно важную роль в распознавании шаблонов в больших объемах данных с помощью специальных методов классификации.

Ученый-исследователь Александр Адам говорит, что машинное обучение может играть особенно важную роль в обнаружении поддельных аудиофайлов из подлинных файлов.

Заключение

В конце статьи мы можем только призвать наших читателей оставаться в курсе текущих событий в ИИ и дипфейка. Хотя мир может показаться склонным идти на пути к будущему, где вторжение в частную жизнь является социальной нормой, осторожность в отношении ужасающих технологий, таких как дипфейк, является первым шагом на долгом пути к достижению кибербезопасности.

Децентрализованная криптобиржа

Добавить комментарий

Please enter your comment!
Please enter your name here