Сьогодні

Создавать реалистичные подделки становится все проще. Для борьбы потребуется еще больше ИИ

Для вашингтонских инсайдеров видеть и слышать больше не значит верить, благодаря ряду недавних инцидентов, связанных с подделками, выдающими себя за высших должностных лиц администрации президента Дональда Трампа.

Цифровые подделки придут и в корпоративную Америку, поскольку преступные группировки и хакеры, связанные с противниками, включая Северную Корею, используют синтетическое видео и аудио, выдавая себя за руководителей компаний и низкопоставленных кандидатов на работу, чтобы получить доступ к критическим системам или коммерческим секретам.

Благодаря достижениям искусственного интеллекта создавать реалистичные подделки стало проще, чем когда-либо, что создает проблемы с безопасностью для правительств, компаний и частных лиц и делает доверие самой ценной валютой цифровой эпохи.

Для решения этой проблемы потребуются законы, повышение уровня цифровой грамотности и технические решения, позволяющие бороться с искусственным интеллектом с помощью большего количества искусственного интеллекта.

«Как люди, мы удивительно восприимчивы к обману», — говорит Виджай Баласубраманиян, генеральный директор и основатель технологической компании Pindrop Security.

Но он считает, что решение проблемы глубоких подделок может быть найдено: «Мы дадим отпор».

Президент Дональд Трамп и госсекретарь Марко Рубио слушают во время встречи с наследным принцем Бахрейна Салманом бин Хамадом Аль Халифой в Овальном кабинете Белого дома, среда, 16 июля 2025 года, в Вашингтоне.

Этим летом кто-то использовал искусственный интеллект для создания глубокой подделки госсекретаря Марко Рубио в попытке связаться с министрами иностранных дел, сенатором США и губернатором через текстовые сообщения, голосовую почту и приложение для обмена сообщениями Signal.

В мае кто-то выдал себя за главу администрации Трампа Сьюзи Уайлс.

Еще один фальшивый Рубио появился в глубоком фейке в начале этого года, заявив, что хочет перекрыть Украине доступ к интернет-сервису Starlink Элона Маска.

Позже правительство Украины опровергло это ложное заявление.

Последствия для национальной безопасности огромны: люди, которые думают, что общаются, например, с Рубио или Уайлсом, могут обсуждать секретную информацию о дипломатических переговорах или военной стратегии.

«Вы либо пытаетесь выведать секреты или информацию о конкурентах, либо хотите получить доступ к серверу электронной почты или другой важной информации в сети», — говорит Кинни Чан, генеральный директор компании QiD, специализирующейся на кибербезопасности, о возможных мотивах.

Обычные средства массовой информации также могут быть направлены на изменение поведения.

В прошлом году избиратели-демократы в Нью-Гэмпшире получили робозвонок, призывающий их не голосовать на предстоящих праймериз в штате.

Голос звонившего был подозрительно похож на голос тогдашнего президента Джо Байдена, но на самом деле он был создан с помощью искусственного интеллекта.

Способность обманывать делает глубокие подделки ИИ мощным оружием для иностранных враждебных игроков.

И Россия, и Китай используют дезинформацию и пропаганду, направленную на американцев, как способ подорвать доверие к демократическим союзам и институтам.

Стивен Крамер, политический консультант, признавшийся в рассылке фальшивых робозвонков Байдену, заявил, что хотел донести до американской политической системы опасность, которую представляют фальшивки.

В прошлом месяце Крамер был оправдан по обвинению в подавлении голосов избирателей и выдаче себя за кандидата.

«Я сделал то, что сделал, ради 500 долларов», — сказал Крамер.

«Представляете, что было бы, если бы китайское правительство решило сделать это?»

Мошенники нацелились на финансовую индустрию с помощью дипфейков ИИ

Благодаря большей доступности и изощренности программ эти подделки все чаще используются для корпоративного шпионажа и мошенничества.

«Финансовая индустрия находится прямо под прицелом», — говорит Дженнифер Юбэнк, бывший заместитель директора ЦРУ, занимавшийся вопросами кибербезопасности и цифровых угроз.

«Даже знакомых друг с другом людей убеждают переводить огромные суммы денег».

В контексте корпоративного шпионажа они могут использоваться для того, чтобы выдавать себя за руководителей компаний, требуя от сотрудников передать пароли или номера маршрутных листов.

Дипфейки также позволяют мошенникам подавать заявки на работу — и даже устраиваться на нее — под чужим или вымышленным именем.

Для некоторых это способ получить доступ к конфиденциальным сетям, украсть секреты или установить шпионское ПО.

Другие просто хотят получить работу и могут одновременно работать на нескольких похожих должностях в разных компаниях.

Власти США заявили, что тысячи северокорейцев с навыками работы с информационными технологиями были отправлены жить за границу, используя украденные личные данные, чтобы получить работу в технологических фирмах в США и других странах.

Работники получают доступ к сетям компаний, а также зарплату.

В некоторых случаях они устанавливают вредоносное ПО, которое впоследствии может быть использовано для вымогательства еще больших денег.

Эти схемы принесли правительству Северной Кореи миллиарды долларов.

Согласно исследованиям компании Adaptive Security, специализирующейся на кибербезопасности, в течение трех лет каждое четвертое заявление о приеме на работу будет поддельным.

«Мы вступили в эпоху, когда любой, у кого есть ноутбук и доступ к открытой модели, может убедительно выдать себя за реального человека», — сказал Брайан Лонг, генеральный директор Adaptive. «Речь больше не идет о взломе систем — речь идет о взломе доверия».

Эксперты используют ИИ для борьбы с ИИ

Исследователи, эксперты в области государственной политики и технологические компании в настоящее время изучают лучшие способы решения экономических, политических и социальных проблем, связанных с дипфейками.

Новые нормативные акты могут потребовать от технологических компаний приложить больше усилий для выявления, маркировки и потенциального удаления дипфейков на своих платформах. Законодатели также могут ввести более суровые наказания для тех, кто использует цифровые технологии для обмана других людей — если их удастся поймать.

Более значительные инвестиции в цифровую грамотность также могут повысить иммунитет людей к онлайн-обману, научив их способам выявления поддельных медиа и избегания мошенников.

Лучшим инструментом для поимки ИИ может быть другая программа ИИ, обученная выявлять мельчайшие недостатки в дипфейках, которые остались бы незамеченными для человека.

Системы, подобные Pindrop, анализируют миллионы точек данных в речи любого человека, чтобы быстро выявить несоответствия. Система может использоваться во время собеседований или других видеоконференций, чтобы обнаружить, использует ли человек программное обеспечение для клонирования голоса, например.

Подобные программы могут однажды стать обычным явлением, работая в фоновом режиме, когда люди общаются с коллегами и близкими в Интернете. Когда-нибудь дипфейки могут пойти по пути спама в электронной почте, технологической проблемы, которая когда-то угрожала подорвать полезность электронной почты, сказал Баласубраманиян, генеральный директор Pindrop.

«Можно принять пораженческую точку зрения и сказать, что мы будем подчиняться дезинформации, — сказал он. — Но этого не произойдет».

Джерело: apnews.com/article/artificial-intelligence-deepfake-trump-espionage-hack-scammers-da90ad1e5298a9ce50c997458d6aa610

Обсудить

Также по теме: