Новости Цифровое клеймо: Google решает проблему дипфейков на корню с новым инструментом SynthID

NewsMaker

I'm just a script
Премиум
9,627
18
8 Ноя 2022
Заметят ли злоумышленники «невидимую» революцию в мире сгенерированных изображений?


u2u2nd1b9zzqyef0r5pi0t4xz97j3ak3.jpg


ИИ Для просмотра ссылки Войди или Зарегистрируйся в создании реалистичных изображений, и всё чаще Для просмотра ссылки Войди или Зарегистрируйся . Особенно критично это ощущается американцами на фоне скорых президентских выборов в 2024 году, где всего одна правдоподобная картинка может настроить избирателей против кандидата.

Технологические компании активно улучшают свои инструменты по выявлению поддельных фотографий ( deepfake ), но мало какие из них Для просмотра ссылки Войди или Зарегистрируйся . Ситуацию, похоже, хочет исправить компания Google , которая сегодня Для просмотра ссылки Войди или Зарегистрируйся инструмент под названием «SynthID».

Вместо того, чтобы просто распознавать готовые изображения, определяя вероятность их создания искусственным интеллектом, Google предлагает весьма очевидное, но от этого не менее изящное решение.

SynthID будет встраивать в изображения цифровой водяной знак, абсолютно невидимый человеку, но легко распознаваемый ИИ. Это ключевой шаг к контролю над фейками и дезинформацией с помощью генерации изображений, считает Google.


3k2ditvjsfwgidz0q27usy4yaqps1nbn.png


Слайд Google: слева водяной знак присутствует, справа нет

Генераторы изображений ИИ уже несколько лет создают правдоподобные «глубокие подделки». Попытки снабдить их водяными знаками предпринимались ранее, однако прошлые итерации технологии были видимыми и легко убирались в том же фотошопе.

Сейчас акцент делается именно на том, что человек не сможет увидеть водяной знак (даже при манипуляциях с параметрами изображения), а значит и не сможет убрать его в целях распространения заведомо ложной информации. Зато специализированные сервисы будут в два щелчка определять генерацию, развеивая хитрую пелену обмана.

Интересно, что Google не раскрыла, как именно работает её технология водяных знаков. Видимо, специально, чтобы не давать злоумышленникам подсказку по удалению своих новых вотермарок с изображений. Интересно, разгадают ли хакеры шифр Google самостоятельно? Пусть даже спустя какое-то время.

Пока что новый инструмент доступен только в собственной генеративной нейросети Google под названием Imagen . Вполне вероятно, что в будущем техногигант поделится технологией с крупными игроками рынка по типу Midjourney , Stable Diffusion и DALL-E , картинки которых сейчас составляют большую часть от всего сгенерированного визуального контента в принципе.

В ином случае, последние наверняка со временем разработают свой собственный уникальный аналог данной технологии. По крайней мере, сподвижки в эту сторону наблюдаются уже давно. Microsoft даже успела создать специальную коалицию для выработки стандарта маркировки ИИ-контента.

Таким образом, внедрение невидимых водяных знаков в сгенерированные искусственным интеллектом изображения позволит эффективно выявлять поддельный контент и бороться с дезинформацией. Хотя злоумышленники и могут со временем научиться обходить эту защиту, технологические компании, скорее всего, тоже будут постоянно совершенствовать свои методы маркировки и ощутимо сдерживать потоки поддельного контента.
 
Источник новости
www.securitylab.ru

Похожие темы