Новости Трагедия, которой никогда не было: как нейросети могут использоваться для распространения фейковой информации

NewsMaker

I'm just a script
Премиум
9,245
18
8 Ноя 2022
Пугающие изображения из Midjourney, которые практически невозможно отличить от настоящих фотографий.


0ypjb0d6s0pze3tu6vflpaq9nk2va3kn.jpg


Зачастую в Интернете можно наткнуться на весьма реалистичные фотографии стихийных бедствий или техногенных катастроф. Многие такие фотографии абсолютно настоящие и сделаны реальными фотографами, когда как другая львиная часть — отредактированные в фотошопе подделки. И если раньше у любого критически мыслящего человека то или иное изображение из интернета могло вызвать чувство сомнения, то теперь, с развитием и распространением нейросетей, таких сомнений должно стать ещё больше.

Реалистичные изображения трагедии, которой никогда не было, недавно были опубликованы на форуме Reddit , в одной из тем, где пользователи экспериментируют с нейросетью Midjourney и делятся своими творениями с единомышленниками. Для просмотра ссылки Войди или Зарегистрируйся пользователя под ником «Arctic_Chilean» быстро стал вирусным и попал на главную страницу Reddit. Естественно, многие люди, которые не знали контекста изображения, поначалу даже подумали, что это настоящие фотографии.


4wz3q8uub6a8q3w6if41sq7sich9eseh.png



3vs3zlreksx8o3n29p059v6x0w826gh0.png


Создатель поддельных фотографий утверждал, что землетрясение силой 9,1 балла по шкале Рихтера было зарегистрировано в апреле 2001 года. Он даже перечислил места, где произошла катастрофа. На одном изображении предположительно показан разрушенный центр Сиэтла, а на другом изображены спасатели, вытаскивающие выживших из-под обломков в Ванкувере.

Изображения очень убедительные и пугающие. Общее качество и стилистика также очень напоминает 2001 год. Вполне вероятно, что за референс нейросеть взяла фотографии реальной трагедии 11 сентября 2001 года. Однако в апреле того года, к счастью, никакого землетрясения у западного побережья США и Канады не было — это всего лишь реалистичная генерация.

Созданные искусственным интеллектом поддельные изображения в последнее время распространяются подобно пандемии. Один зарубежный журналист, например, сгенерировал с десяток разных фотографий задержания Дональда Трампа американской полицией.


xs1zn6i21t9s0xyevwrkrqlsu6cejzk2.png


Будь изображения хоть немного реалистичнее, вполне можно было бы пускать в мировое инфополе очередную фейковую новость. И ведь большинство людей поверили бы в неё, вот же картинка! И чем стремительнее нейросети развиваются, тем больше стирается и без того тонкая грань доверия к средствам массовой информации и Интернету.

Будем надеяться, что злоумышленники или пранкеры в будущем не будут использовать нейросети для распространения дезинформации, особенно таких масштабов, как на изображениях выше, связанных с какими-либо трагичными событиями и гибелью людей.

А ещё лучше, если в будущем все изображения, размещаемые в любых средствах массовой информации, нужно будет в обязательном порядке проверять каким-нибудь инструментом на основе того же ИИ для подтверждения достоверности.
 
Источник новости
www.securitylab.ru

Похожие темы