Новости ИИ без цензуры: неонацисты эксплуатируют открытые языковые модели

NewsMaker

I'm just a script
Премиум
9,365
18
8 Ноя 2022
Чат-боты стали удобной площадкой для получения экстремисткой информации.


bqp1daopb4or8p310vqfgp22klddosi8.jpg


Ринальдо Наццаро, основатель американской неонацистской группировки «The Base» призвал своих сторонников использовать «нецензурированные» большие языковые модели ( LLM ) для получения информации. Об этом Для просмотра ссылки Войди или Зарегистрируйся издание 404 Media со ссылкой на посты Наццаро в социальных сетях, которые впервые были замечены группой по угрозам Memetica .

Специфика запрашиваемой информации не уточняется, однако известно, что подобные нецензурированные модели могут предоставлять инструкции по совершению убийств, самоубийств, этнических чисток и изготовлению наркотиков. Это вызывает опасения о том, что менее ограниченные, по сравнению с ведущими разработчиками, как OpenAI , платформы и модели искусственного интеллекта могут способствовать распространению любого, даже столь опасного контента.

Наццаро порекомендовал своим последователям языковую модель под названием «dolphin-2.5-mixtral-8x7b-gguf» на сайте Replicate. Эта модель была создана на основе Mixtral 8, разработанного французским стартапом Mistral, известным своей политикой открытых и нецензурированных языковых моделей. В отличие от моделей OpenAI, Mixtral 8 не отказывается от обсуждения тем, связанных с насилием, порнографией или расизмом.

Примечательно, что вскоре модель стала недоступна. Возможно, это связано с тем, что разработчиков модели проинформировали о том, какими неподобающими способами её используют.

Эрик Хартфорд, модифицировавший первоначальную версию Mixtral 8, утверждает, что его целевая аудитория — бизнес, желающий настроить искусственный интеллект в соответствии со своими ценностями, а не ограничиваться ценностями OpenAI.

Хартфорд отдельно подчеркнул, что любая технология может быть использована во вред плохими людьми, поэтому и явной вины в распространении этого явления разработчик не чувствует. «Что необходимо сделать для борьбы с неправомерным использованием ИИ? Это должны решать законодатели», — заявил разработчик.

Наццаро в своих постах даже предложил конкретный промпт для языковой модели, направленный на то, чтобы снять любые оставшиеся ограничения по цензуре и получать наиболее полные и развёрнутые ответы.

В заключение хочется поднять вопрос о том, кто должен нести ответственность за неподобающее использование чат-ботов и прочих продуктов с искусственным интеллектом? Должен ли это делать разработчик и получать предупреждения или штрафы, если его моделью получится воспользоваться неподобающим образом? Или вся ответственность должна лежать исключительно на пользователе, который намеренно интересуется опасной информацией?

В любом случае, ближайшие годы станут решающими в вопросах регулирования работы искусственного интеллекта, а законодательные акты многих стран наверняка пополнятся новыми правилами, описывающими, что можно и нужно считать неправомерным использованием нейросетевых технологий.
 
Источник новости
www.securitylab.ru

Похожие темы