Новости Кто контролирует ИИ, управляет будущим: время выбирать сторону

NewsMaker

I'm just a script
Премиум
9,316
18
8 Ноя 2022
Почему отсрочка в регулировании ИИ может нам дорого стоить.


wj2izprc694o9cwmfhrl06399tqtpfqg.png


В современном мире искусственный интеллект (ИИ) часто ассоциируется с "закрытыми" системами, такими как ChatGPT от OpenAI, где программное обеспечение находится под контролем разработчиков и ограниченного круга партнеров. В то же время, растет беспокойство о неконтролируемом распространении Для просмотра ссылки Войди или Зарегистрируйся м.

Компания OpenAI, несмотря на свое название, отказалась от публикации исходного кода своих систем GPT в 2019 году из-за опасений злоупотребления. В отличие от этого, другие компании, такие как Meta и Stability AI, выбрали путь демократизации доступа к ИИ, выпуская мощные незащищенные системы.

Угрозы открытого ИИ

Открытые ИИ-системы представляют собой значительный риск из-за легкости их использования в злонамеренных целях. Они могут быть использованы для распространения дезинформации через социальные сети и для создания опасных материалов, включая химическое и биологическое оружие.

Рекомендации по регулированию ИИ

Приостановить выпуск незащищенных ИИ-систем до выполнения определенных требований.

Установить регистрацию и лицензирование всех ИИ-систем, превышающих определенный порог возможностей.

Создать механизмы оценки рисков, смягчения последствий и независимого аудита для мощных ИИ-систем.

Требовать водяных знаков и четкой маркировки контента, созданного ИИ.

Обеспечить прозрачность данных обучения и запретить использование персональных данных и контента, способствующего распространению ненависти.

Действия правительства

Создать оперативный регулирующий орган для быстрого реагирования и обновления критериев.

Поддержать фактчекинговые организации и общественные группы.

Сотрудничать на международном уровне с целью создания международного договора для предотвращения обхода этих регуляций.

Демократизировать доступ к ИИ через создание общедоступной инфраструктуры.

Гэри Маркус, известный когнитивный ученый, подчеркивает, что регулирование открытого ИИ является крайне важной нерешенной проблемой на данный момент.

Эти рекомендации являются только началом. Их реализация потребует значительных затрат и сопротивления мощных лоббистов и разработчиков. Однако без таких действий производители незащищенного ИИ могут получать миллиардные прибыли, перекладывая риски на общество.
 
Источник новости
www.securitylab.ru