Вы используете устаревший браузер. Этот и другие сайты могут отображаться в нём некорректно. Вам необходимо обновить браузер или попробовать использовать другой.
Ценные уроки из прошлого для современного искусственного интеллекта.
В недавнем исследовании под названием «Проходит ли GPТ-4 тест Тьюринга?», опубликованном на arXiv , учёные из Калифорнийского университета в Сан-Диего провели занимательное сравнение между живыми людьми, ИИ-моделями...
ChatGPT и аналоги оказались малополезны в реальных сценариях, лишь отнимая у злоумышленников драгоценное время.
Несмотря на обеспокоенность исследователей безопасности и правоохранительных органов некоторых стран по поводу злонамеренного использования ChatGPT и аналогичных LLM -моделей...
Объединённые усилия 18 стран призваны остановить злоупотребления искусственным интеллектом.
Великобритания и США, в сотрудничестве с партнёрами из 16 других стран, представили новые рекомендации для создания безопасных систем искусственного интеллекта.
Агентство по кибербезопасности и...
Интересный эксперимент показал перспективы развития отрасли кибербезопасности.
Команда специалистов Check Point недавно провела исследование возможностей GPT (Generative Pre-trained Transformer) в сфере анализа вредоносных программ на примере большой языковой модели GPT-4 от OpenAI ...
Как нейросети повлияют на развитие химии и фармацевтики в мире?
Ученые из Массачусетского технологического института ( MIT ) провели исследование, направленное на изучение масштабируемости глубоких нейронных сетей (Deep neural networks, DNN ) в области химии.
Результаты, опубликованные в...
Инвесторы рискуют потерять прибыльный источник доходов, если ИИ не дать свободу реализации.
Венчурная фирма Andreessen Horowitz ( A16z ), один из крупнейших финансовых спонсоров сферы искусственного интеллекта, выразила опасения по поводу нового регулирования данных для обучения. По мнению...
Сможет ли США удержать лидерство в сфере искусственного интеллекта?
Новый игрок в области искусственного интеллекта из Китая, стартап 01.AI , возглавляемый бизнесменом по имени Кай-Фу Ли, бывшим руководителем Google в Китае, привлёк внимание мировой общественности , выпустив открытую...
Роботы смогут захватить человечество, делая уроки с вашими детьми.
Группа китайских учёных из Microsoft Research Asia, Пекинского университета и Университета Сиань Цзяотун представила инновационную методику обучения языковых моделей (Large Language Model, LLM ). Основываясь на принципах...
Действительно ли прозрачность в языковых моделях жизненно необходима? Или без неё можно обойтись?
Исследователи из университета Стэнфорда недавно представили отчёт-индекс под названием «Foundation Model Transparency Index» или «FMTI», оценивающий прозрачность базовых моделей искусственного...
Официальный инструмент OpenAI может превратить чат-бот в участника ОПГ.
Согласно новому исследованию учёных, ограничивающие меры, разработанные для предотвращения вывода токсичного контента в больших языковых моделях (Large Language Model, LLM ), таких как GPT-3 .5 Turbo от OpenAI ...
Исследователи проверили, кто лучше справляется с онлайн-поиском. Что показал эксперимент?
Современные нейросети, работающие на основе больших языковых моделей ( LLM ), долгое время вызывали опасения из-за своей способности выдавать ответы, которые, хоть и кажутся правдоподобными, на самом...
Пользователи не останутся без альтернативы — ИИ уже внёс коррективы в процесс взаимодействия с ОС.
В последнем инсайдерском выпуске Windows 11 под номером билда 25967 компания Microsoft окончательно убрала приложение Cortana из своей операционной системы.
«После обновления до этой...
Большие языковые модели сулят большие изменения в кадровом составе.
Последний доклад Всемирного экономического форума (ВЭФ) привлекает внимание общественности к радикальным изменениям на глобальном рынке труда. Ожидается, что 23% мировых рабочих мест претерпят изменения в течение ближайших...
Чтобы стать хакером, нужно думать как хакер.
Разработчик мошеннического чат-бота FraudGPT активно прорабатывает усовершенствованные инструменты, использующие генеративные модели ИИ и технологии чат-бота Google Bard. Одно из новых разработок – модель большая языковая модель (Large Language...
Учёные выявили универсальный метод атаки, стирающий этические границы у всех популярных языковых моделей.
Исследователи из Школы компьютерных наук Университета Карнеги-Меллона, Института кибербезопасности и конфиденциальности CyLab, а также Центра безопасного ИИ в Сан-Франциско совместно...
Компании боятся потери доходов из-за ИИ.
Ведущие новостные издания недовольны тем, что их оригинальный контент используется компаниями-разработчиками ИИ для обучения генеративных ИИ-моделей. New York Times, News Corp , Axel Springer, IAC и другие компании формируют коалицию, чтобы...
Учёные оценили влияние ChatGPT на цифровую криминалистику.
Исследователи в области кибербезопасности из нескольких университетов оценили влияние ChatGPT , особенно GPT-4 , на цифровую криминалистику.
Быстрый прогресс в разработке больших языковых моделей (Large Language Model, LLM )...
Хакеры уже нашли способы, как можно манипулировать ИИ для кражи личных данных и паролей.
Исследователи Google выявили 6 основных типов атак на системы искусственного интеллекта, включая манипуляции с большими языковыми моделями (Large Language Model, LLM ), используемыми, например, в...
Неужели эпоха нейросетей закончится, не успев начаться?
В минувший вторник исследователи из Стэнфордского университета и Калифорнийского университета в Беркли опубликовали совместную научную работу, в которой утверждается, что ответы модели GPT-4 меняются с течением времени. Эта работа...
Почему детекторы генеративного текста до сих пор не способны точно выполнить поставленную задачу?
Как определить, написан ли текст человеком или искусственным интеллектом? Этот вопрос становится всё более актуальным в свете развития технологий генерации текста, которые могут создавать...