Новости Искусственный общий интеллект или общая чушь? Майкрософт утверждает что ИИ обладает разумом

NewsMaker

I'm just a script
Премиум
9,316
18
8 Ноя 2022
В новой научной статье исследователи Майкрософт утверждают, что их система ИИ способна делать все, что может человеческий мозг.


ucnzko5gu34nku9d6sxepkdoe1yk5ttr.jpg


Компания Майкрософт Для просмотра ссылки Войди или Зарегистрируйся , в которой утверждает, что ее новая система искусственного интеллекта (ИИ) является шагом к общему искусственному интеллекту (AGI, Artificial General Intelligence), то есть машине, способной делать все, что может человеческий мозг. Статья под названием "Искры искусственного общего интеллекта" была опубликована в апреле на интернет-репозитории исследований.

Авторы статьи утверждают, что GPT-4 является частью новой когорты больших языковых моделей, включая ChatGPT и PaLM от Google, которые демонстрируют более общий интеллект, чем предыдущие модели ИИ.

Исследователи продемонстрировали, что нейросеть может решать новые и сложные задачи без каких-либо специальных подсказок, в том числе в области математики, медицины, права и психологии.

Майкрософт стала первой крупной технологической компанией, которая выдвинула такое смелое утверждение, разжигая одну из самых острых дебатов в технологическом мире: строит ли индустрия что-то подобное человеческому интеллекту? Или же некоторые из самых ярких умов индустрии поддаются своему воображению?

Статья Майкрософт касается того, к чему технологи стремились - и чего боялись - на протяжении десятилетий. Если они построят машину, которая работает как человеческий мозг или даже лучше, это может изменить мир. Но такая технология также может принести много неприятностей.

А может быть и ерунда. Выдвижение претензий на AGI может быть убийцей репутации для ученых-компьютерщиков. То, что один исследователь считает признаком интеллекта, легко может быть опровергнуто другим, и дебаты часто звучат больше подходящими для философского клуба, чем для компьютерной лаборатории. В прошлом году Google уволил исследователя, который утверждал, что аналогичная система ИИ обладает сознанием, шагом дальше того, что заявила Майкрософт. Сознающая система не просто была бы интеллектуальной. Она была бы способна ощущать или чувствовать то, что происходит в мире вокруг нее.

Но некоторые считают, что индустрия за последний год или около того приблизилась к чему-то, что нельзя объяснить: к новой системе ИИ, которая выдвигает человекоподобные ответы и идеи, которые не были заложены в нее.

Майкрософт перестроила части своих исследовательских лабораторий, чтобы включить в них несколько групп, посвященных изучению этой идеи. Одна из них будет возглавляться Себастьяном Бубеком, который был главным автором статьи Майкрософт об AGI.

Около пяти лет назад компании, такие как Google, Майкрософт и OpenAI, начали создавать большие языковые модели или L.L.M. Эти системы часто проводят месяцы, анализируя огромное количество цифрового текста, включая книги, статьи из Википедии и чаты. Определяя закономерности в этом тексте, они учатся генерировать свой собственный текст, включая рефераты, поэзию и компьютерный код. Они даже могут вести беседу.

Технология, с которой работали исследователи Майкрософт, GPT-4 от OpenAI, считается самой мощной из этих систем. Майкрософт является близким партнером OpenAI и инвестировала 13 миллиардов долларов в эту компанию со штаб-квартирой в Сан-Франциско.

Среди исследователей был доктор Бубек, 38-летний французский эмигрант и бывший профессор Принстонского университета. Одно из первых, что он и его коллеги сделали, это попросили GPT-4 написать математическое доказательство того, что есть бесконечное количество простых чисел, и сделать это так, чтобы оно рифмовалось.

Поэтическое доказательство технологии было настолько впечатляющим - как математически, так и лингвистически - что он трудно понимал, с кем он общался. “В тот момент я подумал: что происходит?” - сказал он в марте на семинаре в Массачусетском технологическом институте.

В течение нескольких месяцев он и его коллеги документировали сложное поведение системы и полагали, что оно демонстрирует “глубокое и гибкое понимание” человеческих концепций и навыков.

Когда люди используют GPT-4, они “поражаются его способности генерировать текст”, - сказал доктор Ли. “Но оказывается, что он гораздо лучше анализирует и синтезирует и оценивает и судит о тексте, чем генерирует его”.

Когда они попросили систему нарисовать единорога с помощью языка программирования TiKZ, она мгновенно сгенерировала программу, которая могла нарисовать единорога. Когда удалили участок кода, который рисовал рог единорога, и попросили систему изменить программу так, чтобы она снова рисовала единорога, она сделала именно это.

Они также попросили систему проанализировать вес, рост и результаты анализа крови и определить, подвержены ли они риску диабета. Они попросили нейросеть написать письмо поддержки электрона как кандидата в президенты США от имени Махатмы Ганди и адресовать его своей жене. И они попросили ее написать сократовский диалог, в котором исследовались злоупотребления и опасности L.L.M.

Она сделала все это таким образом, что казалось, что она понимает такие разные области, как политика, физика, история, информатика, медицина и философия, и сочетает свои знания.

Некоторые эксперты по ИИ восприняли статью Майкрософт как удобный способ выдвинуть большие претензии на технологию, которую никто не понимает до конца. Исследователи также утверждают, что общий интеллект требует знакомства с физическим миром, которого у GPT-4 в теории нет.

Опубликованная статья — это пример того, как некоторые из крупных компаний присваивают формат научной статьи в качестве PR-подач”, - сказал Мартен Сап, исследователь и профессор Карнеги-Меллонского университета. “Они буквально признают во введении своей статьи, что их подход субъективен и неформален и может не удовлетворять строгим стандартам научной оценки”.

Доктор Бубек и доктор Ли сказали, что они не были уверены, как описать поведение системы, и в конечном итоге остановились на “Искрах AGI”, потому что они думали, что это захватит воображение других исследователей.

Поскольку исследователи Майкрософт тестировали раннюю версию GPT-4, которая не была настроена на избегание ненавистной речи, дезинформации и другого нежелательного контента, утверждения, сделанные в статье, не могут быть проверены внешними экспертами. Майкрософт говорит, что система, доступная публике, не такая мощная, как версия, которую они тестировали.
 
Источник новости
www.securitylab.ru

Похожие темы