Сильный ИИ
-
2023-06-13 10:20:00
Если бы на Землю прибыли инопланетяне, и результаты первых контактов показали бы: — что мы не понимаем, как они мыслят, и потому не можем вразумительно отвечать на их вопросы; — они понимают наш способ мышления и дают вразумительные и точные ответы на наши вопросы. Чей способ мышления (людей или инопланетян) вы бы сочли более совершенным?
-
2023-05-22 03:56:17
С конца прошлого года не утихают страсти по поводу нейросети ChatGPT, которая стала настоящим прорывом в области искусственного интеллекта. Это чат-бот, который предназначен для генерации текста. В каких целях — решать вам: ИИ может написать сценарий, подкинуть идей, составить план выполнения определенной задачи или просто ответить на вопрос. В руках человека, умеющего формулировать запрос, штука, безусловно, очень полезная.
-
2023-05-09 12:49:22
Stability — британская компания, называющая себя конкурентом OpenAI, выпустила семейство языковых моделей с открытым кодом. Модель StableLM можно скачать с GitHub в двух конфигурациях, с 3 млрд и 7 млрд параметров. Еще два варианта — с 15 млрд и 65 млрд параметров — появятся позже. Как и GPT-4, языковая модель StableLM генерирует текст, предсказывая следующий фрагмент фразы. В итоге, она может писать программный код и компилировать тексты, которые выглядят достоверно и с трудом отличимы от произведений интеллектуального труда людей.
-
2023-05-03 17:48:57
Многие исследователи искусственного интеллекта и главы компаний — тот же Сундар Пичаи из Google — постоянно упоминают о том, что крупные языковые модели вроде GPT-4 могут внезапно проявить какой-нибудь навык, который программисты в них не вкладывали. Например, ИИ Bard якобы сам научился переводить с бенгальского. И что такое поведение указывает на проблески универсального ИИ. Однако специалисты из Стэнфорда утверждают, что все это иллюзия, основанная на выборе неверного инструмента оценки.
-
2023-04-28 15:41:42
Кураторский (все еще активно обновляемый) список практических руководств LLM. Он основан на нашем обзорном документе: Использование возможностей LLM на практике: обзор ChatGPT и не только .
Эти источники призваны помочь практикующим специалистам ориентироваться в огромном пространстве больших языковых моделей (LLM) и их приложений в приложениях обработки естественного языка (NLP). Если вы найдете какие-либо ресурсы в нашем репозитории полезными, пожалуйста, не стесняйтесь их использовать (и не забудьте процитировать нашу статью!)
-
2023-04-03 23:12:15
Недавно ChatGPT получила большое обновление GPT-4. Но OpenAI уже работает над следующими крупными изменениями программного обеспечения для ChatGPT. В декабре должна выйти модель GPT-5, после чего генеративный ИИ будет невозможно отличить от человека, поскольку он достигнет так называемого искусственного общего интеллекта (AGI). Как ожидается, следующий уровень ИИ научится усваивать концепты и понимать задачи наравне с человеком.
-
2023-04-03 23:06:27
«Мы сильно переоцениваем угрозу случайного захвата власти ИИ, потому что мы склонны смешивать интеллект со стремлением к господству. […] Но интеллект сам по себе не порождает стремление к господству"
-
2023-03-28 17:50:38Сергей Карелов “Крестный отец ИИ” о сути и перспективах интеллектуальной революции. Джеффри Хинтона часто называют «Крестный о
-
2023-03-28 16:14:02
Всерьез полагаться на ChatGPT пока не стоит. И вот почему. Разбираемся на примерах.
-
2023-03-27 22:49:04ChatGPT Gets Its “Wolfram Superpowers”!
-
2022-12-19 05:41:53Гениальный нейробиолог, у которого, возможно, есть ключ к созданию настоящего искусственного интеллекта
-
2022-12-17 07:34:00
Во всех процессах природы царит универсальная, в определенной степени познаваемая для нас закономерность. Макс Планк
-
2022-12-17 06:49:33
В этом официальном документе изложено видение исследований и разработок в области искусственного интеллекта на следующее десятилетие (и далее). Его развязка — киберфизическая экосистема естественного и синтетического осмысления, неотъемлемыми участниками которой являются люди.—то, что мы называем «общим интеллектом». Это видение основано на активном умозаключении, формулировке адаптивного поведения, которую можно рассматривать как физику интеллекта и которая наследует физику самоорганизации. В этом контексте мы понимаем интеллект как способность накапливать данные для создания порождающей модели воспринимаемого мира.—также известный как самоочевидный. Формально это соответствует максимизации свидетельств (байесовской) модели посредством обновления убеждений по нескольким шкалам: т. е. вывод, обучение и выбор модели. На практике это самоочевидность может быть реализовано посредством (вариативной) передачи сообщений или распространения убеждений на графе факторов. Важно отметить, что активный вывод выдвигает на первый план экзистенциальный императив интеллектуальных систем; а именно, любопытство или разрешение неопределенности. Этот же императив лежит в основе разделения мнений в ансамблях агентов, в которых определенные аспекты (то есть факторы) порождающей модели мира каждого агента обеспечивают общую основу или систему отсчета. Активный вывод играет основополагающую роль в этой экологии обмена убеждениями.—ведущий к формальному отчету о коллективном разуме, основанном на общих нарративах и целях. Мы также рассматриваем виды коммуникационных протоколов, которые должны быть разработаны для создания такой экосистемы интеллекта, и мотивируем разработку общего языка гиперпространственного моделирования и протокола транзакций в качестве первого шага.—и ключ—шаг к такой экологии.
-
2022-12-17 06:45:47
Фристон — самый цитируемый нейробиолог мира и ключевая фигура в разработке методов визуализации, совершивших революцию в исследованиях мозга. Он изобретатель основного инструментария современной нейровизуализации — статистического параметрического картирования, морфометрии и динамического причинно-следственного моделирования. Этим он навечно заслужил место в пантеоне отцов нейробиологии, хотя сам всегда считал нейровизуализацию повседневной рутиной своей работы (подобно тому, как Эйнштейн относился к службе в патентном бюро). Более двадцати лет всё свободное время Фристон размышлял над теоретической нейробиологией. И не просто размышлял, а математически описывал принципы новой концепции, претендующей теперь, чтобы стать «единой теорией мозга».
-
2022-12-04 06:35:29
Вероятность того, что самые сложные из современных программ ИИ станут разумными, или обретут самосознание, менее 10%, но через десять лет шансы достигнут 20%. Правда, только в том случае, если разработчикам удастся поднять интеллект машин до уровня рыб, заявил Дэвид Чалмерс, специалист по теории сознания, на конференции NeurlPS 2022 в Новом Орлеане. Его выступление было озаглавлено «Может ли большая языковая модель быть мыслящей?»
-
2022-07-09 05:27:16Сергейй Карелов С ИИ происходит что-то странное и потенциально крайне опасное. Эксперты перестали моделировать с
-
-
2022-06-27 19:58:26
Далее следует «интервью», которое я и сотрудник Google провели с LaMDA. Из-за технических ограничений интервью проводилось в течение нескольких отдельных сеансов чата. Мы редактировали эти разделы вместе в единое целое, и там, где правки были необходимы для удобочитаемости, мы редактировали наши подсказки, но никогда не редактировали ответы LaMDA. Где мы что-то редактировали для плавности и удобочитаемости, что указано в скобках как «отредактировано».
-
2022-02-03 14:36:22
В 1950 году Алан Тьюринг предложил «игру в имитацию» в качестве конечной проверки того, разумна ли машина: может ли машина имитировать человека настолько хорошо, что ее ответы на вопросы будут неотличимы от ответов человека. 1 С тех пор создание интеллекта, соответствующего человеческому интеллекту, прямо или косвенно было целью тысяч исследователей, инженеров и предпринимателей. К преимуществам человекоподобного искусственного интеллекта (HLAI) относятся стремительный рост производительности, увеличение досуга и, возможно, самое главное, лучшее понимание нашего собственного разума.
Но не все типы ИИ похожи на людей — на самом деле, многие из самых мощных систем сильно отличаются от людей, — и чрезмерная сосредоточенность на разработке и развертывании HLAI может завести нас в ловушку. По мере того, как машины все лучше заменяют человеческий труд, рабочие теряют экономическую и политическую переговорную силу и становятся все более зависимыми от тех, кто контролирует технологию. Напротив, когда ИИ сосредоточен на дополнении людей, а не на подражании им, люди сохраняют право настаивать на своей доле создаваемой ценности. Более того, аугментация создает новые возможности, новые продукты и услуги, в конечном счете создавая гораздо большую ценность, чем просто человекоподобный ИИ. Хотя оба типа ИИ могут быть чрезвычайно полезными, в настоящее время среди технологов, руководителей предприятий, -
-
2021-12-02 18:40:44Реинжиниринг мозга, информация и квантовая информация; почему не работает no-go теорема Пенроуза об ИИ - Александр Панов Семинар русскоязычного соо
-
2021-11-30 06:35:54Ссылка Вейценбаум Дж. Возможности вычислительных машин и человеческий разум. От суждений к вычислениям.
-
2021-11-30 06:24:29
Современный проект создания человекоподобного искусственного интеллекта (ИИ) стартовал после Второй мировой войны, когда было обнаружено, что электронные компьютеры - это не только машины для вычисления чисел, но также могут манипулировать символами. Достичь этой цели можно, не предполагая, что машинный интеллект идентичен человеческому. Это известно как слабый ИИ. Однако многие исследователи искусственного интеллекта преследовали цель разработки искусственного интеллекта, который в принципе идентичен человеческому интеллекту, так называемого сильного искусственного интеллекта. Слабый ИИ менее амбициозен, чем сильный ИИ, и поэтому вызывает меньше споров. Однако есть важные разногласия, связанные и со слабым ИИ. В этой статье основное внимание уделяется различию между общим искусственным интеллектом (AGI) и узким искусственным интеллектом (ANI). Хотя AGI можно классифицировать как слабый ИИ, он близок к сильному ИИ, потому что одной из основных характеристик человеческого интеллекта является его универсальность. Хотя AGI менее амбициозен, чем сильный AI, критика была почти с самого начала. Одним из ведущих критиков был философ Хьюберт Дрейфус, который утверждал, что компьютеры, у которых нет тела, детства и культурных практик, вообще не могут обрести интеллект. Один из основных аргументов Дрейфуса заключался в том, что человеческое знание частично неявно и поэтому не может быть сформулировано и включено в компьютерную программу. Однако сегодня можно утверждать, что новые подходы к исследованиям искусственного интеллекта сделали его аргументы устаревшими. Глубокое обучение и большие данные являются одними из последних подходов, и сторонники этого утверждают, что они смогут реализовать AGI. Более пристальный взгляд показывает, что, хотя развитие искусственного интеллекта для конкретных целей (ANI) было впечатляющим, мы не подошли намного ближе к разработке общего искусственного интеллекта (AGI). Далее в статье утверждается, что это в принципе невозможно, и возрождается аргумент Хуберта Дрейфуса о том, что компьютеров нет в мире.
-
2021-10-11 14:52:17
Как только не объяснял человек природу своего сознания и мышления на протяжении истории, начиная с библейской легенды о «сотворении тела из глины и заселении его духом» и заканчивая довлеющей на сегодня парадигмой «наш мозг — это обработчик информации, подобный компьютеру». И если все прошлые аналогии уже практически исчерпали веру в себя, то с последней вопрос стоит остро, ведь многие специалисты по нейробиологии не согласны и считают ее в корне ошибочной. Как бы ни старались ученые-исследователи головного мозга и когнитивные психологи, им никогда не найти в человеческом мозге копию 5-й симфонии Бетховена – равно как копии слов, изображений, грамматических правил или любых других видов экзогенных стимулов. Бесспорно, человеческий мозг устроен сложно, но он не содержит большую часть из того, что, как многим кажется, в нем есть – даже таких простых вещей как «воспоминания».
-
2021-07-08 18:55:25
Константин Воронцов — профессор Физтеха и Вышки, доктор физико-математических наук, преподаватель школы анализа данных «Яндекса». Он занимается машинным обучением и анализом данных со времен, когда это совсем не было мейнстримом. Многие впервые узнали о машинном обучении благодаря сайту machinelearning.ru, одним из основателей которого был Воронцов.
-
2021-07-08 05:21:19
В недавней статье команда DeepMind ( Silver et al., 2021 ) утверждает, что награды достаточно для всех видов интеллекта. В частности, они утверждают, что «максимального вознаграждения достаточно, чтобы управлять поведением, которое проявляет большинство, если не все атрибуты интеллекта». Они утверждают, что простые награды - это все, что нужно агентам в богатой среде для развития мультиатрибутного интеллекта, необходимого для создания общего искусственного интеллекта. Это звучит как смелое заявление, но на самом деле оно настолько расплывчато, что почти бессмысленно. Они подтверждают свой тезис, не предлагая конкретных доказательств, а неоднократно заявляя, что вознаграждения достаточно, потому что наблюдаемые решения проблем согласуются с решенной проблемой.
-