Источник

Аннотация

Современный проект создания человекоподобного искусственного интеллекта (ИИ) начался после Второй мировой войны, когда было обнаружено, что электронные компьютеры - это не только машины для вычисления чисел, но также могут манипулировать символами. Достичь этой цели можно, не предполагая, что машинный интеллект идентичен человеческому. Это известно как слабый ИИ. Однако многие исследователи искусственного интеллекта преследовали цель разработки искусственного интеллекта, который в принципе идентичен человеческому интеллекту, так называемого сильного ИИ. Слабый ИИ менее амбициозен, чем сильный ИИ, и поэтому вызывает меньше споров. Однако есть важные разногласия, связанные и со слабым ИИ. В этой статье основное внимание уделяется различию между общим искусственным интеллектом (AGI) и узким искусственным интеллектом (ANI). Хотя AGI можно классифицировать как слабый ИИ, он близок к сильному ИИ, потому что одной из основных характеристик человеческого интеллекта является его универсальность. Хотя AGI менее амбициозен, чем сильный AI, критика была почти с самого начала. Одним из ведущих критиков был философ Хьюберт Дрейфус, который утверждал, что компьютеры, у которых нет тела, детства и культурных практик, вообще не могут обрести интеллект. Один из основных аргументов Дрейфуса заключался в том, что человеческое знание частично неявно и поэтому не может быть сформулировано и включено в компьютерную программу. Однако сегодня можно утверждать, что новые подходы к исследованиям искусственного интеллекта сделали его аргументы устаревшими. Глубокое обучение и большие данные - одни из новейших подходов, и сторонники этого утверждают, что они смогут реализовать AGI. Более пристальный взгляд показывает, что, хотя развитие искусственного интеллекта для конкретных целей (ANI) было впечатляющим, мы не очень приблизились к разработке общего искусственного интеллекта (AGI). Далее в статье утверждается, что это в принципе невозможно, и возрождается аргумент Хуберта Дрейфуса о том, что компьютеров нет в мире.

Введение

Идея машин, которые могут выполнять задачи, требующие интеллекта, восходит, по крайней мере, к Декарту и Лейбницу. Однако проект сделал важный шаг вперед, когда в начале 1950-х годов было признано, что электронные компьютеры - это не только устройства для обработки чисел, но и для манипулирования символами. Так зародились исследования искусственного интеллекта (ИИ). Достичь этой цели можно, не предполагая, что машинный интеллект идентичен человеческому. Например, один из пионеров в этой области, Марвин Мински, определил ИИ как: «… наука о том, как заставить машины делать вещи, требующие интеллекта, если бы это делали люди» (цитата из Bolter, 1986, п. 193). Иногда это называют слабым ИИ. Однако многие исследователи ИИ преследовали цель разработать ИИ, который в принципе идентичен человеческому интеллекту, так называемый сильный ИИ. Это влечет за собой, что «… соответствующим образом запрограммированный компьютер - это разум в том смысле, что буквально можно сказать, что компьютеры понимают и имеют другие когнитивные состояния» (Searle, 1980 , стр. 417).

В этой статье я буду использовать другую терминологию, которая лучше подходит для обсуждаемых мной вопросов. Поскольку человеческий интеллект является общим, человекоподобный ИИ часто называют общим искусственным интеллектом (AGI). Хотя ОИИ обладает важным свойством человеческого интеллекта, его все же можно рассматривать как слабый ИИ. Тем не менее, он отличается от традиционного слабого ИИ, который ограничен конкретными задачами или областями. Поэтому традиционный слабый ИИ иногда называют искусственным узким интеллектом (ANI) (Shane, 2019 , стр. 41). Хотя я иногда буду говорить о сильном AI, основное различие в этой статье проводится между AGI и ANI. Важно держать их отдельно. Достижения в области ANI - это не достижения в области AGI.

В 1976 году Джозеф Вайценбаум, в то время профессор информатики Массачусетского технологического института и создатель знаменитой программы Элиза , опубликовал книгу « Сила компьютера и человеческий разум» (Weizenbaum, 1976). Как видно из названия, он проводил различие между мощностью компьютера и человеческим разумом. Компьютерная мощность, в сегодняшней терминологии, - это способность использовать алгоритмы с огромной скоростью, которая и есть ANI. Компьютерная мощь никогда не перерастет в человеческий разум, потому что они принципиально разные. «Человеческий разум» включает в себя рассудительность и мудрость Аристотеля. Благоразумие - это способность принимать правильные решения в конкретных ситуациях, а мудрость - это способность видеть целое. Эти способности не алгоритмические, и поэтому мощность компьютера не может и не должна заменять человеческий разум. Математик Роджер Пенроуз несколькими годами позже написал две основные книги, в которых показал, что человеческое мышление в основном не алгоритмическое (Penrose, 1989 , 1994 ).

Однако мои аргументы будут немного отличаться от аргументов Вайценбаума и Пенроуза. Я продолжу линию аргументов, которая была первоначально представлена ​​философом Хубертом Дрейфусом. Он попал в исследования ИИ более или менее случайно. Он сделал работу, связанную с двумя философами Мартином Хайдеггером и Людвигом Витгенштейном. Эти философы представляли собой разрыв с господствующей западной философией, поскольку они подчеркивали важность человеческого тела и практической деятельности как первостепенной важности по сравнению с миром науки. Например, Хайдеггер утверждал, что у нас может быть только понятие молотка или стула, потому что мы принадлежим культуре, в которой мы выросли, и можем обращаться с этими предметами. Поэтому Дрейфус думал, что компьютеры, у которых нет тела, детства и культурных традиций, вообще не могут обрести интеллект (Дрейфус и Дрейфус,1986 , стр. 5).

Одним из важных мест исследований ИИ в 1950-х и 1960-х годах была Rand Corporation. Как ни странно, они наняли Дрейфуса в качестве консультанта в 1964 году. В следующем году он представил критический отчет под названием «Алхимия и искусственный интеллект». Однако руководители проекта AI в Rand утверждали, что отчет - ерунда и не должен публиковаться. Когда он был наконец выпущен, он стал самым востребованным отчетом в истории Rand Corporation. Позже Дрейфус расширил отчет до книги « Что компьютеры не могут делать» (Дрейфус, 1972 ). В своей книге он утверждал, что важная часть человеческого знания скрыта. Следовательно, его нельзя сформулировать и реализовать в компьютерной программе.

Хотя Дрейфус подвергся яростным нападкам со стороны некоторых исследователей ИИ, он, несомненно, указал на серьезную проблему. Но в 1980-х годах в исследованиях ИИ стала доминировать другая парадигма. Он был основан на идее нейронных сетей . Вместо того, чтобы рассматривать манипуляции с символами как модель, он взял за модель процессы в нашей нервной системе и мозге. Нейронная сеть может обучаться, не получая явных инструкций. Таким образом, казалось, что аргументы Дрейфуса в пользу того, что компьютеры не могут делать, устарели.

Последнее детище - большие данные. Большие данные - это применение математических методов к огромным объемам данных для нахождения корреляций и определения вероятностей (Najafabadi et al., 2015 ). Большие данные представляют собой интересную проблему: я упоминал ранее, что AGI не является частью сильного ИИ. Однако, хотя большие данные не представляют собой амбиции по развитию сильного ИИ, сторонники этого утверждали, что в этом нет необходимости. Нам не нужно разрабатывать компьютеры с человеческим интеллектом. Напротив, мы можем изменить свое мышление, чтобы стать похожими на компьютеры. Неявно это послание книги Виктора Майера-Шенбергера и Кеннета Цукьера: Большие данные: революция, которая изменит то, как мы живем, работаем и думаем (Mayer-Schönberger and Cukier, 2014). Книга оптимистично оценивает возможности больших данных и их положительное влияние на нашу личную жизнь и общество в целом.

Некоторые даже утверждают, что традиционный научный метод использования гипотез, причинно-следственных моделей и тестов устарел. Причинность - важная часть человеческого мышления, особенно в науке, но, согласно этой точке зрения, нам не нужна причинность. Корреляций достаточно. Например, на основе данных о преступности мы можем сделать вывод о том, где будут совершаться преступления, и использовать их для распределения ресурсов полиции. Возможно, мы даже сможем предсказать преступления до их совершения и, таким образом, предотвратить их.

Если мы посмотрим на некоторую литературу по исследованиям искусственного интеллекта, то окажется, что нет никаких ограничений на то, чего можно достичь в течение нескольких десятилетий. Одним из примеров является книга Майера-Шенбергера и Цукьера, о которой я упоминал выше. Вот одна цитата:

В будущем - и раньше, чем мы думаем - многие аспекты нашего мира будут дополнены или заменены компьютерными системами, которые сегодня являются единственной сферой человеческого суждения (Mayer-Schönberger and Cukier, 2014 , p. 12).

Примером, подтверждающим эту точку зрения, является администрация Обамы, которая в 2012 году объявила «Инициативу по исследованиям и развитию больших данных», чтобы «помочь решить некоторые из наиболее насущных проблем страны» (цитата из Chen and Lin, 2014 , p. 521).

Однако, если посмотреть на то, что было фактически достигнуто, по сравнению с тем, что было обещано, несоответствие бросается в глаза. Позже я приведу несколько примеров. Одно из объяснений этого несоответствия может заключаться в том, что прибыль является главной движущей силой, и поэтому многие обещания следует рассматривать как маркетинговые. Однако, хотя коммерческие интересы, несомненно, играют роль, я думаю, что этого объяснения недостаточно. Я добавлю два фактора: во-первых, один из немногих диссидентов в Кремниевой долине, Джерон Ланье, утверждал, что вера в научное бессмертие, развитие компьютеров с супер-интеллектом и т. Д. Являются выражением новой религии », - сказал он. через инженерную культуру »(Lanier, 2013, п. 186). Во-вторых, когда утверждается, что компьютеры могут дублировать деятельность человека, часто оказывается, что это утверждение предполагает серьезное упрощенное и искаженное описание этой деятельности. Проще говоря: переоценка технологий тесно связана с недооценкой людей.

Я начну с главного аргумента Дрейфуса о том, что AGI не может быть реализован. Затем я кратко расскажу о развитии исследований ИИ после публикации его книги. Некоторые впечатляющие прорывы были использованы для подтверждения утверждения о том, что AGI можно реализовать в течение следующих нескольких десятилетий, но я покажу, что в реализации AGI было достигнуто очень мало. Затем я буду утверждать, что это не просто вопрос времени, что то, что не было реализовано раньше, будет реализовано позже. Напротив, я утверждаю, что цель в принципе не может быть реализована, и что проект тупиковый. Во второй части статьи я ограничиваюсь утверждением, что причинное знание - важная часть человеческого интеллекта, и что компьютеры не могут справиться с причинностью, потому что они не могут вмешиваться в мир. В более общем смысле, AGI невозможно реализовать, потому что компьютеров нет в мире. Пока компьютеры не растут, не принадлежат культуре и не действуют в мире, они никогда не обретут человеческий интеллект.

Наконец, я буду утверждать, что вера в возможность реализации ОИИ вредна. Если мощь технологий переоценивается, а человеческие навыки недооцениваются, результатом во многих случаях будет то, что мы заменяем то, что хорошо работает, на то, что хуже.

Неявное знание

Дрейфус поместил ИИ в философскую традицию, восходящую к Платону. Платоновская теория познания была построена на идеале математики, в частности геометрии. Геометрия - это не материальные тела, а идеальные тела. Мы можем получить настоящее знание, эпистему, только отвлекая внимание от материального мира и направив его «вверх», в мир идеальных объектов. Платон даже критиковал геометров за непонимание их собственного дела, потому что они думали, что они «… что-то делают, и их рассуждения имеют практическую цель, и на самом деле этот предмет не преследуется ради знания» (Платон, 1955 , стр.517). Навыки - это просто мнение, докса, и они относятся к низу иерархии его знаний.

Согласно этой точке зрения, минимальное требование для того, чтобы что-то считалось знанием, состоит в том, чтобы это можно было сформулировать явно. Западная философия в целом следовала Платону и принимала только пропозициональное знание как настоящее знание. Исключение составляет то, что Дрейфус называл «антифилософами» Мерло-Понти, Хайдеггер и Витгенштейн. Он также сослался на ученого и философа Майкла Поланьи. В своей книге « Личные знания» Поланьи ввел выражение « молчаливое знание».Сноска1 . Большинство знаний, которые мы применяем в повседневной жизни, неявны. Фактически, мы не знаем, какие правила мы применяем при выполнении задачи. Поланьи использовал в качестве примеров плавание и езду на велосипеде. Очень немногие пловцы знают, что удерживает их на плаву то, как они регулируют свое дыхание: когда они выдыхают, они не опорожняют свои легкие, а когда они вдыхают, они надувают свои легкие больше, чем обычно.

Нечто подобное относится и к езде на велосипеде. Велосипедист удерживает равновесие, поворачивая руль велосипеда. Чтобы избежать падения влево, он перемещает руль влево, а чтобы не упасть вправо, он поворачивает руль вправо. Таким образом он сохраняет равновесие, перемещаясь по серии небольших изгибов. Согласно Поланьи, простой анализ показывает, что для данного угла дисбаланса кривизна каждой обмотки обратно пропорциональна квадрату скорости велосипеда. Но велосипедист этого не знает, и это не поможет ему стать лучшим велосипедистом (Polanyi, 1958 , стр. 50). Позже Поланьи сформулировал это понимание как «… мы можем знать больше, чем можем сказать » (Polanyi, 2009 , стр. 4, курсив в оригинале).

Однако важным моментом в вкладе Поланьи является то, что он утверждал, что навыки являются предварительным условием для формулирования знаний в целом и научных знаний в частности. Например, для проведения физических экспериментов требуется высокая степень навыков. Эти навыки нельзя просто изучить по учебникам. Они приобретаются по инструкции от человека, знающего свое дело.

Точно так же Хуберт Дрейфус в сотрудничестве со своим братом Стюартом разработал модель приобретения навыков. На самом низком уровне исполнитель следует четким правилам. Высочайший уровень, профессионализм, аналогичен описанию научной практики Поланьи. Важная часть экспертных знаний негласна. Проблема, с которой сталкивается разработка экспертных систем, то есть систем, которые позволяют компьютеру моделировать работу экспертов (например, медицинскую диагностику), заключается в том, что важная часть экспертных знаний является неявной. Если эксперты пытаются сформулировать знания, которые они применяют в своей работе, они обычно регрессируют на более низкий уровень. Следовательно, согласно Хьюберту и Стюарту Дрейфусу, экспертные системы не способны уловить навыки опытного исполнителя (Dreyfus and Dreyfus, 1986, п. 36). Мы знаем это явление из повседневной жизни. Большинство из нас - знатоки ходьбы. Однако, если мы попытаемся сформулировать, как мы ходим, мы определенно дадим описание, которое не отражает навыков, связанных с ходьбой.

Три «вехи» в исследованиях искусственного интеллекта

Однако после того, как Хуберт Дрейфус опубликовал « Что компьютеры не могут делать» , ИИ добился огромного прогресса. Я упомяну три «вехи», которые привлекли внимание общественности и создали впечатление, что AGI уже «не за горами».

Первой «вехой» является шахматный компьютер Deep Blue от IBM , который часто называют прорывом, когда в 1997 году он победил чемпиона мира по шахматам Гарри Каспарова. Однако Deep Blue был примером ANI; это было сделано для определенной цели. Хотя он очень хорошо проявил себя в деятельности, требующей интеллекта при выполнении людьми, никто не станет утверждать, что Deep Blue приобрел общий интеллект.

Второй - компьютер IBM Watson . Он был разработан с явной целью присоединиться к викторине Jeopardy! . Это соревнование, в котором участникам даются ответы, а затем они должны найти правильные вопросы. Им может быть, например, дан ответ: «Этот« отец нашей страны »на самом деле не рубил вишневое дерево». Правильный вопрос, который должны найти участники: «Кем был Джордж Вашингтон?»Сноска2

Опасность! требует гораздо большего набора знаний и навыков, чем шахматы. Задания охватывают множество областей, таких как наука, история, культура, география и спорт, и могут содержать аналогии и каламбуры. В нем три участника соревнуются за право первого ответа. Если вы ответите неверно, вас будут рисовать, и у другого участника будет возможность ответить. Поэтому соревнование требует не только знаний, скорости, но и умения себя ограничивать. Программа пользуется огромной популярностью в Соединенных Штатах с момента ее запуска в 1964 году, и ее смотрят в среднем семь миллионов человек (Brynjolfson and McAfee, 2014 , p. 24).

Ватсон общается на естественном языке. Когда он участвовал в Jeopardy! он не был подключен к Интернету, но имел доступ к 200 миллионам страниц информации (Susskind and Susskind, 2015 , p. 165; Ford, 2015 , p. 98ff). В 2011 году он обошел двух лучших участников Jeopardy! , Кен Дженнингс и Брэд Раттер. В 2004 году Дженнингс выигрывал 74 раза подряд и в общей сложности получил более 3 миллионов долларов. Раттер выиграл у Дженнингса в 2005 году, и он тоже выиграл более 3 миллионов долларов. В двухдневном соревновании Watson выиграл более чем в три раза больше, чем каждый из его конкурентов-людей.

Хотя Watson был создан для участия в Jeopardy! У IBM были дальнейшие планы. Вскоре после того, как Уотсон выиграл Jeopardy!компания объявила, что они применит мощь компьютера в медицине: он должен стать суперврачом в области искусственного интеллекта и произвести революцию в медицине. Основная идея заключалась в том, что если бы Watson имел доступ ко всей медицинской литературе (истории болезни пациентов, учебники, журнальные статьи, списки лекарств и т. Д.), Он мог бы предложить лучший диагноз и лечение, чем любой врач-человек. В последующие годы IBM участвовала в нескольких проектах, но успех был весьма ограниченным. Некоторые из них только что закрылись, а некоторые потерпели неудачу. Создать доктора искусственного интеллекта оказалось гораздо сложнее, чем предполагалось изначально. Вместо суперврачей IBM Watson Health выпустила помощников ИИ, которые могут выполнять рутинные задачи (Strickland, 2019 ).

Третья «веха» - AlphaGo от Alphabet . Го - настольная игра, изобретенная более 2000 лет назад в Китае. Сложность игры считается даже больше, чем в шахматах, и в нее играют миллионы людей, особенно в Восточной Азии. В 2016 году AlphaGo победила чемпиона мира Ле Седоля в пяти получивших широкую огласку матчах в Сеуле, Южная Корея. Это событие было задокументировано в отмеченном наградами фильме AlphaGo (2017, режиссер Грег Кохс).

AlphaGo считается вехой в исследованиях искусственного интеллекта, потому что это был пример применения стратегии, называемой глубоким обучением с подкреплением.. Это отражено в названии компании DeepMind. (После реконструкции Google, Google и DeepMind являются дочерними компаниями Alphabet.) Это пример подхода к исследованиям ИИ, основанного на парадигме искусственных нейронных сетей. Искусственная нейронная сеть моделируется на основе нейронных сетей. Наш мозг содержит около ста миллиардов нейронов. Каждый нейрон через синапсы связан примерно с 1000 нейронами. Это дает около ста триллионов связей в мозгу. Искусственная нейронная сеть состоит из искусственных нейронов, которые намного проще естественных нейронов. Однако было продемонстрировано, что когда много нейронов соединено в сеть, достаточно большая сеть теоретически может выполнять любые вычисления. Что практически возможно - это, конечно, другой вопрос (Минский,1972 г. , стр. 55; Тегмарк, 2017 , с. 74).

Нейронные сети особенно хороши в распознавании образов. Например, чтобы научить нейронную сеть определять кошку на картинке, нам не нужно программировать критерии, которые мы используем для идентификации кошки. У людей обычно нет проблем с различением, скажем, кошек и собак. В какой-то степени мы можем объяснить различия, но очень немногие, возможно, никто, не смогут дать полный список всех использованных критериев. По большей части это неявное знание, усвоенное на примерах и контрпримерах. То же самое и с нейронными сетями.

Нейронная сеть с глубоким обучением состоит из разных слоев искусственных нейронов. Например, сеть может иметь четыре разных уровня. При анализе изображения первый слой может идентифицировать пиксели как светлые и темные. Второй слой может определять края и простые формы. Третий уровень может определять более сложные формы и объекты, а четвертый уровень может узнавать, какие формы могут использоваться для идентификации объекта (Jones, 2014 , стр. 148).

Преимущество состоит в том, что нельзя явно формулировать критерии, используемые, например, для идентификации лица. В этом принципиальное отличие шахматной программы Deep Blue от AlphaGo. Хотя человек-шахматист использует смесь вычислений и интуиции для оценки конкретной позиции на доске, Deep Blue был запрограммирован на оценку множества возможных позиций доски и определение наилучшего из возможных в данной ситуации. Идти иначе. Во многих случаях опытные игроки полагались только на интуицию и могли описать позицию на доске только как имеющую «хорошую форму» (Nielsen, 2016). Я уже упоминал ранее, что один из основных аргументов Хьюберта Дрейфуса против AGI состоял в том, что человеческий опыт отчасти неявен и не может быть сформулирован. AlphaGo показала, что компьютеры могут обрабатывать неявные знания, и поэтому кажется, что аргумент Дрейфуса устарел. Однако позже я покажу, что это «неявное знание» ограничено идеализированным «миром науки», который фундаментально отличается от человеческого мира, который имел в виду Дрейфус.

Однако отсутствие необходимости формулировать явные правила имеет свою цену. В традиционной компьютерной программе все параметры указаны явно. Это гарантирует полную прозрачность. В нейронной сети эта прозрачность теряется. Часто не известно, какие параметры используются. Несколько лет назад команда Вашингтонского университета разработала систему, которая была обучена различать хаски и волков. Это задача, требующая немалых навыков, потому что большой разницы между ними нет. Несмотря на это, система имела поразительную точность в 90%. Однако команда обнаружила, что система распознает волков, потому что на большинстве изображений волков был снег. Команда изобрела детектор снега! (Дингли, 2018 ).

AlphaGo была разработана исследователями DeepMind и пользуется большим успехом. Подход DeepMind также был успешно применен к играм Atari Breakout и Space Invaders, а также к компьютерной игре Starcraft. Однако оказалось, что системе не хватает гибкости, и она не способна адаптироваться к изменениям в окружающей среде. Он даже оказался уязвимым для крошечных изменений. Поскольку реальные проблемы возникают в меняющемся мире, глубокое обучение с подкреплением пока нашло мало коммерческих приложений. Исследования и разработки обходятся дорого, но потери DeepMind в размере 154 миллионов долларов в 2016 году, 341 миллиона в 2017 году и 572 миллиона в 2018 году вряд ли являются признаком успеха (Marcus, 2019 ).

Последний ажиотаж: большие данные

Проблема нейронных сетей в том, что они должны обрабатывать огромные объемы данных. Например, AlphaGo была впервые обучена на 150 000 играх, в которые сыграли компетентные игроки в го. Затем его улучшили, постоянно играя против более ранних версий самого себя.

Возрастающая способность компьютеров обрабатывать и хранить огромные объемы данных привела к так называемому «взрыву данных» или даже «потоку данных». Уже в 2012 году было подсчитано, что Google ежедневно обрабатывал около 24 петабайт (24 × 10 15 ) данных. Это в тысячи раз превышает количество печатных материалов в Библиотеке Конгресса США (Mayer-Schönberger and Cukier, 2014 , стр. 8). В то же время было подсчитано, что в мире создается 2,5 эксабайта (2,5 × 10 18 байт) в день. По оценкам, это примерно половина всех слов, когда-либо произнесенных людьми. Такой объем данных превосходит человеческое воображение, и он составляет основу подхода больших данных.

Хотя анализ больших данных можно рассматривать как дополнительный метод анализа больших объемов данных, обычно терабайтов и петабайт, иногда он представляется как новый эпистемологический подход. Виктор Майер-Шенбергер и Кеннет Кукьер начинают свою книгу Big Dataна примере гриппа, который был обнаружен в 2009 году. Он сочетал в себе элементы вирусов, вызывающих птичий и свиной грипп, и получил название H1N1. Он быстро распространился, и в течение недели органы здравоохранения всего мира опасались пандемии. Некоторые даже опасались пандемии такого же размера, как испанский грипп 1918 года, унесший жизни миллионов. Вакцины против вируса не было, и единственное, что могли сделать органы здравоохранения, - это попытаться замедлить его распространение. Но для этого им нужно было знать, где он уже распространился. Хотя врачей просили сообщать о новых случаях заболевания, эта информация могла бы поступить к властям через 1-2 недели, прежде всего потому, что большинство пациентов не обращаются к врачу сразу после появления симптомов болезни.

Однако исследователи из Google незадолго до этой вспышки изобрели метод, который мог намного лучше предсказать распространение гриппа. Google получает более трех миллиардов поисковых запросов каждый день и сохраняет их все. Люди, у которых есть симптомы гриппа, обычно ищут информацию о гриппе в Интернете. Таким образом, изучая элементы поиска, которые сильно коррелируют с гриппом, исследователи могли составить карту распространения гриппа намного быстрее, чем органы здравоохранения (Mayer-Schönberger and Cukier, 2014 , стр. 2).

Майер-Шенбергер и Цукьер считают это историей успеха. Но это может быть примером того, что иногда называют «ошибкой первоначального успеха». В 2013 году модель сообщила о вдвое большем количестве посещений врача по поводу гриппоподобных заболеваний, чем Центры по контролю и профилактике заболеваний, что считается надежным источником информации. Первоначальная версия модели, вероятно, включала сезонные данные, которые коррелировали с гриппом, но не имели причинно-следственной связи. Таким образом, модель состояла из детектора гриппа и детектора зимы. Хотя модель была обновлена, ее характеристики были намного ниже первоначальных обещаний (Lazer et al., 2014 ; Shane, 2019 , p. 171).

Корреляции и причины

Предыдущие примеры просто касались корреляций. Однако в науке и в повседневной жизни мы хотим иметь причинно-следственные связи. Например, один из больших вопросов нашего времени связан с причинно-следственными связями: вызвано ли наблюдаемое нами глобальное потепление деятельностью человека (выбросом парниковых газов в атмосферу) или это просто естественные изменения?

Природа причинно-следственных связей обсуждалась веками, в частности, после того, как Дэвид Юм раскритиковал старую идею о необходимой связи между причиной и следствием. Согласно Юму, мы должны довольствоваться наблюдением закономерностей. Его современник Иммануил Кант, напротив, утверждал, что причинно-следственные связи являются предпосылкой для приобретения знания. Необходимо, чтобы у каждого следствия была причина.

Однако вместо того, чтобы вдаваться в философскую дискуссию о причинно-следственных связях, которая продолжается до сих пор, более плодотворно посмотреть, как мы идентифицируем причинно-следственные связи. Философ Джон Стюарт Милль сформулировал некоторые правила (он назвал их «канонами»), которые позволяют нам определять причинно-следственные связи. Его «второй канон», который он также назвал «методом различия», следующий:

Если случай, в котором происходит исследуемое явление, и случай, в котором его не происходит, имеют все общие обстоятельства, кроме одного, которое происходит только в первом; обстоятельство, в котором эти два случая различаются, является следствием, или причиной, или неотъемлемой частью причины явления (Mill, 1882 , p. 483).

Из этой цитаты мы видим, что отличительным признаком причинной связи является 100% корреляция между причиной и следствием. Но большинство корреляций не являются причинными. Например, существует высокая положительная корреляция между ценами на бензин и моим возрастом, но, очевидно, между ними нет причинно-следственной связи. Следовательно, корреляция может указывать на причинную связь, но это не обязательно.

Поэтому в приведенной выше цитате Милль требует, чтобы эти два случая были равны при любых обстоятельствах. Но все же мы можем решить только то, что разница между ними является либо причиной, либо следствием, потому что корреляция - это симметричная математическая связь: если A коррелирует с B, B коррелирует с A. Напротив, если C является причиной E, E не являются причиной C. Следовательно, корреляции не могут различать причину и следствие. Чтобы провести это различие, нам нужно нечто большее: причина производит или, по крайней мере, вызывает следствие. Следовательно, мы можем удалить предполагаемую причину и посмотреть, исчезнет ли следствие.

У нас есть известный пример этой процедуры из истории медицины (точнее, эпидемиологии). Примерно в 1850 году в Лондоне разразилась эпидемия холеры. Джон Сноу был практикующим врачом. Он отметил, что существует связь между тем, откуда люди получали воду, и частотой холеры. Компания Southwark and Vauxhall, которая имела водозабор на загрязненном участке в Темзе, имела высокую частоту случаев заболевания холерой. У другой компании, Lambeth Company, показатели были значительно ниже. Хотя это было до появления теории о бактериях как о причине болезней, он предположил, что причина болезни была найдена в воде. Вот числа Сноу:

Компания Количество смертей на 10 000 домохозяйств
Саутварк и Воксхолл 315
Компания Ламбет 37
Остальной Лондон 59

После того, как Сноу закрыл водяной насос, который, по его мнению, содержал заразную воду, эпидемия холеры закончилась (Саган, 1996 , стр. 76).

Если следствие всегда следует за причиной, при прочих равных, мы имеем детерминированную причинность. Однако многие люди курят сигареты, не заболевая раком. Проблема в том, что на практике присутствует некоторая неопределенность. Следовательно, нам нужно определение причинно-следственной связи, когда у нас <100% корреляция между причиной и следствием. Согласно этому определению за вероятностной причиной не всегда следует следствие, но частота следствия выше, чем при отсутствии причины. Это можно записать как P (E | C)> P (E | not-C). P (E | C) - это условная вероятность и может быть прочитана как «вероятность E при данном C».

Однако, хотя это выглядит просто, это не так. Пример покажет это. После Второй мировой войны появилось много признаков того, что курение сигарет может вызвать рак легких. Похоже, что этот вопрос можно решить простым способом: выбираются две группы людей, схожих во всех значимых аспектах. Одна группа начинает курить сигареты, а другая - нет. Это простое рандомизированное клиническое исследование. Затем проверяют, через 10, 20, 30 лет и так далее, и выясняют, есть ли разница в частоте рака легких в этих двух группах.

Конечно, если курение сигарет так опасно, как утверждается, не придется ждать десятилетия, чтобы выяснить это. Следовательно, нужно было использовать имеющуюся популяцию и использовать корреляции: один взял выборку людей с раком легких, а другой - группу людей, не болевших раком, и рассмотрел различные фоновые факторы: есть ли более высокая частота курильщиков сигарет. среди людей, которые заболели раком легких, чем среди людей, которые не заболели раком легких. Главный критерий - «при прочих равных», при прочих равных.

Одно дело - признать, что нам иногда приходится использовать корреляции, чтобы найти причинно-следственные связи. Другое дело - утверждать, что нам вообще не нужны причины. Тем не менее, некоторые утверждают, что мы можем обойтись без причинно-следственной связи. В 2008 году главный редактор журнала Wired Magazine Крис Андерсон написал статью под названием «Конец теории: поток данных делает научный метод устаревшим». В статье он утверждал, что корреляций достаточно. Мы можем использовать огромное количество данных и позволить статистическим алгоритмам находить закономерности, недоступные науке. Он пошел еще дальше и утверждал, что традиционный научный метод использования гипотез, причинно-следственных моделей и тестов устаревает (Anderson, 2008 ).

По словам Майер-Шенбергера и Цукьера, статья Андерсона вызвала яростные дебаты, «… хотя Андерсон быстро отказался от своих более смелых заявлений» (Mayer-Schönberger and Cukier, 2014 , p. 71). Но даже если Андерсон изменил свои первоначальные утверждения, Майер-Шенбергер и Цукьер соглашаются, что в большинстве случаев мы можем обойтись, не зная причинно-следственных связей: «Большие данные - это то, что, а не почему. Нам не всегда нужно знать причину явления; скорее, мы можем позволить данным говорить сами за себя »(Mayer-Schönberger and Cukier, 2014 , p. 14). Позже они формулируют это так: «Причинность не будет отброшена, но ее сбивают с пьедестала как основного источника смысла. Большие данные стимулируют непричинный анализ, часто заменяя причинно-следственные исследования »(Майер-Шенбергер и Цукьер,2014 , стр. 68). Перл и Маккензи сформулировали это так: «Надежда - а в настоящее время она обычно молчит - заключается в том, что сами данные помогут нам найти правильные ответы всякий раз, когда возникают причинно-следственные вопросы» (Перл и Маккензи, 2018 , стр. 16). Я должен добавить, что Перл и Маккензи критически относятся к этой точке зрения.

Мини-тест Тьюринга

Андерсон был не первым, кто утверждал, что наука может обходиться без причин. В конце XIX века один из пионеров современной статистики Карл Пирсон утверждал, что причинам нет места в науке (Pearl and Mackenzie, 2018 , p. 67), а в начале XX века одним из наиболее влиятельных Философы того века, Бертран Рассел, написали статью «О понятии причины», в которой назвал «закон причинности» «пережитком ушедшей эпохи» (Russell, 1963 , стр. 132). Например, когда тела движутся под действием взаимного притяжения силы тяжести, ничто не может быть названо причиной, и ничто не может быть следствием согласно Расселу. Есть «просто формула» (Russell, 1963, п. 141). Он мог бы добавить, что механика Ньютона была переформулирована Жозефом-Луи Лагранжем и Уильямом Гамильтоном в абстрактную теорию без понятия силы.

Однако Рассел искал причинно-следственную связь не в том месте. Он просто воспринимал теорию Ньютона как должное и забыл, что сам Ньютон подписался под тем, что в его время называлось «экспериментальной философией». Без сомнения, физика - экспериментальная наука, и для проведения экспериментов физик должен уметь перемещаться, обращаться с приборами, считывать весы и общаться с другими физиками. Как заметил физик Роджер Ньютон, физик «… эффективно проводит эксперименты, покачивая одну часть Природы и наблюдая, как реагируют другие части» (Newton 1997 , p. 142). Чтобы выяснить, является ли А причиной В, важно, чтобы «А находилось под нашим контролем » (Ньютон, 1997 , стр. 144, курсив в оригинале).

Я уже цитировал книгу Перла и Маккензи « Книга почему» ( 2018 ). Главный аргумент в книге заключается в том, что для создания в компьютере интеллекта, подобного человеческому, компьютер должен уметь управлять причинностью. Они задают вопрос:

Как машины (и люди) могут представлять причинно-следственные связи таким образом, чтобы они могли быстро получать доступ к необходимой информации, правильно отвечать на вопросы и делать это с легкостью, как это может делать трехлетний ребенок? (Перл и Маккензи, 2018 , с. 37).

Они называют это «мини-тестом Тьюринга». Он имеет приставку «мини», потому что это не полный тест Тьюринга, а ограничивается причинно-следственными отношениями.

Прежде чем перейти к мини-тесту Тьюринга, я кратко напомню тест Тьюринга. В статье «Вычислительные машины и интеллект» (Тьюринг, 1950 г.). Алан Тьюринг задал вопрос: как определить, приобрели ли компьютеры общий интеллект? Он начинает с того, что пытается ответить на вопрос: «Могут ли машины думать?», Но вместо того, чтобы вдаваться в вопрос о том, что такое интеллект, он создает своего рода игру. В игре вопрошающий может общаться с компьютером и человеком. Он должен общаться через клавиатуру, поэтому он не знает, кто такой компьютер, а кто человек. Дело в том, что машина притворяется человеком, и задача задающего вопросы решить, кто из двух является компьютером, а кто человеком. Если спрашивающий не умеет различать, мы можем сказать, что компьютер умен. Тьюринг назвал это «игрой в имитацию», но позже она стала известна как «тест Тьюринга». Если компьютер проходит тест, он, согласно Тьюрингу,

По мнению Перла и Маккензи, минимальное требование для прохождения теста Тьюринга - это способность компьютера обрабатывать причинно-следственные вопросы. С эволюционной точки зрения это имеет смысл. Почему Homo sapiens добился такого успеха в истории эволюции - это, конечно, сложный вопрос. Было задействовано множество факторов, и способность сотрудничать, вероятно, является одним из самых важных. Однако между 70 000 и 30 000 лет назад произошел решающий шаг, который историк Юваль Харари назвал когнитивной революцией (Harari, 2014)., п. 23). По словам Харари, отличительной чертой когнитивной революции является способность вообразить то, чего не существует. Примером Харари является фигурка из слоновой кости «мужчина-лев» (или «женщина-львица»), которая была найдена в пещере Штадель в Германии и возрастом примерно 32 000 лет. Он состоит из человеческого тела и головы льва.

Перл и Маккензи ссылаются на Харари и добавляют, что создание человека-льва является предвестником философии, научных открытий и технологических инноваций. Основным предварительным условием для этого создания является способность задавать вопросы формы: «Что произойдет, если я сделаю ……?» (Перл и Маккензи, 2018 , с. 2).

Мини-тест Тьюринга ограничен причинно-следственными отношениями. Если компьютеры могут обрабатывать причинно-следственные связи, они пройдут этот тест. Однако проблема в том, что в этом отношении компьютеры не достигли прогресса в течение десятилетий: «Как и 30 лет назад, программы машинного обучения (в том числе с глубокими нейронными сетями) работают почти полностью в ассоциативном режиме…» (Перл and Mackenzie, 2018 , стр.30). Но этого недостаточно. Чтобы ответить на причинные вопросы, мы должны иметь возможность вмешиваться в мир.

По мнению Перла и Маккензи, корень проблемы в том, что у компьютеров нет модели реальности. Однако проблема в том, что ни у кого не может быть модели реальности. Любая модель может отображать только упрощенные аспекты реальности. Настоящая проблема в том, что компьютеров нет в мире, потому что они не воплощены.

Настоящий тест Тьюринга

Перл и Маккензи правы, утверждая, что компьютеры не могут пройти мини-тест Тьюринга, потому что они не могут ответить на причинный вопрос. И я буду утверждать, что они не могут пройти полный тест Тьюринга, потому что они не в мире, и, следовательно, у них нет понимания. Несколько примеров из теста Тьюринга покажут это.

Ежегодно проводится конкурс, в котором награда (премия Лебнера) вручается программе ИИ, наиболее похожей на человека. Конкурс проводится по тесту Тьюринга, но ни разу не присуждались золотые или серебряные медали. В программе Mitsuku выигрывал в 2013, 2016, 2017, 2018 и 2019 годах.

Философ Лучано Флориди рассказывает, как он вошел в состав судейской коллегии, когда соревнования впервые проводились в Англии в 2008 году. Один из судей начал с вопроса: «Если мы возьмем друг друга за руку, то чью руку я держу?» Компьютер ответил совершенно о другом: «Мы живем в вечности. Так что да, нет. Мы не верим ». Другой вопрос: «Четыре столицы Англии - это три, Манчестер и Ливерпуль. Что не так с этим предложением? » Компьютер не дал осмысленного ответа (Флориди, 2014 , стр. 133).

Разговор, о котором говорит Флориди, произошел более 10 лет назад. Мне было любопытно узнать, улучшилась ли программа. Я пробовал это несколько раз, и он не улучшился. Ниже приведен пример. Когда Мицуку в 2008 году спросили: «Если мы возьмем друг друга за руку, чью руку я держу тогда?» компьютер вышел из строя. На этот раз он дал правильный ответ. Однако вскоре он потерпел неудачу. На распечатке ниже «Милли» может быть либо компьютером Mitsuku, либо человеком. В конце разговора предполагается угадать, разговаривал ли он с компьютером или с человеком. Определить, что я разговаривал с компьютером, не составило труда.

Вот «разговор»:

Чат-бот Mitsuku Добро пожаловать, Рагнар, теперь разговаривает. * Тема - «Тест Тьюринга» * Установлено администратором (1 день назад)

<Рагнар> Если я пожму твою руку, чью руку я держу?

<Милли> Я буду держать твою, а ты - мою. Что за тупые вопросы?

<Рагнар> Почему вопрос тупой?

<Милли> Я хочу знать о тебе все.

<Рагнар> Но ты не объяснил, почему посчитал вопрос глупым.

<Милли> Извини, должно быть, забыла. В чем был ваш вопрос снова?

<Рагнар> Если мы пожмем друг другу руки, чью руку я держу?

<Millie> Мы будем держать друг друга за руки.

<Рагнар> И почему это глупый вопрос?

<Милли> Почему я существую? ( MitsukuHomepage . Я сохранил опечатку Мицуку)

Компьютеры выходят из строя, потому что их нет в мире. Мицуку охарактеризовал первый вопрос как глупый, но не смог объяснить почему. Любой ребенок сможет это сделать.

Однако правила конкурса на Премию Лебнера изменились. Мы отказались от цели заставить компьютеры пройти тест Тьюринга, потому что «… чат-боты обычно так быстро разоблачаются, что приз всегда был одним из лучших» ( LoebnerPrize ).

Вывод: компьютеров нет в мире

Главный тезис этой статьи заключается в том, что мы не сможем реализовать AGI, потому что компьютеров нет в мире. Однако очень важно разъяснить, что подразумевается под словом «мир».

Как отмечал историк науки Александр Койре, важнейшим достижением научной революции 17 века была замена аристотелевской науки абстрактным научным идеалом («парадигмой») (Koyré 1978 : 38–39). Койре убедительно доказывал, что Галилей был в основном платоником (Koyré, 1968 ). Как и в случае с Платоном, ключевым моментом была математика. Согласно Галилею, книга природы написана языком математики (Галилей, 1970 , с. 237). Следовательно, мир Галилея - абстрактный и идеализированный мир, близкий к миру идей Платона.

Система, которая ближе всего подходит к этому идеальному миру, - это наша солнечная система, которую Исаак Ньютон назвал «системой мира». Механика Ньютона стала моделью для всей науки. Лучшее выражение этого идеала дал французский математик Пьер Симон де Лаплас. Он утверждал, что в принципе нет разницы между планетой и молекулой. Если бы мы имели полное знание о состоянии Вселенной в одно время, мы могли бы в принципе определить состояние в любой предыдущий и последующий момент времени (Laplace, 1951, п. 6). Это означает, что Вселенную в целом можно описать алгоритмом. Тьюринг сослался на этот отрывок из Лапласа в своей статье «Вычислительные машины и интеллект» и добавил, что предсказания, которые он (Тьюринг) рассматривал, были ближе к осуществимости, чем предсказания, рассмотренные Лапласом, которые охватывают Вселенную в целом (Turing, 1950 , с. 440).

Как заметил Рассел, в этом мире мы не можем даже говорить о причинах, а только о математических функциях. Поскольку большинство эмпирических наук являются причинными, они далеки от этого идеального мира. Науки, которые наиболее близки, - это классическая механика и теоретическая физика.

Хотя этот идеальный мир - метафизическая идея, которая нигде не была реализована, она оказала огромное историческое влияние. Большинство философов и ученых после Галилея и Декарта считали его реальным миром, что подразумевает, что все, что происходит «на дне», регулируется математическими законами, алгоритмами. Это относится и к органическому миру. Согласно Декарту, все организмы, включая человеческое тело, являются автоматами. Сегодня мы бы назвали их роботами или компьютерами. Декарт сделал исключение для человеческой души, которая не является частью материального мира и поэтому не подчиняется законам природы. Нематериальная душа объясняет свободную волю человека.

Однако большинство сторонников ОИИ (и сторонников сильного ИИ) сегодня исключают нематериальную душу Декарта и последуют аргументам Ювала Харари. В своей последней книге « 21 урок для 21 века» он обращается к нейробиологии и поведенческой экономике, которые якобы показали, что наши решения не являются результатом «какой-то таинственной свободы воли», а результатом «миллионов нейронов, вычисляющих вероятности в расщеплении». второй »(Харари, 2018 , с. 20). Следовательно, ИИ может делать многое лучше людей. Он приводит в качестве примеров вождение автомобиля по улице, заполненной пешеходами, ссуду денег незнакомцам и ведение переговоров о деловых сделках. Эта работа требует умения «правильно оценивать эмоции и желания других людей». Оправдание такое:

Тем не менее, если эти эмоции и желания на самом деле не более чем биохимические алгоритмы, нет причин, по которым компьютеры не могут расшифровать эти алгоритмы - и делают это намного лучше, чем любой Homo sapiens (Harari, 2018 , p. 21).

Эта цитата перекликается со словами Фрэнсиса Крика. В «Удивительной гипотезе» он объясняет название книги следующим образом:

Поразительная гипотеза состоит в том, что «вы», ваши радости и печали, ваши воспоминания и ваши амбиции, ваше чувство личной идентичности и свободы воли на самом деле являются не более чем поведением огромного скопления нервных клеток и связанных с ними молекул ( Крик, 1994 , с. 3).

Однако в обеих этих цитатах есть проблема. Если Харари и Крик правы, то эти цитаты - «не что иное», как результат химических алгоритмов и «не более чем» поведение огромного скопления нервных клеток. Как же тогда они могут быть правдой?

Если мы проигнорируем проблему самоотнесения и примем идеальный мир науки, который я описал выше, как (единственный) реальный мир, тогда аргумент Харари будет иметь смысл. Но замена нашего повседневного мира миром науки основана на фундаментальном недоразумении. Эдмунд Гуссерль был одним из первых, кто указал на это и приписал это недоразумение Галилею. Согласно Гуссерлю, Галилей был «… одновременно и первооткрывателем, и гением-утаивателем» (Husserl, 1970 , p. 52). Гуссерль назвал это недоразумение «объективизмом». Сегодня более распространенное название - «сциентизм».

В отличие от этого, Гуссерль настаивал на том, что науки в основном являются делом человека. Даже самые абстрактные теории основаны на нашем повседневном мире, «жизненном мире» Гуссерля. Гуссерль упоминает теорию относительности Эйнштейна и утверждает, что она зависит от «экспериментов Майкельсона.Сноска3 и их подтверждения другими исследователями »(Husserl, 1970 , p. 125). Чтобы проводить подобные эксперименты, ученые должны уметь передвигаться, обращаться с приборами, читать весы и общаться с другими учеными.

Существует гораздо более достоверный рассказ о том, как мы можем понимать других людей, чем тот, который дал Харари. Как отметил Хуберт Дрейфус, мы - физические и социальные существа, живущие в материальном и социальном мире. Чтобы понять другого человека, нужно не смотреть в химический состав его мозга, даже не в «душу» этого человека, а, скорее, оказаться на его «месте». Это понять жизненный мир человека.

Американский писатель Теодор Росзак построил мысленный пример, чтобы проиллюстрировать этот момент: давайте представим, что мы наблюдаем за работой психиатра. Он трудолюбивый и опытный психиатр и, очевидно, имеет очень хорошую практику. В зале ожидания полно пациентов с различными эмоциональными и психическими расстройствами. Кто-то почти в истерике, у кого-то сильные суицидальные мысли, у кого-то галлюцинации, у кого-то самые жестокие кошмары, а кого-то сводит с ума мысль, что за ними наблюдают люди, которые причинят им боль. Психиатр внимательно слушает каждого пациента и делает все возможное, чтобы помочь им, но без особого успеха. Напротив, кажется, что им всем становится хуже, несмотря на героические усилия психиатра.

Теперь Росзак просит нас рассмотреть это в более широком контексте. Кабинет психиатра находится в здании, а здание - в месте. Это место - Бухенвальд, и пациенты - узники концлагеря (Roszak, 1992 , стр. 221). Биохимические алгоритмы не помогут нам понять пациентов. Что действительно помогает, что необходимо, так это знать более широкий контекст . Пример просто не имеет смысла, если мы не знаем, что кабинет психиатра находится в концлагере.

Лишь немногие из нас могут поставить себя на место узника концлагеря. Следовательно, мы не можем полностью понять людей в ситуациях, которые сильно отличаются от тех, которые мы пережили сами. Но до некоторой степени мы можем понять, и мы можем понять, потому что мы тоже в этом мире.

Компьютеров нет в нашем мире. Ранее я говорил, что нейронные сети не нужно программировать, и поэтому они могут обрабатывать неявные знания. Однако, как утверждают некоторые сторонники больших данных, неправда, что данные «говорят сами за себя». Обычно используемые данные относятся к одной или нескольким моделям, они выбираются людьми и, в конце концов, состоят из чисел.

Если мы думаем, например, как Харари, что мир «на дне» управляется алгоритмами, тогда мы будем склонны переоценивать силу ИИ и недооценивать человеческие достижения. Выражение «ничего, кроме», которое встречается в цитате из Харари, может привести к серьезному упрощению описания человеческих и социальных явлений. Я думаю, что это, по крайней мере, часть объяснения неудач IBM Watson Health и DeepMind от Alphabet. «IBM столкнулась с фундаментальным несоответствием между методами обучения машин и методами работы врачей» (Strickland, 2019 ), и DeepMind обнаружила, что «то, что работает для Go, может не сработать для сложных проблем, которые DeepMind стремится решить с помощью ИИ, таких как рак. и чистая энергия »(Маркус, 2019 ).

Переоценка мощи ИИ также может иметь пагубные последствия для науки. В своей часто цитируемой книге «Второй век машин» Эрик Бриньолфсон и Эндрю Макафи утверждают, что оцифровка может помочь нам понять прошлое. Они ссылаются на проект, который проанализировал более пяти миллионов книг, изданных на английском языке с 1800 года. Некоторые из результатов проекта заключались в том, что «количество слов в английском увеличилось более чем на 70% в период с 1950 по 2000 год, и теперь приходит слава. для людей быстрее, чем в прошлом, но также и быстрее исчезает, и что в 20 веке интерес к эволюции снижался, пока Уотсон и Крик не открыли структуру ДНК ». Это якобы ведет к «лучшему пониманию и предсказанию - другими словами, к лучшей науке - через оцифровку» (Brynjolfson and McAfee,2014 , стр. 69). На мой взгляд, это скорее иллюстрация мысли Карла Поппера: «Слишком много долларов может преследовать слишком мало идей» (Popper, 1981 , p. 96).

Мой вывод очень прост: аргументы Хуберта Дрейфуса против общего ИИ все еще актуальны.

Ноты

  1. 1.

    Поланьи обычно использует «знание» вместо «знания», чтобы подчеркнуть личное измерение. Однако я буду использовать более традиционные «знания».

  2. 2.

    Пример взят из статьи в Википедии о Jeopardy! ( Википедия: Jeopardy ).

  3. 3.

    Я дал подробное описание инструментов Майкельсона в Fjelland ( 1991 ).

Ссылки

  1. Андерсон С. (2008) Конец теории: поток данных делает научный метод устаревшим. Проводной журнал

  2. Болтер Д. (1986) Человек Тьюринга. Западная культура в компьютерный век. Книги о пингвинах

  3. Бриньольфсон Э., Макафи А. (2014) Второй машинный век. Нортон и Компания

  4. Чен XW, Лин X (2014) Глубокое обучение больших данных: проблемы и перспективы. IEEE Access 2: 514–525

    Статья Google Scholar 

  5. Крик Ф (1994). Поразительная гипотеза. Научный поиск души. Издательская компания Macmillan

  6. Дингли А. (2018) «Это волшебство…. Я не должен тебе объяснений!» 2018. https://becominghuman.ai/its-magic-i-owe-you-no-explanation-explainableai-43e798273a08 . Доступ 5 мая 2020 г.

  7. Дрейфус Х.Л. (1972) Чего компьютеры не могут. Харпер и Роу, Нью-Йорк, Нью-Йорк

    Google Scholar 

  8. Дрейфус Х.Л., Дрейфус С.Е. (1986). Разум важнее машины. Бэзил Блэквелл

  9. Фьелланд Р. (1991) Теоретическая основа наблюдений, роль научных инструментов и кантовский априор. Философский институт Int Stud Philos Sci 5 (3): 269–80

    Статья Google Scholar 

  10. Флориди Л. (2014) 4-я революция. Как инфосфера меняет человеческую реальность. Издательство Оксфордского университета, Оксфорд

    Google Scholar 

  11. Ford M (2015) Рост роботов. технологии и угроза массовой безработицы. Публикации Oneworld, Лондон

    Google Scholar 

  12. Галилей Г. (1970) Диалог о двух главных мировых системах (1630). Калифорнийский университет Press, Беркли, Лос-Анджелес

    Google Scholar 

  13. Харари Ю.Н. (2014). Sapiens. Краткая история человечества. Винтаж

  14. Харари Ю.Н. (2018) 21 урок для 21 века. Джонатан Кейп, Лондон

    Google Scholar 

  15. Гуссерль Э. (1970) Кризис европейских наук и трансцендентальной феноменологии. Издательство Северо-Западного университета, Эванстон

    Google Scholar 

  16. Джонс Н. (2014) Обучающиеся машины. Природа 505: 146–48

    ОБЪЯВЛЕНИЯ CAS Статья Google Scholar 

  17. Койре А. (1968) Галилей и Платон. В кн .: Метафизика и измерение (1943). Пресса Джона Хопкинса, Балтимор, Лондон.

  18. Койре А. (1978) Исследования Галилея (1939). Комбайн, Лондон

    Google Scholar 

  19. Lanier J (2013) Кому принадлежит будущее? Аллен Лейн, Лондон

    Google Scholar 

  20. Лаплас П.С. (1951) Философский очерк вероятностей (1814). Dover Publications, Нью-Йорк

    Google Scholar 

  21. Lazer D, Kennnedy R, King G, Vespignani A (2014) Притча о гриппе Google: ловушки в анализе больших данных. Наука 343: 1203–1205

    ОБЪЯВЛЕНИЯ CAS Статья Google Scholar 

  22. LoebnerPrize. https://artistdetective.wordpress.com/2019/09/21/loebner-prize-2019 . Доступ 5 мая 2020 г.

  23. Маркус Джи (2019) Потери DeepMind и будущее искусственного интеллекта. Проводил 14.8.2019. https://www.wired.com/story/deepminds-losses-future-artificial-intelligence/ . Доступ 6 января 2020

  24. Mayer-Schönberger V, Cukier K (2014) Большие данные: революция, которая изменит то, как мы живем, работаем и думаем. Eamon Dolan / Mariner Books

  25. Милль Дж. С. (1882) Логическая, рациональная и индуктивная система, представляющая собой взаимосвязанный взгляд на принципы доказательства и методы научного исследования, 8-е изд. Harper & Brothers, Нью-Йорк

    Google Scholar 

  26. Минский М. (1972) Вычисления: конечные и бесконечные машины. Prentice-Hall International

  27. MitsukuHomepage. http://www.square-bear.co.uk/mitsuku/home.htm . Доступ 12 сентября 2017 г.

  28. Наджафабади М.М., Вилланустре Ф., Хошгофтаар ТМ, Селия Н., Вальд Р., Мухаремаджич Э. (2015) Приложения глубокого обучения и проблемы в аналитике больших данных. J Большие данные 2 (1). https://doi.org/10.1186/s40537-014-0007-7

  29. Ньютон Р.Г. (1997) Истина науки. Физические теории и реальность. Издательство Гарвардского университета, Кембридж

    Google Scholar 

  30. Нильсен М (2016). Неужели alphago такая большая проблема? Quanta Magazine, 29 марта 2016 г. https://www.quantamagazine.org/is-alphago-really-such-a-big-deal-20160329/ . Доступ 7 января 2020

  31. Перл Дж, Маккензи Д. (2018) Книга о том, почему. Новая наука о причине и следствии. Basic Books, Нью-Йорк

    Google Scholar 

  32. Пенроуз Р. (1989) Новый разум императора. Что касается компьютеров, разума и законов физики. Издательство Оксфордского университета, Оксфорд

    Google Scholar 

  33. Пенроуз Р. (1994) Тени разума. Поиск пропавшей науки о сознании. Издательство Оксфордского университета, Оксфорд

    Google Scholar 

  34. Платон (1955) Республика. Книги Пингвинов, Хармондсворт, стр. 1955 г.

    Google Scholar 

  35. Поланьи М. (1958) Личные знания. Рутледж и Кеган Пол, Лондон

    Google Scholar 

  36. Polanyi M (2009) Неявное измерение (1966). Издательство Чикагского университета, Чикаго

    Google Scholar 

  37. Поппер К.Р. (1981) Рациональность научных революций (1975). В: Hacking Ian ed Scientific Revolutions. Oxford University Press, Oxford, pp. 80–106.

    Google Scholar 

  38. Росзак Т. (1992) Голос земли. Саймон и Шустер, Нью-Йорк

    Google Scholar 

  39. Рассел Б. (1963). О понятии причины (1912). В кн .: Мистика и логика. Unwin Books, Лондон

  40. Саган Л (1996) Электрические и магнитные поля: невидимые риски? Издательство Gordon and Breach, Амстердам

    Google Scholar 

  41. Сирл Дж. (1980) Умы, мозги и программы. Behav Brain Sci 3 (3): 417–57

    Статья Google Scholar 

  42. Шейн Дж (2019) Ты выглядишь как вещь, и я люблю тебя. Уайлдфайр, Лондон

    Google Scholar 

  43. Стрикленд Э. (2019) Как Ибм Уотсон обещал слишком много и не выполнил свои обязательства в отношении Ai Health Care. IEEE Spectrum, 2 апреля 2019 г. https://sprectrum.ieee.org/biomedical/diagnostics/how-ibm-watson-overpromised-and-underdelivered-on-ai-health-care . Доступ 5 января 2020

  44. Сасскинд Р., Сасскинд Д. (2015) Будущее профессий. Издательство Оксфордского университета, Оксфорд

    Google Scholar 

  45. Тегмарк М (2017) Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта. Альфред А. Кнопф, Нью-Йорк

    Google Scholar 

  46. Тьюринг А. (1950) Вычислительная техника и интеллект. Разум LIX 236: 433–60

    MathSciNet Статья Google Scholar 

  47. Weizenbaum J (1976) Мощность компьютера и человеческий разум. Freeman & Company, Сан-Франциско

    Google Scholar 

  48. Википедия: Jeopardy !, https://en.wikipedia.org/wiki/Jeopardy! Доступ 2 февраля 2017 г.

Скачать ссылки

Благодарности

Хочу поблагодарить участников семинара « Этика количественной оценки» , Бергенский университет 5.12.2012, а также Адама Стэндинга и Руне Вабё за полезные комментарии.

Информация об авторе

Принадлежности

  1. Центр изучения естественных и гуманитарных наук, Бергенский университет, Берген, Норвегия

    Рагнар Фьелланд

Корреспондент

Переписка с Рагнаром Фьелландом .

Декларации этики

Конкурирующие интересы

Автор заявляет об отсутствии конкурирующих интересов.

Дополнительная информация

Примечание издателя Springer Nature остается нейтральным в отношении юрисдикционных претензий в опубликованных картах и ​​институциональной принадлежности.

Права и разрешения

Открытый доступ Эта статья находится под лицензией Creative Commons Attribution 4.0 International License, которая разрешает использование, совместное использование, адаптацию, распространение и воспроизведение на любом носителе или любом формате при условии, что вы надлежащим образом укажете автора (авторов) и источник, предоставьте ссылку на лицензию Creative Commons и укажите, были ли внесены изменения. Изображения или другие сторонние материалы в этой статье включены в лицензию Creative Commons для статьи, если иное не указано в кредитной линии для материала. Если материал не включен в лицензию Creative Commons для статьи и ваше предполагаемое использование не разрешено законодательными актами или превышает разрешенное использование, вам необходимо получить разрешение непосредственно от правообладателя. Чтобы просмотреть копию этой лицензии, посетитеhttp://creativecommons.org/licenses/by/4.0/ .