Философия искусственного интеллекта

Материал из wikixw
Перейти к навигации Перейти к поиску

См. также: Этика искусственного интеллекта

Философия искусственного интеллекта - это раздел философии технологии, который исследует искусственный интеллект и его значение для познания и понимания интеллекта, этики, сознания, эпистемологии и свободы воли. Кроме того, технология связана с созданием искусственных животных или искусственных людей (или, по крайней мере, искусственных существ; см. Искусственная жизнь), поэтому дисциплина представляет значительный интерес для философов. Эти факторы способствовали появлению философии искусственного интеллекта. Некоторые ученые утверждают, что отрицание философии сообществом ИИ наносит ущерб.

Философия искусственного интеллекта пытается ответить на такие вопросы следующим образом:

Может ли машина действовать разумно? Может ли он решить любую проблему, которую человек решил бы с помощью мышления?

  • Человеческий интеллект и машинный интеллект - это одно и то же? Является ли человеческий мозг по сути компьютером?
  • Может ли машина обладать разумом, ментальными состояниями и сознанием в том же смысле, что и человек? Может ли он чувствовать, как обстоят дела?
  • Подобные вопросы отражают различные интересы исследователей ИИ, когнитивистов и философов соответственно. Научные ответы на эти вопросы зависят от определения "интеллекта" и "сознания" и от того, какие именно "машины" обсуждаются.

Важные положения в философии ИИ включают некоторые из следующих:

  • "Вежливое соглашение" Тьюринга</a>: если машина ведет себя так же разумно, как человек, то она так же разумна, как и человек.<a></a>
  • Дартмутское предложение</a>: "Каждый аспект обучения или любую другую особенность интеллекта можно описать настолько точно, что можно создать машину для его имитации".<a>[6]</a>
  • Гипотеза физической символьной системы</a> <a>Аллена Ньюэлла</a> и <a>Герберта А. Саймона</a>: "Система физических символов обладает необходимыми и достаточными средствами общего интеллектуального действия".<a></a>
  • Сильная гипотеза ИИ Джона Сирла: "Соответственно запрограммированный компьютер с правильными входами и выходами, таким образом, будет обладать разумом в том же смысле, в каком разум есть у людей".
  • Механизм Гоббса: "Для "разума" ... это не что иное, как "подсчет", то есть сложение и вычитание последствий общих имен, согласованных для "обозначения" и "обозначения" наших мыслей ..."

Может ли машина демонстрировать общий интеллект?[править]

  • Возможно ли создать машину, которая сможет решать все проблемы, которые люди решают с помощью своего интеллекта? Этот вопрос определяет масштабы того, что машины могут делать в будущем, и определяет направление исследований в области ИИ. Это касается только поведения машин и игнорирует вопросы, представляющие интерес для психологов, когнитивистов и философов; чтобы ответить на этот вопрос: имеет ли значение, действительно ли машина думает так, как думает человек, а не просто выдает результаты, которые кажутся результатом мышления?

Основная позиция большинства исследователей ИИ суммируется в этом заявлении, которое появилось в предложении для Дартмутского семинара 1956 года:

"Каждый аспект обучения или любую другую особенность интеллекта можно описать настолько точно, что можно создать машину для его имитации".

  • Аргументы против основной предпосылки должны показать, что построение работающей системы ИИ невозможно, потому что существует некоторый практический предел возможностей компьютеров или что существует какое-то особое качество человеческого разума, которое необходимо для разумного поведения и все же не может быть воспроизведено машиной (или методами текущих исследований ИИ). Аргументы в пользу основной предпосылки должны показать, что такая система возможна.

Также можно обойти связь между двумя частями приведенного выше предложения. Например, машинное обучение, начиная с печально известного предложения Тьюринга о дочерней машине , по сути, достигает желаемой характеристики интеллекта без точного описания во время разработки того, как именно это будет работать. Учет неявного знания робота устраняет необходимость в точном описании всего вместе.

Первым шагом к ответу на вопрос является четкое определение "интеллекта".

Интеллект[править]

"Стандартная интерпретация" теста Тьюринга

Тест Тьюринга[править]

Основная статья: Тест Тьюринга

Алан Тьюринг свел проблему определения интеллекта к простому вопросу о разговоре. Он предполагает, что: если машина может ответить на любой заданный ей вопрос, используя те же слова, что и обычный человек, тогда мы можем назвать эту машину разумной. В современной версии его экспериментального проекта использовалась бы онлайн-комната чата, где один из участников - реальный человек, а другой - компьютерная программа. Программа проходит тест, если никто не может сказать, кто из двух участников является человеком.[5] Тьюринг отмечает, что никто (кроме философов) никогда не задает вопрос "могут ли люди думать?" Он пишет: "вместо того, чтобы постоянно спорить по этому вопросу, обычно существует вежливое соглашение, которое все считают".Тест Тьюринга распространяет это вежливое соглашение на машины:

Если машина действует так же разумно, как и человек, то она так же разумна, как и человек.

  • Критика теста Тьюринга заключается в том, что он измеряет только "человечность" поведения машины, а не "интеллект" поведения. *Поскольку человеческое поведение и разумное поведение - не совсем одно и то же, тест не позволяет измерить интеллект. Стюарт Рассел и Питер Норвиг пишут, что "в текстах по авиационной технике цель их области не определяется как "создание машин, которые летают так точно, как голуби, что они могут обманывать других голубей"".

Определение интеллектуального агента[править]

Простой рефлекторный агент

Исследования ИИ двадцать первого века определяют интеллект в терминах интеллектуальных агентов. "Агент" - это нечто, что воспринимает окружающую среду и действует в ней. "Показатель эффективности" определяет, что считается успехом для агента.

"Если агент действует так, чтобы максимизировать ожидаемую ценность показателя эффективности, основанного на прошлом опыте и знаниях, тогда он разумен".

  • Определения, подобные этому, пытаются уловить суть интеллекта. Их преимущество в том, что, в отличие от теста Тьюринга, они также не проверяют на неразумные человеческие черты, такие как опечатки или способность быть оскорбленным.[20]У них есть недостаток, заключающийся в том, что они могут не различать "вещи, которые думают", и "вещи, которые этого не делают". Согласно этому определению, даже термостат обладает рудиментарным интеллектом.

Аргументы в пользу того, что машина может демонстрировать общий интеллект[править]

Мозг можно смоделировать[править]

Основная статья: Искусственный мозг

Хьюберт Дрейфус описывает этот аргумент как утверждение, что "если нервная система подчиняется законам физики и химии, которые у нас есть все основания предполагать, что это так, то ... <a></a> Моделирование таламокортикальной модели, имеющей размер человеческого мозга (1011 нейронов), не в реальном времени, было выполнено в 2005 году<a></a>, и потребовалось 50 дней, чтобы смоделировать 1 секунду динамики мозга на кластере из 27 процессоров. должен быть способен воспроизводить поведение нервной системы с помощью некоторого физического устройства".Джон СирлАвиационная инженерия<a></a> Таким образом, простое моделирование функционирования живого мозга само по себе было бы признанием невежества в отношении интеллекта и природы разума, подобно попытке построить реактивный авиалайнер, точно копируя живую птицу, перо за пером, без теоретического понимания <a>авиационной техники</a>.

Человеческое мышление - это обработка символов Редактировать раздел: Человеческое мышление - это обработка символовСистема физических символовОсновная статья: <a>Система физических символов</a>Аллен Ньюэлл
Герберт А. СаймонХьюберт Дрейфус и Джон Сирл) согласны с тем, что моделирование мозга теоретически возможно.[a] Однако Серл указывает, что, в принципе, все может быть смоделировано компьютером; таким образом, доведение определения до предела приводит к выводу, что любой процесс вообще технически можно считать "вычислением". "Мы хотели знать, что отличает разум от термостатов и печени", - пишет он. Таким образом, простое моделирование функционирования живого мозга само по себе было бы признанием невежества в отношении интеллекта и природы разума, подобно попытке построить реактивный авиалайнер, точно копируя живую птицу, перо за пером, без теоретического понимания авиационной техники.

Человеческое мышление - это обработка символов[править]

Основная статья: Система физических символов

В 1963 году <a>Аллен Ньюэлл</a> и <a>Герберт А. Саймон</a> предположили, что "манипулирование символами" является сутью как человеческого, так и машинного интеллекта. Они написали:

"Система физических символов обладает необходимыми и достаточными средствами общего интеллектуального действия".<a>[7]</a> Это утверждение очень сильное: оно подразумевает как то, что человеческое мышление является разновидностью манипулирования символами (потому что система символов необходима"Символы", которые обсуждали Ньюэлл, Саймон и Дрейфус, были словоподобными символами высокого уровня, которые непосредственно соответствуют объектам в мире, таким как <собака> и <хвост>. Большинство программ искусственного интеллекта, написанных между 1956 и 1990 годами, использовали этот символ. Современный ИИ, основанный на статистике и математической оптимизации, не использует высокоуровневую "обработку символов", которую обсуждали Ньюэлл и Саймон. Аргументы против обработки символовРаздел редактирования: Аргументы против обработки символов [<a>редактировать</a>]

"Разум можно рассматривать как устройство, работающее с битами информации в соответствии с формальными правилами".[32] "Символы", которые обсуждали Ньюэлл, Саймон и Дрейфус, были словоподобными и высокоуровневыми символами, которые непосредственно соответствуют объектам в мире, таким как <собака> и <хвост>. Большинство программ ИИ, написанных между 1956 и 1990 годами, использовали этот символ. Современный ИИ, основанный на статистике и математической оптимизации, не использует высокоуровневую "обработку символов", которую обсуждали Ньюэлл и Саймон.

Аргументы против обработки символов[править]

Эти аргументы показывают, что человеческое мышление не состоит (исключительно) из манипулирования символами высокого уровня. Они не показывают, что искусственный интеллект невозможен, только то, что требуется нечто большее, чем обработка символов.

Аргументы Геделя против механицизма[править]

Основная статья: Механизм (философия): аргументы Геделя

Роджер Пенроуз] Более умозрительно, Гедель предположил, что человеческий разум может в конечном итоге правильно определить истинность или ложность любого обоснованного математического утверждения (включая любое возможное утверждение Геделя), и что, следовательно, сила человеческого разума не сводима к механизму. Философ Джон Лукас (с 1961) и Роджер Пенроуз (с 1989) отстаивали этот философский антимеханический аргумент.

Аргументы геделевских антимеханистов, как правило, основаны на кажущемся безобидным утверждении, что система математиков-людей (или некоторая идеализация математиков-людей) одновременно последовательна (полностью свободна от ошибок) и полностью верит в свою собственную непротиворечивость (и может делать все логические выводы, которые следуют из ее собственной непротиворечивости, включая веру в утверждение Геделя)[требуется цитирование]. Это доказуемо невозможно для машины Тьюринга (см. Проблема остановки); следовательно, геделян приходит к выводу, что человеческое мышление слишком мощно, чтобы быть захваченным машиной Тьюринга и, следовательно, любым цифровым механическим устройством.

Однако современный консенсус в научном и математическом сообществе заключается в том, что фактические человеческие рассуждения непоследовательны; что любая последовательная "идеализированная версия" H человеческих рассуждений логически будет вынуждена принять здоровый, но нелогичный непредубежденный скептицизм в отношении согласованности H (в противном случае H доказуемо непоследователен); итеоремы Геделя не приводят к какому-либо обоснованному аргументу в пользу того, что люди обладают способностями к математическому мышлению, превосходящими те, которые когда-либо могла бы воспроизвести машина. Этот консенсус в отношении того, что аргументы Геделя против механицизма обречены на провал, четко изложен в "Искусственном интеллекте": "любая попытка использовать (результаты неполноты Геделя) для атаки на тезис о вычислительном подходе обречена на незаконность, поскольку эти результаты вполне согласуются с тезисом о вычислительном подходе".

Стюарт Рассел и Питер Норвиг согласны с тем, что аргумент Геделя не учитывает природу человеческого мышления в реальном мире. Это относится к тому, что теоретически может быть доказано, учитывая бесконечное количество памяти и времени. На практике реальные машины (включая людей) имеют ограниченные ресурсы и будут испытывать трудности с доказательством многих теорем. Не обязательно уметь все доказывать, чтобы быть умным человеком.

Менее формально Дуглас Хофштадтер в своей книге "Гедель, Эшер, Бах: вечная золотая коса", получившей Пулитцеровскую премию, утверждает, что эти "утверждения Геделя" всегда относятся к самой системе, проводя аналогию с тем, как парадокс Эпименида использует утверждения, которые относятся к самим себе, такие как "это утверждениеложь" или "я лгу". Но, конечно, парадокс Эпименида применим ко всему, что делает заявления, будь то машины или люди, даже сам Лукас. Рассмотрим:

Лукас не может утверждать истинность этого утверждения.

  • Это утверждение верно, но не может быть подтверждено Лукасом. Это показывает, что сам Лукас подвержен тем же ограничениям, которые он описывает для машин, как и все люди, и поэтому аргумент Лукаса бессмыслен.

Придя к выводу, что человеческое мышление невычислимо, Пенроуз продолжил спорное предположение о том, что некие гипотетические невычислимые процессы, включающие коллапс квантово-механических состояний, дают людям особое преимущество перед существующими компьютерами. Существующие квантовые компьютеры способны только уменьшить сложность вычисляемых по Тьюрингу задач и по-прежнему ограничены задачами в рамках машин Тьюринга.. Согласно аргументам Пенроуза и Лукаса, тот факт, что квантовые компьютеры способны выполнять только вычисляемые по Тьюрингу задачи, подразумевает, что их недостаточно для имитации человеческого разума.[необходима цитата] Поэтому Пенроуз ищет какой-то другой процесс, включающий новую физику, например квантовую гравитацию, которая могла бы проявить новую физику в масштабе планковской массы посредством спонтанного квантового коллапса волновой функции. Он предположил, что эти состояния возникают как внутри нейронов, так и охватывают более одного нейрона. Однако другие ученые отмечают, что в мозге нет правдоподобного органического механизма для использования любого вида квантовых вычислений, и, кроме того, временные рамки квантовой декогеренции кажутся слишком быстрыми, чтобы повлиять на запуск нейронов.

Дрейфус: первенство неявных навыков[править]

Основная статья: Взгляды Хьюберта Дрейфуса на искусственный интеллект

Хьюберт Дрейфус утверждал, что человеческий интеллект и опыт зависят в первую очередь от быстрых интуитивных суждений, а не от пошаговых символических манипуляций, и утверждал, что эти навыки никогда не будут отражены в формальных правилах.

Аргумент Дрейфуса был предвосхищен Тьюрингом в его работе 1950 года Вычислительная техника и интеллект, где он классифицировал это как "аргумент от неформальности поведения". Тьюринг утверждал в ответ, что только потому, что мы не знаем правил, которые управляют сложным поведением, это не означает, что таких правил не существует. Он писал: "Мы не можем так легко убедить себя в отсутствии полных законов поведения ... Единственный известный нам способ найти такие законы - это научное наблюдение, и мы, конечно, не знаем никаких обстоятельств, при которых мы могли бы сказать: "Мы достаточно искали. Таких законов не существует".

Рассел и Норвиг отмечают, что за годы, прошедшие с тех пор, как Дрейфус опубликовал свою критику, был достигнут прогресс в обнаружении "правил", которые управляют бессознательным мышлением.[48]Локализованное движение в исследованиях робототехники пытается захватить наши бессознательные навыки восприятия и внимания.[49] Парадигмы вычислительного интеллекта, такие как нейронные сети, эволюционные алгоритмы и так далее, в основном направлены на моделирование бессознательных рассуждений и обучения. Статистические подходы к ИИ позволяют делать прогнозы, которые приближаются к точности интуитивных догадок человека. Исследования знаний, основанных на здравом смысле, были сосредоточены на воспроизведении "фона" или контекста знаний. Фактически, исследования в области ИИ в целом отошли от высокоуровневых манипуляций с символами в сторону новых моделей, которые призваны охватить больше наших интуитивных рассуждений.

Когнитивная наука и психология в конечном итоге пришли к согласию с описанием Дрейфусом человеческого опыта. Даниэль Канеман и другие разработали аналогичную теорию, в которой они определили две "системы", которые люди используют для решения проблем, которые он назвал "Система 1" (быстрые интуитивные суждения) и "Система 2" (медленное обдуманное поэтапное мышление).

Хотя взгляды Дрейфуса были подтверждены многими способами, работа в области когнитивной науки и искусственного интеллекта была ответом на конкретные проблемы в этих областях и не находилась под непосредственным влиянием Дрейфуса. Историк и исследователь искусственного интеллекта Дэниел Кревье писал, что "время доказало точность и проницательность некоторых комментариев Дрейфуса. Если бы он сформулировал их менее агрессивно, конструктивные действия, которые они предлагали, могли быть предприняты намного раньше".

Может ли машина обладать разумом, сознанием и ментальными состояниями?[править]

Это философский вопрос, связанный с проблемой других разумов и сложной проблемой сознания. Вопрос вращается вокруг позиции, определенной Джоном Сирлом как "сильный ИИ":

Система физических символов может обладать разумом и ментальными состояниями.

Серл отличал эту позицию от того, что он назвал "слабым ИИ":

Система физических символов может действовать разумно.

Сирл ввел термины, чтобы отделить сильный ИИ от слабого ИИ, чтобы он мог сосредоточиться на том, что он считал более интересным и дискуссионным вопросом. Он утверждал, что даже если мы предположим, что у нас есть компьютерная программа, которая действует точно так же, как человеческий разум, все равно останется сложный философский вопрос, на который нужно ответить.

Ни одна из двух позиций Сирла не вызывает большого беспокойства в исследованиях ИИ, поскольку они не дают прямого ответа на вопрос "может ли машина отображать общий интеллект?". (если только нельзя также показать, что сознание необходимо для интеллекта). Тьюринг писал: "Я не хочу создавать впечатление, что, по моему мнению, в сознании нет никакой тайны… [но] я не думаю, что эти тайны обязательно должны быть решены, прежде чем мы сможем ответить на вопрос [о том, могут ли машины думать]". Рассел и Норвиг согласны: "Большинство исследователей ИИ принимают гипотезу слабого ИИ как должное и не заботятся о гипотезе сильного ИИ".

Есть несколько исследователей, которые считают, что сознание является важным элементом интеллекта, такие как Игорь Александер, Стэн Франклин, Рон Сан и Пентти Хайконен, хотя их определение "сознания" очень близко к "интеллекту". (См. Искусственное сознание.)

Прежде чем мы сможем ответить на этот вопрос, нам должно быть ясно, что мы подразумеваем под "разумами", "ментальными состояниями" и "сознанием".

Сознание, умы, ментальные состояния, значение[править]

Слова "разум" и "сознание" используются разными сообществами по-разному. Некоторые мыслители нью эйдж, например, используют слово "сознание" для описания чего-то похожего на "elan vital" Бергсона: невидимый, энергетический флюид, который пронизывает жизнь и особенно разум. Писатели-фантасты используют это слово для описания некоторого существенного свойства, которое делает нас людьми: машина или инопланетянин, обладающий "сознанием", будет представлен как полностью человеческий персонаж, с интеллектом, желаниями, волей, проницательностью, гордостью и так далее. (Писатели-фантасты также используют слова "чувствительность", "разум", "самосознание" или "призрак" — как в манге "Призрак в доспехах" и аниме—сериале - для описания этого важного человеческого свойства). Для других [кто?] слова "разум" или "сознание" используются как своего рода светский синоним души.

<a>Для</a> <a>философов</a>, <a>нейробиологов</a> и когнитивистов эти слова используются как более точные, так и более обыденные: они относятся к знакомому, повседневному опыту наличия "мысли в голове", такой как восприятие, мечта, намерение или план, и к тому, как мывидеть что-то, знать что-то, что-то значить или понимать что-то.<a></a> "Нетрудно дать определение сознания, основанное на здравом смысле", - замечает философ Джон Сирл.<a></a>Загадочным и увлекательным является не столько то, чем оно является, сколькокак это: как комок жировой ткани и электричество порождают этот (знакомый) опыт восприятия, значения или мышления?

Философы называют это трудной проблемой сознания. Это последняя версия классической проблемы в Философы называют это <a>трудной проблемой сознания</a>. Это последняя версия классической проблемы <a>философии разума</a>, называемой "<a>проблема разума и тела</a>".<a></a> Смежная проблема - это проблема значения или понимания (которую философы называют "<a>интенциональностью</a>"): какова связь между нашими мыслями и тем, о чем мы думаем в данный момент (т.е. объектами и ситуациями в мире)? Третий вопрос - это проблема опыта (или "<a>феноменологии</a>"): если два человека видят одно и то же, имеют ли они одинаковый опыт? Или есть вещи "внутри их головы" (называемые "<a></a>, называемой "проблемой разума и тела".[56]Смежной проблемой является проблема смысла или понимания (которую философы называют "интенциональностью"): какова связь между нашими мыслями и тем, о чем мы думаем (т. Е. Объектами и ситуациями в мире)? Третья проблема - это проблема опыта (или "феноменология"): если два человека видят одно и то же, испытывают ли они одинаковый опыт? Или есть вещи "внутри их головы" (называемые "квалиа"), которые могут отличаться от человека к человеку?

<a>Нейробиологи</a> считают, что все эти проблемы будут решены, когда мы начнем определять <a>нейронные корреляты сознания</a>: фактическую взаимосвязь между механизмами в наших головах и их коллективными свойствами; такими как разум, опыт и понимание. Некоторые из самых жестких критиков <a>искусственного интеллекта</a> согласны с тем, что мозг - это просто машина, и что сознание и интеллект являются результатом физических процессов в мозге.<a></a>[58] Трудный философский вопрос заключается в следующем: может ли компьютерная программа, работающая на цифровой машине, которая перемешивает двоичные цифры нуля и единицы, дублировать способность нейронов создавать разумы с ментальными состояниями (такими как понимание или восприятие) и, в конечном счете, опыт сознания?

Аргументы в пользу того, что компьютер не может обладать разумом и ментальными состояниями[править]

Китайская комната Сирла[править]

Основная статья: Китайская комната

Джон Серл предлагает нам рассмотреть мысленный эксперимент: предположим, мы написали компьютерную программу, которая проходит тест Тьюринга и демонстрирует общие интеллектуальные действия. Предположим, в частности, что программа может свободно разговаривать на китайском языке. Напишите программу на карточках размером 3x5 и дайте их обычному человеку, который не говорит по-китайски. Заприте человека в комнате и попросите его следовать инструкциям на карточках. Он будет копировать китайские иероглифы и передавать их в комнату и из комнаты через щель. Со стороны может показаться, что в китайской комнате находится вполне разумный человек, который говорит по-китайски. Вопрос заключается в следующем: есть ли в комнате кто-нибудь (или что-нибудь), кто понимает китайский? То есть, есть ли что-нибудь, что обладает ментальным состоянием понимания или имеет сознательное понимание того, что обсуждается на китайском языке? Человек явно не в курсе. Комната не может быть осведомлена. Карты, конечно, не в курсе. Серл приходит к выводу, что китайская комната или любая другая система физических символов не может обладать разумом.

Сирл продолжает утверждать, что реальные психические состояния и сознание требуют (пока не описаны) "реальных физико-химических свойств реального человеческого мозга". Он утверждает, что существуют особые "причинные свойства" мозга и нейронов, которые порождают разумы: по его словам, "мозги вызывают разумы".

Связанные аргументы: мельница Лейбница, телефонная станция Дэвиса, китайская нация Блока и болван[править]

Готфрид Лейбниц выдвинул по существу тот же аргумент, что и Серл в 1714 году, используя мысленный эксперимент по расширению мозга до размеров мельницы. В 1974 году Лоуренс Дэвис представил дублирование мозга с использованием телефонных линий и офисов, укомплектованных людьми, а в 1978 году Нед Блок представил, что все население Китая участвует в такой симуляции мозга. Этот мысленный эксперимент называется "Китайская нация" или "Китайский спортзал". Нед Блок также предложил свой аргумент тупицы, который является версией китайской комнаты, в которой была программапреобразован в простой набор правил вида "смотри это, делай то", удаляя из программы всю таинственность.

Отзывы о китайской комнате[править]

Ответы на the Chinese room подчеркивают несколько разных моментов.

Ответ систем и ответ виртуального разума: В этом ответе утверждается, что система, включая человека, программу, комнату и карты, понимает китайский язык. Серл утверждает, что человек в комнате - это единственное, что может "иметь разум" или "понимать", но другие не согласны, утверждая, что в одном и том же физическом месте могут быть два разума, подобно тому, как компьютер может одновременно "быть" двумя машинами одновременно.один раз: один физический (как Macintosh) и один "виртуальный" (как текстовый процессор).
Ответы на вопросы о скорости, мощи и сложности: Некоторые критики отмечают, что человеку в комнате, вероятно, потребовались бы миллионы лет, чтобы ответить на простой вопрос, и для этого потребовались бы "картотечные шкафы" астрономических размеров. Это ставит под сомнение ясность интуиции Сирла.
Ответ робота: Некоторые считают, что для истинного понимания китайской комнате нужны глаза и руки. Ханс Моравек пишет: "Если бы мы могли привить роботу программу мышления, нам больше не нужен был бы человек для придания смысла: он исходил бы из физического мира".
Ответ на симулятор мозга: Что, если программа имитирует последовательность срабатываний нервов в синапсах реального мозга реального носителя китайского языка? Человек в комнате будет имитировать реальный мозг. Это вариант "системного ответа", который кажется более правдоподобным, потому что "система" теперь явно работает как человеческий мозг, что усиливает интуицию, что есть что-то помимо человека в комнате, который мог бы понимать китайский.
Ответ других разумов и ответ эпифеноменов: Несколько человек отметили, что аргумент Сирла - это просто версия проблемы других разумов, примененная к машинам. Поскольку трудно решить, думают ли люди "на самом деле", мы не должны удивляться, что трудно ответить на тот же вопрос о машинах.
Связанный с этим вопрос заключается в том, существует ли "сознание" (в понимании Сирла). Серл утверждает, что опыт сознания не может быть обнаружен путем изучения поведения машины, человека или любого другого животного. Дэниел Деннетт указывает, что естественный отбор не может сохранить особенность животного, которая не влияет на поведение животного, и, следовательно, сознание (в понимании Сирла) не может быть создано естественным отбором. Следовательно, либо естественный отбор не породил сознание, либо "сильный ИИ" прав в том, что сознание может быть обнаружено с помощью подходящего теста Тьюринга.

Является ли мышление разновидностью вычислений?[править]

Основная статья: Вычислительная теория разума

Вычислительная теория разума или "вычислительность" утверждает, что взаимосвязь между разумом и мозгом подобна (если не идентична) взаимосвязи между запущенной программой (программным обеспечением) и компьютером (аппаратным обеспечением). Идея имеет философские корни у Гоббса (который утверждал, что рассуждение - это "не более чем подсчет"), Лейбница (который пытался создать логическое исчисление всех человеческих идей), Юма (который считал, что восприятие может быть сведено к "атомарным впечатлениям") и даже Канта (который анализировал весь опыт как контролируемыйформальные правила). Последняя версия связана с философами Хилари Патнэм и Гоббс.

Рассуждение - это не что иное, как расчет.<a>[9]</a>

  • Арифметика
Система физических символоввычисленияСтеван Харнадарифметику. Это гипотеза физической системы символов, обсуждавшаяся выше, и она подразумевает, что искусственный интеллект возможен. Что касается философского вопроса об ИИ ("Может ли машина обладать разумом, ментальными состояниями и сознанием?"), большинство версий вычислительного подхода утверждают, что (как характеризует это Стивен Харнад):

Ментальные состояния - это просто реализации (правильных) компьютерных программ.

Это "сильный ИИ" Джона Сирла, обсуждавшийся выше, и он является реальной целью аргументации в "<a>китайской комнате</a>" (согласно <a>Харнаду</a>).<a></a>

Другие связанные вопросы[править]

Может ли машина иметь эмоции?[править]

Если "эмоции" определяются только с точки зрения их влияния на поведение или на то, как они функционируют внутри организма, то эмоции можно рассматривать как механизм, который интеллектуальный агент использует для максимизации полезности своих действий. Учитывая это определение эмоций, Ханс Моравек считает, что "роботы в целом будут довольно эмоционально относиться к тому, чтобы быть хорошими людьми". Страх является источником срочности. Эмпатия является необходимым компонентом хорошего взаимодействия человека с компьютером. Он говорит, что роботы "будут стараться доставить вам удовольствие явно бескорыстным образом, потому что они получат острые ощущения от этого положительного подкрепления. Вы можете интерпретировать это как разновидность любви".

Даниэль Кревье пишет: "Точка зрения Моравека заключается в том, что эмоции - это просто средства для направления поведения в направлении, выгодном для выживания своего вида".

Может ли машина осознавать себя?[править]

"Самосознание", как отмечалось выше, иногда используется писателями-фантастами как название существенного человеческого свойства, которое делает персонажа полностью человеком. Тьюринг отбрасывает все другие свойства человеческих существ и сводит вопрос к "может ли машина быть предметом своей собственной мысли?" Может ли он думать о себе? Рассматриваемая таким образом, может быть написана программа, которая может сообщать о своих собственных внутренних состояниях, таких как отладчик.

Может ли машина быть оригинальной или созидательной?[править]

Тьюринг сводит это к вопросу о том, может ли машина "застать нас врасплох", и утверждает, что это, очевидно, верно, что может подтвердить любой программист. Он отмечает, что при достаточном объеме памяти компьютер может вести себя астрономическим количеством различных способов. Для компьютера, который может представлять идеи, должно быть возможно, даже тривиально, комбинировать их по-новому. (Автоматизированный математик Дугласа Лената, в качестве одного примера, объединил идеи, чтобы открыть новые математические истины.) Каплан и Хенлейн предполагают, что машины могут проявлять научную креативность, в то время как кажется вероятным, что люди будут иметь преимущество в том, что касается художественного творчества.

В 2009 году ученые из Университета Аберистуита в Уэльсе и Кембриджского университета Великобритании сконструировали робота по имени Адам, который, по их мнению, является первой машиной, самостоятельно сделавшей новые научные открытия. Также в 2009 году исследователи из Корнелла разработали EureqaОсновная статья: <a>Этика искусственного интеллекта</a>

===Может ли машина быть доброжелательной или враждебной? Основная статья: Этика искусственного интеллекта

Этот вопрос (как и многие другие в философии искусственного интеллекта) может быть представлен в двух формах. "Враждебность" может быть определена в терминах функции или поведения, и в этом случае "враждебный" становится синонимом "опасного". Или это можно определить в терминах намерения: может ли машина "намеренно" намереваться причинить вред? Последний вопрос - "может ли машина иметь сознательные состояния?" (например, намерения) в другой форме.

Вопрос о том, могут ли быть опасны высокоинтеллектуальные и полностью автономные машины, был подробно рассмотрен футуристами (такими как Научно-исследовательский институт машинного интеллекта). Очевидный элемент драмы также сделал тему популярной в научной фантастике, которая рассматривала множество различных возможных сценариев, в которых интеллектуальные машины представляют угрозу для человечества; см. Искусственный интеллект в художественной литературе.

Одна из проблем заключается в том, что машины могут очень быстро приобрести автономность и интеллект, необходимые для того, чтобы быть опасными. Вернор Виндж предположил, что всего за несколько лет компьютеры внезапно станут в тысячи или миллионы раз умнее людей. Он называет это "сингулярностью".[80]Он предполагает, что это может быть несколько или, возможно, очень опасно для людей. :Это обсуждается философией, называемой сингуляритаризмом.

В 2009 году ученые и технические эксперты посетили конференцию, чтобы обсудить потенциальное влияние роботов и компьютеров и влияние гипотетической возможности того, что они могут стать самодостаточными и способными принимать собственные решения. Они обсудили возможность и степень, в которой компьютеры и роботы могли бы приобрести любой уровень автономии, и в какой степени они могли бы использовать такие способности, чтобы, возможно, представлять какую-либо угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе способность самостоятельно находить источники энергии и возможность самостоятельно выбирать цели для атаки оружием. Они также отметили, что некоторые компьютерные вирусы могут уклоняться от уничтожения и достигли "интеллекта таракана". Они отметили, что самосознание, изображенное в научной фантастике, вероятно, маловероятно, но были и другие потенциальные опасности и ловушки.

Некоторые эксперты и ученые ставят под сомнение использование роботов для военных действий, особенно когда таким роботам предоставляются некоторые автономные функции.[82]Военно-морской флот США профинансировал доклад, в котором указывается, что по мере усложнения военных роботов следует уделять больше внимания последствиям их способности принимать автономные решения.

Президент Ассоциации по развитию искусственного интеллекта заказал исследование, чтобы изучить этот вопрос. Они указывают на программы, подобные устройству для изучения языка, которые могут имитировать взаимодействие с человеком.

Некоторые высказывают предположение о необходимости создания "дружественного ИИ", подразумевая, что достижения, которые уже происходят с ИИ, должны также включать в себя усилия по созданию ИИ по своей сути дружелюбным и гуманным.

Может ли машина имитировать все человеческие характеристики? Тьюринг сказал: "Это обычное дело ... предложить крупицу утешения в форме утверждения, что некоторые особенности человеческой характеристики никогда не смогут быть имитированы машиной. ... Я не могу предложить такого утешения, поскольку считаю, что такие границы не могут быть установлены ".

Тьюринг отметил, что существует много аргументов вида "машина никогда не сделает X", где X может быть многими вещами, такими как:

Будьте добры, находчивы, красивы, дружелюбны, проявляйте инициативу, обладайте чувством юмора, отличайте хорошее от неправильного, совершайте ошибки, влюбляйтесь, наслаждайтесь клубникой со сливками, заставляйте кого-то влюбиться в это, учитесь на опыте, правильно используйте слова, будьте предметом собственных мыслей, проявляйте такое же разнообразие поведения, как и мужчина, делайте что-то действительно новое.

Тьюринг утверждает, что эти возражения часто основаны на наивных предположениях о универсальности машин или являются "замаскированными формами аргумента от сознания". Написание программы, которая демонстрирует одно из этих поведений, "не произведет большого впечатления". Все эти аргументы касаются основной предпосылки ИИ, если только не будет показано, что одна из этих черт важна для общего интеллекта.

Может ли у машины быть душа?[править]

Наконец, те, кто верит в существование души, могут возразить, что "Мышление - это функция бессмертной души человека". Алан Тьюринг назвал это "теологическим возражением". Он пишет

Пытаясь сконструировать такие машины, мы не должны непочтительно узурпировать Его власть создавать души, не больше, чем мы занимаемся деторождением: скорее, в любом случае мы являемся инструментами Его воли, обеспечивающими обители для душ, которые Он создает.

Дискуссия на эту тему возобновилась в результате недавних заявлений системы искусственного интеллекта LaMDA от Google о том, что она разумна и имеет "душу".

LaMDA (Языковая модель для диалоговых приложений) — это система искусственного интеллекта, которая создает чат—ботов - роботов с искусственным интеллектом, предназначенных для общения с людьми, - собирая огромное количество текста из Интернета и используя алгоритмы для ответа на запросы наиболее гибким и естественным способом.

Стенограммы бесед между учеными и LaMDA показывают, что система ИИ преуспевает в этом, предоставляя ответы на сложные темы о природе эмоций, создавая басни в стиле Эзопа на данный момент и даже описывая свои предполагаемые страхи.Есть философы, которые сомневаются в разумности ЛаМДЫ.

Взгляды на роль философии[править]

Некоторые ученые утверждают, что отрицание философии сообществом ИИ наносит ущерб. В Стэнфордской энциклопедии философии некоторые философы утверждают, что роль философии в ИИ недооценивается. Физик Дэвид Дойч утверждает, что без понимания философии или ее концепций развитие ИИ будет страдать от отсутствия прогресса.

Филипп (фиты линии.) и София (равновесие)Думать, искать, находить, исправлять
ИИ один без пары.

Конференции[править]

Основная серия конференций по этому вопросу - "Философия и теория ИИ" (PT-AI), проводимая Винсентом К. Мюллером.

Основная библиография по этому вопросу, с несколькими подразделами, находится на PhilPapers.

Смотрите также[править]

Портал:Философский * Портал:Психологический * Портал:Научный

Искусственный мозг * Искусственное сознание * Искусственный интеллект * Искусственная нейронная сеть *

Вычислительная теория разума * Вычислительная техника и интеллект * Взгляды Хьюберта Дрейфуса на искусственный интеллект * Экзистенциальный риск от искусственного общего интеллекта *

Мультиагентная система * Философия компьютерных наук * Философия информации * Философия разума * Система физических символов *

Сверхразум: пути, опасности, стратегии * Синтетический интеллект * Манифест киборга

Читать[править]

/people.csail.mit.edu/brooks/papers/elephants.pdf

Пруф[править]