A dream you dream alone is only a dream. A dream you dream together is reality...
Сидя на красивом холме, я часто вижу сны и вот что кажется мне:
Что дело не в деньгах и не в количестве женщин...
Не, это снова песня, а сказать я хотел пару слов о шизофрении.
Вот сидишь ты на красивом холме, ну ладно, на стуле сидишь, или на подоконнике балкона, или на полу растянулся во весь свой небогатырский рост на худой конец.
Так вот. И ползет у тебя по руке жучок, маленький такой, изумрудно-голубенький.
А ты сидишь, смотришь на него и понимаешь, что никак не можешь достоверно определить - есть на самом деле этот жучок или нет, покачал он сейчас своими крохотными усиками из стороны в сторону, или тебе приглючилось это, как и сам жучок.
Можно конечно осторожно поймать жучка и пойти к соседям спросить есть он или нет его вовсе. Но это как-то уже совсем параноидально. Что же теперь, со всем увиденным к соседям бегать?
Да и скажут они тебе, что да, есть жучок, изумрудно-голубенький. А откуда они знают, как выглядит изумрудно-голубенький цвет? А ты откуда знаешь? Тебе в детстве показали морковку и сказали что она - рыжая. И все 7 миллиардов людей ходят и вторят себе и окружающим, что морковка рыжая, а на самом деле все они могут видеть ее совершенно по-разному, и морковка у соседей на самом деле цвета изумрудно-голубенького жучка, вот только они думают что это рыжий, и фу, зачем ты к нам притащил этого таракана, дурачок.
В общем, как говорил один известный шизофреник,
Когда я умер, не было никого, кто бы это опроверг.
Что дело не в деньгах и не в количестве женщин...
Не, это снова песня, а сказать я хотел пару слов о шизофрении.
Вот сидишь ты на красивом холме, ну ладно, на стуле сидишь, или на подоконнике балкона, или на полу растянулся во весь свой небогатырский рост на худой конец.
Так вот. И ползет у тебя по руке жучок, маленький такой, изумрудно-голубенький.
А ты сидишь, смотришь на него и понимаешь, что никак не можешь достоверно определить - есть на самом деле этот жучок или нет, покачал он сейчас своими крохотными усиками из стороны в сторону, или тебе приглючилось это, как и сам жучок.
Можно конечно осторожно поймать жучка и пойти к соседям спросить есть он или нет его вовсе. Но это как-то уже совсем параноидально. Что же теперь, со всем увиденным к соседям бегать?
Да и скажут они тебе, что да, есть жучок, изумрудно-голубенький. А откуда они знают, как выглядит изумрудно-голубенький цвет? А ты откуда знаешь? Тебе в детстве показали морковку и сказали что она - рыжая. И все 7 миллиардов людей ходят и вторят себе и окружающим, что морковка рыжая, а на самом деле все они могут видеть ее совершенно по-разному, и морковка у соседей на самом деле цвета изумрудно-голубенького жучка, вот только они думают что это рыжий, и фу, зачем ты к нам притащил этого таракана, дурачок.
В общем, как говорил один известный шизофреник,
Когда я умер, не было никого, кто бы это опроверг.
Очень легко проверить, отличает ли человек цвет морковки от цвета жучка.
а на самом деле все они могут видеть ее совершенно по-разному,
Могут. И видят. О чём с удовольствием (или без удовольствия) расскажет офтальмолог. Это вовсе не философский вопрос и даже не особенно психитрический.
Ну кстати очень даже философский - философия сознания против материализма, понятие квалиа и все такое прочее.
И про метамерию цвета еще можно сказать, но ты наверняка знаешь
В случае с китайской комнатой — ну, найди мысленно все упоминания китайского языка в описании, замени на русский или английский. Иначе ли оно теперь воспринимается?
У философского зомби нет собственного чувственного восприятия, а вот есть ли (может ли быть) у него сознание - вопрос открытый.
Про комнату не вижу подвоха: заменяем даже не на английский, а на тот самый двоичный код, в качестве книги-программы достаточно взять любую логическую операцию, скажем NOT. От следования инструкциям (программе) у нас не появляется никакой информации о смысловом наполнении получаемых и отправляемых сигналов, то бишь семантике.
А мне казалось что со мной все так)
Ну пусть будет NOT. Правильно ли я понял? Ты считаешь, что про человека, успешно следующего правилу «если на входе первый символ, заменить его на второй, если второй — на первый, а больше никаких символов на входе быть не может» в каком-то смысле можно сказать, что он не понимает операцию NOT?
Про зомби: все побежали и я побежал. В рассуждениях о этом самом философском зомби постоянно упоминается, что он может копировать реакции, симулировать получение ощущений. Тонкое место я вижу тут в том, кого изначально копирует зомби? каким образом такая зомби-вселенная может организоваться? Но тут всегда можно найти всяких контр-чапаевых, как ты говоришь, навроде "а с чего ты взял, что ты живешь в мире, отличном от мира зомби?"
Про комнату: там другие условия. Задача - выучить китайский, а не кодовую книгу.
В оригинале: язык - абсолютно неизвестные тебе символы (китайские иероглифы) и книга на английском (известном тебе) языке, в которой описаны алгоритмы обработки наборов этих неизвестных символов. В нашем случае "иероглифы" это 0 и 1, а в книге написано "на каждый символ "0" отвечай "1", на каждый символ "1" отвечай "0". Содержание книги тебе понятно, ты можешь выучить ее наизусть, можешь практиковаться неограниченное количество времени и попыток, но все это не приближает тебя к пониманию смысла сообщений.
Спасибо, я помню условия. Сёрль специально начинает с «возьму-ка я язык, которого не знаю совсем и воспринимаю набором закорючек». Это плохой подход — специально рассуждать о том, чего не знаешь. Мне совсем не кажется очевидным, что такая комната — не понимающая, но неотличимая от человека — вообще может существовать конкретно для китайского. Можно научить её не впадать в ступор при виде фразы 草泥马 («лошадь из
говна и палоктравы и глины», китаец поймёт, о чём речь), можно научить её не срезаться на вопросах «сколько ног у овцы» и «сколько ног у семиногой овцы», «о чём мы говорили пять минут назад» и «какой иероглиф больше всего похож на золотую рыбку». А заодно «почём у вас гречка» и «как у вас на юге читают такой-то иероглиф». Но вот на всё сразу сложно. Ну научили. Откуда-то с потолка берётся утверждение, что агрегат, всё это умеющий, вообще не понимает китайского. Как так? Только потому, что перекладыватель бумажек в нём не понимает (что тоже не факт, это ж насколько тупорылым надо быть, чтобы за годы сидения в такой комнате ничему не научиться — ну да не важно)? Ну если из меня селезёнку вырезать, она тоже по-русски не заговорит.Да как же не приближает, когда это и есть смысл оператора NOT?
Я, если честно, не понимаю в чем принципиальная разница между
существо, способное исключительно копировать реакции
и
существо, неотличимое от психически здорового человека по поведению
Собственно, философский зомби это мысленный эксперимент, направленный против материализма-физикализма, в духе доказательства от противного.
Типа "ну ок, допустим вы правы, и кучка атомов и другого дерьма, собравшаяся в определенном месте в определенном порядке в определенное время - это и есть человек и человеческая личность; тогда..."
И с этого места начинаются всякие неувязки в духе парадокса множества всех множеств. Ну и да, техническая невозможность копирования и принципиальная невозможность это все же разное)
Нет, мы все же как-то по-разному понимаем китайскую комнату)
Итак, согласно вышеописанному, я присылаю тебе сообщение:
1001
Ты не знаешь что это такое и что это значит, но у тебя есть кодовая книга, в которой русским по белому написано: делай операцию NOT
И ты мне шлешь ответ:
0110
Знатоки, внимание на экран: о чем были эти два сообщения?
Да, твой ответ правильный, но ты не знаешь смысла сообщений, ты не знаешь условного языка, на котором формально ты правильно изъясняешься.
Если научить тебя на любую неизвестную тебе китайскую фразу (то есть на любую китайскую фразу) отвечать "простите, я не говорю по-китайски и знаю на нем только эту фразу", то это что угодно, но не знание китайского языка. Хотя формально ты услышал вопрос на китайском, дал ответ на китайском, от тебя получили осмысленную информацию.
Можно научить конечный автомат отвечать что-то, выглядящее как осмысленное. И чем больше и сложнее будет кодовая книга внутри него, тем более он будет казаться разумным. Можно даже перейти уровень человеческого психологического восприятия, и таким образом пройти тест Тьюринга. Но увы, увеличение-усложнение кодовой книги - это количественные изменения, никак не переходящие в качественные. Собственно, я потому и предложил вариант не с китайским, а с двоичным кодом.
Я не знаю, о чём эти два сообщения. Но что это доказывает? Посмотрим со стороны того, кто эти сообщения присылает. Вот ему притащили коробку, которой на вход подаёшь нажатиями клавиш 101010001110011000011101, что в RGB соответствует светло-салатовому, а она в ответ выдаёт на монохромном экране 010101110001100111100010, комплементарный ему синий с легчайшей бордовинкой. Поверит ли он, здраво поразмыслив, что эта коробка что-то знает о цветах?
Китайская комната должна производить впечатление разумного собеседника, знающего китайский. Человек, умеющий лишь произнести фразу «я не говорю по-китайски», не производит такого впечатления вне зависимости от того, понимает ли он её значение. Его существование не является аргументом в пользу возможности существования китайской комнаты, как существование рациональной дроби для 1/3 не является аргументом в пользу существования рациональной дроби для корня из двух.
Конечный автомат? Я вижу, мы переходим к делу. Выбор интересный. С произвольной программой на брейнфаке конечный автомат, например, не справится. А с человеческой речью во всём её многообразии... Мне неочевидно, почему это можно сделать без качественных изменений и что под ними подразумевается.
Ты рассматриваешь китайскую комнату с позиции теста Тьюринга, где критерием разумности является сторонняя оценка - заметит ли человек разницу или нет.
А мне китайская комната интересна как иллюстрация того, что искусственный интеллект принципиально невозможно реализовать с помощью машины того самого Тюринга во всех ее ипостасях.
По твоей части - разумеется можно сделать систему, которая пройдет тест. Уж не помню, пройден ли он на данный момент, если нет то это только вопрос времени и энтузиазма.
По моей части - это не прибавит такой системе ни кванта разумности и та остается шустрым калькулятором по трем логическим операциям.
Про количественные и качественные изменения я имел в виду, что расширяя и дополняя кодовую книгу в китайской комнате, ты увеличиваешь лексикон, то есть количество "известных" тебе вопросом и ответов, можешь увеличивать вариативность, если на один и тот же вопрос разрешается давать ответ из списка вариантов. Но сколь угодно большое количественное изменение записей кодовой книги по прежнему не дает тебе ни малейшего представления о семантике, то есть качественного перехода на новый уровень не происходит.
Конечный автомат применительно к человеческому мозгу - спорный вопрос на самом деле, потому что неизвестно конечно ли его множество состояний. Но копать в эту сторону мне кажется стоит.
Ага. А если пружина нормально выдерживает пять кило, то и тонну выдержит и качественно не изменится. Мы ведь можем представить такую пружину умозрительно? Значит, это иллюстрация того, как пружину принципиально невозможно необратимо растянуть или порвать. Я не вижу в этой аналогии изъянов.
Я правильно понимаю, что про коробочку с инвертором и справочник с кодами цветов возражений нет?
Окей, еще раз: шустрый калькулятор не может быть разумен по той причине, что в нем изначально нет и ни в один момент времени ему не поступает ни бита информации о значении входных и выходных данных. Зеркало отражает человека точнее, чем самый точный и искусный художник, но не становится от этого разумным или художником.
Ты не знаешь, что такое 1001 и 0110. Ты быстро и мастерски из первого получаешь второе, можешь делать это миллиарды раз в секунду, но так никогда и не узнаешь, что это означает, т.к. у тебя не было, нет и никогда не появится даже малейшей зацепки для осмысления.
Про пружину - я не вижу тут аналогии.
Хорошо. Ну предположим мы, что коробочка-инвертер неразумна. Это предположение, вообще говоря, ни на чём не основано, мы даже не договорились пока, что такое разум, но это, по крайней мере, выглядит правдоподобно и не противоречит интуиции. Но я всё ещё не вижу, как из этого следует неразумность китайской комнаты.
Перечитал комментарии – о разном мы говорим, о разном.
В человека смыслы попадают извне, от других людей, в процессе его развития и обучения. В сперматозоиде и яйцеклетке такой информации нет.
Китайская комната из обсуждений выше, делающая операцию NOT не знает, что она делает. Вчера она инвертировала цвета и не знала об этом – она только меняла нолики и единички. Сегодня она обнуляет переменные, в которых были записаны выигрышные лотерейные номера – и снова не знает об этом. Откуда ей узнать что будут значить получаемые и отправляемые сигналы завтра?
Ок. Это несколько отличается от утверждения «она не понимает операцию NOT», но да, информации о том, какие последовательности битов чему соответствуют, в ней нет.
Ровно это из себя и представляет классический современный компьютер!
Я думал над тем, можно ли считать нейронные сети каким-то прорывом в области ИИ, и пришел к выводу что, увы, нет. Да, система получается гораздо "умнее", человек не предоставляет машине конкретного алгоритма вычислений. Вместо этого машине даются правила вывода и критерии успеха.
Это шаг вперед, но небольшой. Могу предположить, что в ближайшем будущем (или даже уже, в настоящее время) появятся системы, конфигурирующие свои алгоритмы (правила вывода), но вот целеполагание взять по-прежнему неоткуда.
Ровно это из себя и представляет классический современный компьютер!
Я думал над тем, можно ли считать нейронные сети каким-то прорывом в области ИИ, и пришел к выводу что, увы, нет. Да, система получается гораздо "умнее", человек не предоставляет машине конкретного алгоритма вычислений. Вместо этого машине даются правила вывода и критерии успеха.
Это шаг вперед, но небольшой. Могу предположить, что в ближайшем будущем (или даже уже, в настоящее время) появятся системы, конфигурирующие свои алгоритмы (правила вывода), но вот целеполагание взять по-прежнему неоткуда.
Теперь о целеполагании. Тут я слишком мало знаю как об устройстве человека, так и о положении дел в области ИИ, и легко могу сморозить глупость. Итак — откуда оно берётся у человека? Насколько я понимаю, простой ответ будет «много откуда», и далеко не всё из этого будет легко применимо к другим системам, но никакой принципиально непереносимой магии там быть не должно.
Побочные эффекты – а что ты имеешь в виду под побочными эффектами? Каждая выполненная команда меняет внутреннее состояние системы. Если ты как программист не смог предсказать состояние системы на шаге N, то это твоя ошибка и недоработка. Компьютер же честно и слепо выполняет отданные ему команды, даже если те ошибочны.
Я вполне сознательно предпочитаю говорить об интеллекте применительно к вычислительной технике, а не к человеку именно потому, что об устройстве человека и человечества известно мало, и это не пробел в лично моем или твоем образовании. Черт его знает, как и почему стая неандертальцев стала обучаться и развиваться. Не получается у меня корректно поставить вопросы вроде "откуда в человеке берется то же самое целеполагание", "почему программы поведения даже низших животных настолько сложны" и так далее.
Возможно, непонимание человеком деталей, особенностей, предпосылок и истории своей разумности и есть основная причина, по которой люди создают что-то столь же разумное только половым путем.
Если бы неандертальцы как вид дожили до нашего времени... А так за ответами можно обращаться разве что к бонобо и шимпанзе.
Но применительно к вычислительной технике мне тоже вот вообще непонятно, что называть интеллектом.