"Китайская комната" и искусство перевода
Sep. 5th, 2005 07:35 pm![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Известный британский математик Алан Тьюринг придумал известный тест,
названный его именем: как определить, мыслит ли машина, вернее,
обладает ли она сознанием. То есть, не тот компьютер, конечно, на
котором я это пишу, а гипотетическая машина будущего, когда будет
реализован проект "искусственного интеллекта" (На профессиональном
жаргоне Strong AI).
Согласно Тьюрингу, если вы беседуете с машиной произвольное время и не можете уличить ее в том, что она - не человек, то существование сознания доказано. Эксперимент строится так, что помимо информации, которой вы обмениваетесь в ходе беседы, у вас нет никаких других данных о собеседнике, то есть тембра голоса и пр.
Как бы верно, но остается неприятный осадок, потому что в "голове" у этой машины вы так и не побывали. Мы, конечно, не можем залезть в голову и человеческому собеседнику, но тут мы уже судим по аналогии с собой, а у машины, скорее всего, мысли какие-нибудь железные и бездуховные.
Американский философ Джон Серл построил мысленный эксперимент, позволяющий буквально проникнуть в "голову" машине - и опровергающий тест Тьюринга. Как ни странно, в этом эксперименте, который получил название "китайская комната", роль машины исполняет человек.
Человек сидит в изолированной комнате с двумя щелями, в одну из которых подаются, один за другим, китайские иероглифы на карточках. Человек в комнате китайского не знает, но перед ним на столе лежит толстая книга с подробными инструкциями, как реагировать на каждый иероглиф. В соответствии с этими инструкциями он выбирает из лежащего перед ним набора другие иероглифы и опускает их в другую щель. Иероглифы, подаваемые в щель, представляют собой задаваемые по-китайски вопросы, опускаемые в другую щель - ответы на эти вопросы. При этом никаких мыслительных процессов, относящихся к существу беседы, в голове человека не возникает, и когда он покидает комнату, его познания в китайском остаются нулевыми.
Сторонники Strong AI, в свою очередь, пытаются опровергнуть "китайскую комнату", и некоторые из их аргументов звучат довольно убедительно, но я не стану углубляться в эти философские дебри, потому что речь, собственно, идет о художественном переводе. Если в двух словах, то я хочу сказать, что слишком часто переводчик подобен человеку, сидящему в "китайской комнате".
Поводом к этим размышлениям явилась небольшая и, надеюсь, в целом безвредная стычка с одним юзером, человеком вполне образованным и артикулированным, но весьма резко отозвавшемся об одном из моих любимых писателей, Соле Беллоу. Поскольку он, скорее всего, читал Беллоу по-русски (что в дальнейшем подтвердилось), я решил проверить, с чем он, в принципе, мог иметь дело. Дальнейшие мои рассуждения к этой истории отношения не имеют, а релевантность "китайской комнаты" через пару минут станет очевидной.
Я, естественно, залез к Мошкову и стал там шарить. Помимо всякого мелкого мусора (это особый предмет для раздражения, потому что свидетельствует о полной бестолковости выбора объектов для перевода - тут еще вспоминается нуднейшая и давно забытая трилогия Фолкнера о Сноупсах, почему-то переведенная первой в советские времена), я обнаружил там "Дар Гумбольдта" - надо бы Хамболта, конечно, потому что речь идет об американце, а не о немецких мудрецах, ну да пусть, это уже придирка. Роман - один из лучших у Беллоу, хотя и не самый мой любимый. Имени переводчика называть не буду, пусть это будет абстрактный русский переводчик.
Подчеркну, что говоря о переводчике или вообще о переводчиках, я имею здесь в виду профессиональных и в целом знающих переводчиков, а не поденщиков, переводящих бригадным методом поп-макулатуру. И действительно, я начал читать роман, и все как бы гладко. Но роман длинный, и читать мне его по-русски скучно, а тем более сверяя с оригиналом. Тогда я придумал короткий путь и прокрутил всю ленту до примечаний. И волосы начали медленно вставать дыбом.
Не буду нагромождать этих деталей, приведу только пару самых ужасных. При этом я исхожу из предположения, что примечания сделаны самим переводчиком, другой логичной версии придумать не могу. Вот что, к примеру, сразило меня наповал.
"Шапиро, Карл (р. 1913) -- американский поэт и эссеист, автор знаменитых "Поэмы еврея" и "В защиту невежества". Возможно, в какой-то степени послужил прототипом Фон Гумбольдта Флейшера в романе".
Возможно, внутри земного шара есть еще другой шар, значительно больше наружного. Но маловероятно. Практически везде, где просто упоминается название романа, сразу же упоминается, что прототипом для главного героя послужил поэт Делмор Шуорц (Шварц для любителей уродовать американские имена), друг и наставник автора, и этому герою приписаны многие детали биографии Шуорца. И спутать одного с другим - все равно, что спутать палец с другим предметом мужской анатомии, не буду лезть в подробности. И не могу взять в толк, в каком бреду переводчику это привиделось. Нужно ли добавлять, что "знаменитых" "Поэмы еврея" и "В защиту невежества" я не только сам никогда не читал, но не знаю ни одного человека, которых их читал бы.
Ну и еще один перл для убедительности.
"Токвиль, Алексис (1805--1859) -- французский политик и историк, критиковал с консервативных позиций американскую демократию".
Уж не поэтому ли Токвиль стоит на полках любого американского книжного магазина чуть ли не рядом с Библией и его беспрестанно цитируют все консервативные и патриотические американские авторы? Похоже, Токвиль в голове переводчика поменялся местами с Кюстином, а Америка - с Россией. Токвиль, действительно, был французский аристократ, настроенный консервативно и контрреволюционно, и отправился в Америку с целью покритиковать эту республику холопов. Но в результате он написал настоящий гимн американской демократии, хотя и с вкраплениями очень прозорливой критики.
Не буду больше загромождать и без того пространный пост фактиками, потому что этих двух мне достаточно чтобы понять, что перевод читать не стоит. Он сделан человеком, не понимающим, что за книга у него в руках и в какой стране она написана. Мы снова попадаем в "китайскую комнату". Переводчик может очень неплохо владеть английским языком, но роль "китайского" здесь играет американская культура, о которой переводчик не имеет никакого понятия как входя в комнату, так и покидая ее. Перевод делается с выключенным сознанием, машиной, которая ничего в нем не понимает.
Самым чудовищным преступлением в этом жанре я считаю встречу Раскольникова-Пастернака со старушкой-Шекспиром, но тут я лучше заткнусь, потому что от ярости все равно потеряю дар речи. А вообще-то таких случаев гораздо больше, чем подозревают читатели, не имеющие возможности или времени проверить.
Согласно Тьюрингу, если вы беседуете с машиной произвольное время и не можете уличить ее в том, что она - не человек, то существование сознания доказано. Эксперимент строится так, что помимо информации, которой вы обмениваетесь в ходе беседы, у вас нет никаких других данных о собеседнике, то есть тембра голоса и пр.
Как бы верно, но остается неприятный осадок, потому что в "голове" у этой машины вы так и не побывали. Мы, конечно, не можем залезть в голову и человеческому собеседнику, но тут мы уже судим по аналогии с собой, а у машины, скорее всего, мысли какие-нибудь железные и бездуховные.
Американский философ Джон Серл построил мысленный эксперимент, позволяющий буквально проникнуть в "голову" машине - и опровергающий тест Тьюринга. Как ни странно, в этом эксперименте, который получил название "китайская комната", роль машины исполняет человек.
Человек сидит в изолированной комнате с двумя щелями, в одну из которых подаются, один за другим, китайские иероглифы на карточках. Человек в комнате китайского не знает, но перед ним на столе лежит толстая книга с подробными инструкциями, как реагировать на каждый иероглиф. В соответствии с этими инструкциями он выбирает из лежащего перед ним набора другие иероглифы и опускает их в другую щель. Иероглифы, подаваемые в щель, представляют собой задаваемые по-китайски вопросы, опускаемые в другую щель - ответы на эти вопросы. При этом никаких мыслительных процессов, относящихся к существу беседы, в голове человека не возникает, и когда он покидает комнату, его познания в китайском остаются нулевыми.
Сторонники Strong AI, в свою очередь, пытаются опровергнуть "китайскую комнату", и некоторые из их аргументов звучат довольно убедительно, но я не стану углубляться в эти философские дебри, потому что речь, собственно, идет о художественном переводе. Если в двух словах, то я хочу сказать, что слишком часто переводчик подобен человеку, сидящему в "китайской комнате".
Поводом к этим размышлениям явилась небольшая и, надеюсь, в целом безвредная стычка с одним юзером, человеком вполне образованным и артикулированным, но весьма резко отозвавшемся об одном из моих любимых писателей, Соле Беллоу. Поскольку он, скорее всего, читал Беллоу по-русски (что в дальнейшем подтвердилось), я решил проверить, с чем он, в принципе, мог иметь дело. Дальнейшие мои рассуждения к этой истории отношения не имеют, а релевантность "китайской комнаты" через пару минут станет очевидной.
Я, естественно, залез к Мошкову и стал там шарить. Помимо всякого мелкого мусора (это особый предмет для раздражения, потому что свидетельствует о полной бестолковости выбора объектов для перевода - тут еще вспоминается нуднейшая и давно забытая трилогия Фолкнера о Сноупсах, почему-то переведенная первой в советские времена), я обнаружил там "Дар Гумбольдта" - надо бы Хамболта, конечно, потому что речь идет об американце, а не о немецких мудрецах, ну да пусть, это уже придирка. Роман - один из лучших у Беллоу, хотя и не самый мой любимый. Имени переводчика называть не буду, пусть это будет абстрактный русский переводчик.
Подчеркну, что говоря о переводчике или вообще о переводчиках, я имею здесь в виду профессиональных и в целом знающих переводчиков, а не поденщиков, переводящих бригадным методом поп-макулатуру. И действительно, я начал читать роман, и все как бы гладко. Но роман длинный, и читать мне его по-русски скучно, а тем более сверяя с оригиналом. Тогда я придумал короткий путь и прокрутил всю ленту до примечаний. И волосы начали медленно вставать дыбом.
Не буду нагромождать этих деталей, приведу только пару самых ужасных. При этом я исхожу из предположения, что примечания сделаны самим переводчиком, другой логичной версии придумать не могу. Вот что, к примеру, сразило меня наповал.
"Шапиро, Карл (р. 1913) -- американский поэт и эссеист, автор знаменитых "Поэмы еврея" и "В защиту невежества". Возможно, в какой-то степени послужил прототипом Фон Гумбольдта Флейшера в романе".
Возможно, внутри земного шара есть еще другой шар, значительно больше наружного. Но маловероятно. Практически везде, где просто упоминается название романа, сразу же упоминается, что прототипом для главного героя послужил поэт Делмор Шуорц (Шварц для любителей уродовать американские имена), друг и наставник автора, и этому герою приписаны многие детали биографии Шуорца. И спутать одного с другим - все равно, что спутать палец с другим предметом мужской анатомии, не буду лезть в подробности. И не могу взять в толк, в каком бреду переводчику это привиделось. Нужно ли добавлять, что "знаменитых" "Поэмы еврея" и "В защиту невежества" я не только сам никогда не читал, но не знаю ни одного человека, которых их читал бы.
Ну и еще один перл для убедительности.
"Токвиль, Алексис (1805--1859) -- французский политик и историк, критиковал с консервативных позиций американскую демократию".
Уж не поэтому ли Токвиль стоит на полках любого американского книжного магазина чуть ли не рядом с Библией и его беспрестанно цитируют все консервативные и патриотические американские авторы? Похоже, Токвиль в голове переводчика поменялся местами с Кюстином, а Америка - с Россией. Токвиль, действительно, был французский аристократ, настроенный консервативно и контрреволюционно, и отправился в Америку с целью покритиковать эту республику холопов. Но в результате он написал настоящий гимн американской демократии, хотя и с вкраплениями очень прозорливой критики.
Не буду больше загромождать и без того пространный пост фактиками, потому что этих двух мне достаточно чтобы понять, что перевод читать не стоит. Он сделан человеком, не понимающим, что за книга у него в руках и в какой стране она написана. Мы снова попадаем в "китайскую комнату". Переводчик может очень неплохо владеть английским языком, но роль "китайского" здесь играет американская культура, о которой переводчик не имеет никакого понятия как входя в комнату, так и покидая ее. Перевод делается с выключенным сознанием, машиной, которая ничего в нем не понимает.
Самым чудовищным преступлением в этом жанре я считаю встречу Раскольникова-Пастернака со старушкой-Шекспиром, но тут я лучше заткнусь, потому что от ярости все равно потеряю дар речи. А вообще-то таких случаев гораздо больше, чем подозревают читатели, не имеющие возможности или времени проверить.
no subject
no subject
Date: 2005-09-05 05:58 pm (UTC)no subject
Date: 2005-09-05 06:09 pm (UTC)Про переводчика - воспользуюсь Вашим постом, чтобы вспомнить одного московского знакомого, Михаила Зинде - светлая память ему. Зинде, по-моему, был одним из лучших переводчиков прозы с английского на русский. Садился с утра, сидел вкалывал до самого вечера. Считал, что когда удается перевести одну печатную страницу в день - это уже очень много. Уже в новые времена жаловался, что вытесняется халтурщиками, которые, уж точно, переводят гораздо быстрее.
А вот насчет Шекспира-Пастернака не соглашусь, пожалуй, с Вами. Конечно, это скорее Пастернак, а не Шекспир. Да и упростил Борис Леонидович многое, даже чересчур. Но вот накалом, внутренней энергией текста они сравнимы - ни один другой переводчик Шекспира до такого накала не поднимался. Переводы Пастернака - это художественные произведения сами по себе. А не пьесы Шекспира:)
no subject
Date: 2005-09-05 06:30 pm (UTC)Насчет машины Вы, однако, неправы. Речь ведь идет не об "имитации" сознательной речи, а о сознательной речи. Помню, еще на заре компьютеризации была такая программка "Элиза", которая пыталась ввести юзера в заблуждение имитацией сознательной речи, но после пары минут все становилось ясно. Тест Тьюринга позволяет беседовать именно произвольное время, столько, сколько нужно, чтобы он принял твердое решение. Если бы то, что Вы утверждаете, было правдой, об этом бы не уставая твердили со всех амвонов, а Серла вываляли бы в смоле и перьях.
Шахматы укладываются в алгоритмы. Тезис Серла и Роджера Пенроуза, крупнейшего британского математического физика и философа, сводится к тому, что человеческое сознание некомпутабельно, извините за грубое русское слово, не алгоритмизуется - Серл к тому же полагает, что оно является биологическим эмергентом (опять извините). Если бы Strong AI стало реальностью, для них это было бы посрамлением, но в целом - научной революцией. Я, однако, полагаю, что они правы.
no subject
Date: 2005-09-05 06:55 pm (UTC)Вся затея заключается в том, что интеллект "себя ведет", и машина будет "вести себя", если она будет наделена интеллектом. Помнтие у Стругацких про Массачусетский комьютер? Его пришлось забетонировать, потому что он "начал себя вести". В некотором смысле машина, наделенная интеллектом, окажется бесполезной. Как бесполезно любое человеческое существо, поскольку оно обладает свободой воли.
no subject
Date: 2005-09-05 07:00 pm (UTC)А машина, наделенная интеллектом, небесполезна в одном и очень важном отношении: как следующее звено эволюции, хотя с точки зрения человека такая польза ох как сомнительна.
no subject
Date: 2005-09-05 06:59 pm (UTC)есть такое мнение, что всякое достижение AI будет встречено подобным возражением :)
no subject
Date: 2005-09-05 07:31 pm (UTC)no subject
Date: 2005-09-05 07:39 pm (UTC)no subject
Date: 2005-09-05 08:04 pm (UTC)no subject
Date: 2005-09-06 07:55 am (UTC)В скобках: именно это мы делаем, когда говорим, что оппонент "распропагандирован". То есть, что в его голову кто-то вложил алгоритм, которому он слепо следует. Что говорит, по существу, не он, а "пропаганда".
А теперь возражение посерьезнее, как мне кажется. Оно состоит в том, что в истории с китайской комнатой незримо присутствует третий. Он знает китайский язык. Он сочинил книгу и подготовил ответы на вопросы.
Так вот, соревнование идет не между проверяющим и алгоритмом, а между проверяющим и этим третьим. Если интеллект устроителя китайской комнаты достаточно превосходит интеллект проверяющего - хрен раскусишь алгоритм.
Конечно, в тесте Тьюринга присутствует бесконечное время. Но человек таковым не обладает. А если допустить, что проверяющие меняются, и могут меняться неограниченно долго, то и устроителю комнаты надо поначалу дать бесконечное время для подготовки и возможность написать бесконечную книгу. Тем самым мы выходим за пределы Тьюринговского определения алгоритма, конечно. Но все равно остаются верными две вещи: 1) борьба идет всегда не между алгоритмом и человечеком, а между двумя человеческими интеллектами; 2) победа определяется тем, у кого было больше времени и возможностей. Если с одной стороны время бесконечно, а с другой - конечно, то понятно, кто победит. Но если (возвращаясь к баранам) с одной стороны играет шахматист, а с другой - коллективный опыт шахматной игры, вложенный в одну большую железяку, то победа железяки - вопрос времени.
Замечу, это означает, что я согласен с тем, что компьютер интеллектом не обладает. Все, что он знает - он знает от нас. Как книга.
no subject
Date: 2005-09-06 08:18 am (UTC)no subject
Date: 2005-09-06 08:31 am (UTC)no subject
Date: 2005-09-06 01:25 pm (UTC)Теперь по Вашим тезисам. У меня, конечно же, нет ни малейших подозрений, что Вы - не человек, а машина, и я не трачу на это умственных усилий. Просто я знаю, что машин, способных на дискурс на таком уровне, пока нет, а я слежу за отраслью достаточно внимательно.
Одно важное замечание, в том числе Вам и мне самому. Интеллект здесь абсолютно не при чем, он совершенно не идентичен сознанию. Интеллектом в какой-то степени обладают и другие животные. Моя кошка, пытаясь проникнуть в шкаф, куда ей вход запрещен, уже давно не поддевает дверь, убедившись в бесполезности, а пытается дотянуться лапой до ключа и повернуть его. У одной кошки ума меньше, у другой больше, и с людьми история та же.
Сознание же степеней не имеет, это свойство исключительно человеческое, развившееся эволюционно и появившееся, даже у человека, сравнительно недавно - лет эдак 50000 назад, а кое-кто думает, что и позднее. Сознание - это наличие третьей точки, из которой субъект ведет наблюдение и над окружением, и над самим собой во взаимодействии с этим окружением. Иными словами, наличие собственного "я", субъекта как такового.
Ваш вариант опровержения "китайской комнаты" я уже привел в другом коменте - я не уверен в его справедливости, но сейчас не об этом. Тест Тьюринга ложен, и китайцев к этому привлекать не обязательно. Роджер Пенроуз может прокомментировать ваш проект состязания железа с плотью таким образом, что в состязании алгоритмизуемого (компьютер) и неалгоритмизуемого (человек) момент разоблачения рано или поздно наступит, чисто, так сказать, математически.
Мне, однако, симпатичнее другой вариант. Английский когнитивист Кенан Малик спорит как с Деннетом, так и с Серлом. По его версии, сознание не сидит в голове человека, оно существует лишь как часть системы, то есть социальной жизни. Эволюционно оно возникло именно параллельно превращению стада в общество. Идея очень тонкая и глубокая, но здесь не разовьешь.
Машина никогда не будет иметь сознания, потому что не сконструирована как часть социума. А что такое социальная машина, мы пока не знаем, это пустое понятие.
Вполне возможно, что прав немного и Серл с его биологией, но я предпочитаю Малика.
no subject
Date: 2005-09-06 05:28 pm (UTC)Разницу сознания и интеллекта я понимаю в Вашем определении, но боюсь, там существует миллион других определений - как мое сознание, так и интеллект могут запутаться:)
Насчет китайской комнаты мне пришло в голову такое математическое опровержение (лет 15 назад читал книжки по теории алгоритмов, оказывается, кое-что в голове осталось).
Если отвлечься от литературной экзотики, китайская комната - это алгоритм, в котором определенному входу соответствует определенный выход. "Проверяющий снаружи" имеет право сказать, что перед ним алгоритм, если он может восстановить этот алгоритм по серии ответов на предлагаемую им серию входов. Что такое алгоритм, можно определить и по Тьюрингу, и по Посту, с непременным добавлением Черча, как душе угодно, но для нас важно, что это конечная последовательность однозначно исполняемых инструкций.
Вопрос, какой минимальной математической конструкцией можно заменить проверяющего снаружи. Например, проверяющий не может быть сам по себе алгоритмом: алгоритма отличения алгоритмов от неалгоритмов, очевидно, не существует, возникают парадоксы самоописания. Но вот если расширить понятие алгоритма, если допустить в качестве проверяющего бесконечную последовательность инструкций, а вместе с ней и бесконечные серии вопросов и ответов - то я уверен, такой "проверяющий" способен отличить алгоритм от неалгоритма.
Обладает ли бесконечная последовательность инструкций сознанием-интеллектом? Сомневаюсь...
Надеюсь, все это не слишком путано, я гриппую и склонен к более длинным предложениям, чем обычно:)
no subject
Date: 2005-09-06 04:29 am (UTC)no subject
Date: 2005-09-05 08:28 pm (UTC)Просто люди, худо ли бедно ли, научились вкладывать в п
Date: 2005-09-07 07:06 pm (UTC)Возможно, это упрощение, но что может быть в машине, кроме того, что вложит в нее человек?
Ответ очевиден. Другое дело, что уже вполне представимо, что в машину можно поместить почти целиком виртуального человека, оцифровав все, что только возможно:)
Человек действует на 999% тоже по программам, не осознавая этого.
А может и 1000%.
С точки зрения догмата (теории) сотворения человека Богом - все то же: что может быть в человеке такого, чего нет в Боге, точнее - что не есть Бог?
Так что Бог-человек-машина - единосущны и нераздельны в трех лицах.
Будем считать это благочестивой шуткой...
no subject
Date: 2005-09-05 06:18 pm (UTC)no subject
Date: 2005-09-05 06:35 pm (UTC)no subject
Date: 2005-09-05 06:47 pm (UTC)no subject
Date: 2005-09-05 06:27 pm (UTC)а в первом случае, кстати, речь идет о "виртуальном собеседнике", т.е. роботе, для которого пишутся фразы а алгоритм поведения...
no subject
Date: 2005-09-05 06:45 pm (UTC)у некоторых людей - тоже :)
По сути, общаясь с людьми, мы все время, всегда, постоянно проводим этот тест Тюринга. Тюринг своим тестом сказал три вещи, по-моему:
1. Интеллектом мы "наделяем" собеседника, не важно кто это, человек или машина. Наделяем в том смысле, что это мы решаем, есть ли у собеседника интеллект.
2. Интеллект - это континуум, про него можно говорить "больше/меньше", но есть определенный минимум. Новорожденный интеллесктом точно не обладает. Двухлетний ребенок - до некоторой степени. Собачки кое-что понимают, видимо ... Так и с машинами (будет).
3. Если нечто "себя ведет" так, что кажется, что у "него" есть интеллект - значит он есть, и тут уже не важно из чего он сделан.
"Китайская комната" Сёрля в этом плане ничего не меняет. В этом мысленном эксперименте две главных ошибки Сёрля состоят в следующем:
1. Его главный вопрос - "Где же там интеллект находится, раз человек китайского не знает?" Когда мы нажимаем клавишу на клавиатуре компьютера, последовательность событий, приводящих, в конечном счете к появлению символа на экране, достаточно сложна. Каждый из элементов, участвующих в этой последовательности, с одной стороны необходим, с другой - "ничего не знает" ни про символы, ни про клавиатуру.
Где-то там процессор достает таблицу символов из памяти, эдакий китайский словарь. Сказать, что эта таблица обладает способностью показывать буковки на экране - так же неправильно, как сказать, что китайский словарь обладает интеллектом. В то же время в комплексе компьютер "умеет" показывать буковки при нажатии клавиш ... Где это умение? Да везде, в системе, как и разум.
2. Большая проблема с "китайской комнатой" - в том, что в модели Сёрля нет динамической памяти. Никакой словарь не заменит интеллект, если устройство не способно "усваивать" текущие события и использовать их в последующем поведении (включая разговор). "Китайская комната" - это комьютер, несомненно. Но в том виде, в котором она предложена Сёрлем, о ней не стоит и говорить, кроме как в том смысле, о котором я упомянул выше.
А переводы, особенно в последние годы, действительно пошли отвратительные. К сожалению переводы на английский мне попадались тоже очень плохие ... Я тут по поводу перевода "Письма генералу Z", опубликованного в NEw Yorker (!) даже разразился некоторой критикой (http://www.webvalue.com/vs/text/Z.html)
no subject
Date: 2005-09-05 06:58 pm (UTC)Да я встречал переводы на английский, в том числе американские, которые были ужасны, но знаю и блистательные, и немало. Но там ведь совершенно другая практика: многие вещи, которые этого заслуживают, переводятся снова и снова, и не обязательно каждый раз лучше, но некая ассимптотичность постепенно вырисовывается. В России же иначе: как-нибудь перевели и забыли. Или, что проще, не перевели и забыли.
no subject
Date: 2005-09-05 07:06 pm (UTC)Термостат, например.
Я в свое время на эту тему много написал довольно, но не буду Вас утомлять моими дурацкими текстами, скажу кратко: компьютер наблюдает свою температуру и включает вентилятор, когда процессор перегревается. В дополнение к этому он может (легко!) произнести "Ух, жара!" Или закричать вполне натурально.
Понимаете, к чему я? Вовсе не пытаюсь сказать, что компьютер обладает интеллектом и сознанием. Но идея именно такая: модель внутри, "каков я должен быть". Параметры реальные сравниваются с заданными ... ну и так далее. К этому много чего надо добавить, и самопрограммируемость, и обучаемость, и черта в стуле.
В результате получится non-computable монстр со свободной волей :)
no subject
Date: 2005-09-05 07:15 pm (UTC)no subject
Date: 2005-09-05 07:22 pm (UTC)> Пенроуз утверждает, что того, что Вы действительно хотите
> добавить, в природе не существует.
я могу ошибаться. Пенроуз - человек очень умный :) Аргументов у меня толком нет, мнение есть.
no subject
Date: 2005-09-05 07:33 pm (UTC)А Пенроуз, конечно, человек чудовищного ума, втайне я считаю его самым умным из всех ныне здравствующих. Но все, что он утверждает - это ведь только правдоподобные гипотезы. Хотя, на мой взгляд, более правдоподобные, чем у AIшников.
no subject
Date: 2005-09-05 07:40 pm (UTC)> качественный скачок между человеком и животными,
> и у животных сознания нет
ну я не согласен с Вами никак, я там два раза сказал "континуум", помните? Мне кажется, мы точки зрения друг друга хорошо поняли. Зафиксируем несогласие - это даже хорошо, а то когда все согласны - скучно :)
no subject
Date: 2005-09-08 06:00 pm (UTC)http://www.nytimes.com/2005/09/04/magazine/04IDEA.html?adxnnl=1&pagewanted=all&adxnnlx=1126200659-jCZy5+xtWWGO8fKLX60lBA
no subject
Date: 2005-09-09 01:40 am (UTC)Конечно, никто не станет спорить, что человек - качественный скачок, но это не отменяет других качественных скачков: между комаром, который совсем похож на робота, и птичкой или собакой, про которых можно сказать, что у них есть "стратегия" в жизни ... Даже развлечения :)
Кроме того, от человека вверх тоже можно представить себе качественные скачки, согласитесь. Было бы смешно, если бы мы оказались такие уж самые умные. Глядя на то, что происходит вокруг - как-то не похоже :)
no subject
Date: 2005-09-12 09:10 am (UTC)А обещания вполне могут давать собаки, например.
no subject
Date: 2005-09-12 05:08 pm (UTC)no subject
Date: 2005-09-05 07:11 pm (UTC)То, что сейчас происходит, называется емкими словами "бардак" и "разврат". Я купил дешевый томик Лермонтова, недавно изданный - количество опечаток ошеломляющее. В Штатах я наблюдаю то же самое в дешевых изданиях. Уровень прозы в New Yorker - ниже плинтуса. Я не знаю немецкого, но недавно читал перевод с немецкого на английский - там не требуется знание оригинала, чтобы увидеть, что перевод любительский ...
Будем надеяться, что в России (как и в Штатах) в море хлама останутся жемчужины :)
no subject
Date: 2005-09-05 07:22 pm (UTC)no subject
Date: 2005-09-05 07:23 pm (UTC)no subject
Date: 2005-09-05 08:00 pm (UTC)Вот я, собственно, к точно такому же выводу пришел: http://www.livejournal.com/users/shvarz/53089.html#cutid1
no subject
Date: 2005-09-05 08:24 pm (UTC)Серл доказал, что феномен "зомби" возможен в случае машины. Неважно, доказал ли окончательно. Что касается Ваших соображений, то почитаю их завтра, а то ночь уже.
no subject
Date: 2005-09-05 09:48 pm (UTC)no subject
Date: 2005-09-05 10:03 pm (UTC)no subject
Date: 2005-09-12 09:12 am (UTC)А интеллект - это функции.
no subject
Date: 2005-09-05 10:20 pm (UTC)Что касается проблемы множественности переводов, то когда-то ее довольно широко, хотя и бестолково, в ЖЖ обсуждали: например, тут, тут и тут.
no subject
Date: 2005-09-06 06:58 am (UTC)no subject
Date: 2005-09-12 09:14 am (UTC)no subject
Date: 2005-09-12 03:19 pm (UTC)Более точное определение сознания - это обладание mind theory, вольно переводя "теорией разума". То есть, ваш партнер понимает, что у вас в голове происходит примерно то же, что у него. Это развивается у младенцев, но они с этим не рождаются, а у больных аутизмом изначально повреждено. У людей, судя по всему, развилось сравнительно недавно - начало признаков религии в захоронениях свидетельствет именно об этом, возникновение mind theory и ее наивный перенос на природные силы и стихии.
Животные обещаний не могут ни давать, ни держать. Самая умная собака не может пообещать принести мне завтра к вечеру две щепки, хотя считать до двух наверняка умеет. Даже если бы она хотела сформулировать такое высказывание, у нее нет для этого нужной сигнальной системы.
Свободе воли посвящены сотни трудов, в том числе и современных. Решать такие вопросы в коментах бессмысленно, считать себя априорно умнее всех, в том числе ведущих современных философов - опрометчиво.