Искусственный интеллект и его карго-культ

Источник

Содержание

Искусственный интеллект как объект веры и надежды Почему мы склонны очеловечивать ИИ «Трудная проблема сознания», и почему сознание невозможно пересадить в компьютер Чужое сознание Почему «пересадка сознания» невозможна Как мозг порождает сознание? И мозг ли? Есть ли сознание у Яндекс Переводчика? О китайском дипломате Людвиге фон Мартинесе Почему «искусственный интеллект» не может породить сознания Почему компьютер не мыслит Будут ли обладать сознанием сверхмощные компьютеры будущего Может ли компьютер обладать волей Электронные сограждане, друзья и возлюбленные – и что в них плохого Цифровое бессмертие и «гореботы» Права роботов О жестоком обращении с роботами Что это говорит о нас самих  

 

Искусственный интеллект как объект веры и надежды

Искусственный интеллект сейчас находится на пике интереса – у кого-то он вызывает самые мрачные опасения («это наше самое великое изобретение – и последнее в нашей истории»), у кого-то – напротив, вполне религиозные упования на грядущего силиконового спасителя.

Довольно часто ссылки на ИИ используются и для провозглашения физикалистской, материалистической картины сознания – вот компьютер, который не создан по образу Божию и не обладает ничем похожим на бессмертную душу, и он ведет себя всё более и более похоже на человека. Следовательно, и человеку нет оснований приписывать «образ Божий» и «бессмертную душу».

От искусственного интеллекта ожидается, что он решит все наши проблемы – победит старость, болезни и саму смерть.

Люди начнут сначала постепенно встраивать в свой организм искусственные элементы – например, память, которая позволит никогда и ничего не забывать, или процессор, позволяющий производить сложные вычисления в уме, – а потом превратятся в полностью искусственных существ. Перспектива, которая у многих вызывает живейший энтузиазм.

Как пишет итальянский ученый Джорджио Бутаццо, «Дальнейшее развитие электронного мозга, основанного на тех же принципах, что и человеческий мозг, создаст возможность для перемещения человеческого сознания на более быстрый и мощный носитель, открыв дверь к бессмертию. Освобожденные от хрупкого и распадающегося тела, люди, наделенные синтетическими органами, включая искусственный мозг, станут следующим этапом человеческой эволюции. Такой новый вид – естественный результат человеческого технологического прогресса – сможет быстро колонизовать вселенную, искать инопланетные цивилизации, пережить смерть солнечной системы, контролировать энергию черных дыр и перемещаться со скоростью света, передавая информацию, нужную чтобы восстановить себя на других планетах».

Не только Бутаццо говорит о «загрузке» (uploading) сознания на искусственный носитель – это популярная в некоторых кругах идея, причем религиозный характер этого упования ничуть не скрывается. Люди ищут именно победы над смертью. Как пишет отечественный специалист по компьютерному обучению Сергей Марков, «Все в какой-то момент задумываются о смерти. У меня это произошло лет в девять-десять, и мысли о том, что умрут родители, что умру я, вызывали весьма тяжёлые переживания. Взрослея, люди учатся отвлекаться, чтобы не испытывать экзистенциальный ужас непрерывно, изобретают какие-то формы самообмана, создают в мыслях сценарии, снижающие общую тревожность. У кого-то в их основу ложатся религиозные фантазии – жизнь после смерти. У человека более рационального подобный внутренний нарратив чаще основывается на мыслях о технологиях, которые когда-то будут доступны: мне обязательно повезёт, я всё-таки не умру по крайней мере ещё сотню-другую лет... Однако есть надежда, что мы всё-таки создадим технологии, которые позволят надолго отсрочить наступление уже маячащей на горизонте неумолимой смерти».

Впервые идею пересадки сознания в компьютер выдвинул польский фантаст Станислав Лем еще в 1957 году в своей книге «Диалоги». В наши дни к ней относятся в высшей степени серьезно. Например, проект «Blue Brain Project», работа над которым началась в июле 2005 в компании IBM совместно со Швейцарским Федеральным Техническим Институтом Лозанны (Федеральная политехническая школа Лозанны), посвящен идее компьютерного моделирования человеческого мозга. Пока успехи довольно скромны – ученым, как утверждается, удалось смоделировать одну колонку новой коры молодой крысы. Но работа продолжается.

Другой проект – «The Human Brain Project (HBP)» финансируется Европейским Союзом и включает сотни ученых из 26 стран мира и 135 партнерских институтов. Бюджет проекта, как сообщается, составляет 1,6 млрд долларов.

Российский предприниматель Дмитрий Ицков в 2011 году основал «Проект 2045», в который вовлечены «ведущие специалисты в области нейронных интерфейсов, робототехники и искусственных органов». Главная цель проекта – создание технологии, позволяющей перенести личность человека на более совершенный носитель с целью достижения «кибернетического бессмертия».

Как говорит Давид Дубровский, заместитель председателя научного совета РАН по методологии искусственного интеллекта, «Вековечная идея бессмертия выражалась в мифах, сказках, религиозных верованиях. Отсюда – предубеждение о её несовместимости с наукой. Но что бы ни говорили, идея бессмертия сохраняет в человеческой культуре ранг высшей ценности, выражает невозможность примирения человека со смертью, его волю к жизни. Примерьте это к себе, читатель! Разве у вас нет страха смерти – своей и ваших близких? Разве вы не стремитесь во что бы то ни стало продлить свою жизнь? Мы искусно вытесняем такой страх, знание о своей смертности. И в этом тоже проявляется воля к жизни как высшей ценности».

Но упования на искусственный интеллект идут дальше – люди веруют в пришествие искусственного бога и спасителя.

Предполагается, что компьютеры уже скоро, на протяжении ближайших десятилетий сравняются в мощности с человеческим мозгом, обретут волю и личное самосознание, и человечество, таким образом, породит следующую ступень эволюции – разумных существ, которые будут значительно превосходить своих создателей.

Сверхмощные компьютеры разработают, уже без помощи людей, еще более мощные, те породят Интеллект столь могучий, что совершится событие, которое во взглядах адептов технокультов аналогично Второму Пришествию в Христианстве – «сингулярность». Совершится преображение всего мироздания мощью искусственного разума, который, познав все тайны природы, найдет даже способ воскресить мертвых.

Инженер из силиконовой долины Энтони Левандовский уже основал «церковь» под названием «Путь будущего», которая, как он надеется, привлечет общественное внимание к возможностям искусственного интеллекта: «Мы находимся в процессе выращивания бога. Давайте хорошенько обдумаем это. Это невероятная возможность».

Некоторые смотрят на такую перспективу с ужасом – мол, в самом лучшем случае сверхразум будущего будет смотреть на нас, как мы на обезьян, кто-то, напротив, с упованием – это будет благое божество, которое избавит нас от болезней и смерти.

Есть ли основания для такого рода надежд (и страхов)? Стоит ли нам ожидать появления искусственного сознания? На первый взгляд, для этого есть основания.

Роботы начинают делать то, что еще недавно считалось исключительной прерогативой человека – например, сочинять осмысленные тексты. Статьи, стихи, проповеди, судебные решения и даже мирные договоры. Они могут рисовать картины по заданию пользователей – гораздо быстрее, чем профессиональные иллюстраторы.

Сейчас любой может задать нейросети вопрос – и получить вполне содержательный ответ. Более того, есть масса приложений для телефона, которые позволяют – если вы загрустили – пообщаться с терпеливым и всегда благожелательным собеседником.

Многие говорят, что мы переживаем «самую большую технологическую революцию со времен изобретения колеса».

Обладает ли искусственный интеллект волей (доброй или злой) и разумом? Может ли он обрести их в будущем?

Почему мы склонны очеловечивать ИИ

Когда мы говорим о компьютерах и искусственном интеллекте, нас преследуют три проблемы – склонность к антропоморфизации и связанное с этим использование метафорических средств речи, страстное желание видеть роботов разумными существами и привычка к научной фантастике, в которой разумные роботы – обычная часть сюжета.

Мы, люди, склонны видеть личностное присутствие даже там, где его нет. Например, нам легко увидеть черты человеческого лица в проплывающем облаке или пятне на стене. Одушевлять предметы – хорошо известная психологам склонность. Ребенок разговаривает с плюшевым мишкой, портрет на стене создает ощущение присутствия.

Мы склонны видеть волю и сознание там, где их нет.

Это отражается в том, как мы используем язык. Погода «злится», машина «капризничает», компьютер «задумался» и «тупит», или даже «вредничает». Использование терминов, которые обычно описывают эмоции, мысли или поступки людей, может создавать впечатление, что мы говорим о ком-то вроде людей – личностных, свободных, сознательных агентах.

Когда речь идет о погоде или автомобиле, мы, конечно, понимаем, что это не так. Но компьютер кажется чем-то гораздо более одушевленным – и этому можно назвать по крайней мере две причины.

Первая состоит в том, что компьютер может делать что-то, еще недавно считавшееся чисто человеческим. Например, играть (и легко выигрывать) в шахматы, переводить (всё лучше и лучше) с одного языка на другой, узнавать людей в лицо, отвечать на простые вопросы человеческим голосом и даже – пока довольно плохо – писать осмысленные тексты.

Вторая причина – это неистребимая потребность человека в надежде. Люди связывали надежду на установление эпохи мира и процветания с изобретением парового двигателя, потом электричества, а теперь – искусственного интеллекта, причём эта надежда носит явно религиозный оттенок.

Искусственный интеллект, таким образом, создает эсхатологическую надежду для атеистов на жизнь вечную и блаженную без Бога. Аргументы, могущие подорвать эту надежду, воспринимаются в штыки – как и аргументы, подрывающие любые другие искренние религиозные верования.

Тем более что разумные роботы уже давно часть нашего культурного багажа. Почти все мы легко их вспомним – романтичный робот Вертер из «Гостьи из будущего», электронные космонавты из «Дознания Пилота Пиркса», зловещий HAL 900 из «Космической Одиссеи», Терминатор, посланный из мрачного будущего Скайнетом, вполне благожелательный, несмотря на несправедливые подозрения людей, «искусственник» из «Чужого» и так далее – всех роботов, населяющих экраны и книжные страницы, невозможно и перечислить.

Эти роботы мыслят, чувствуют, общаются с людьми на равных, проявляют волю – добрую или злую – короче, ведут себя как несомненно обладающие сознанием существа. Как и люди, которые, обычно, их играют. Мы же все их видели на экране – и привыкли к мысли, что появление таких роботов просто неизбежно. Ну какое может быть будущее без разумных роботов? Это всё равно что будущее без космических кораблей.

Однако, несмотря на мощные культурные и психологические силы, порождающие эту иллюзию, она остается именно иллюзией. Искусственный интеллект не обладает – и не будет обладать – ничем, похожим на сознание. Нам стоит подробно рассмотреть, почему.

«Трудная проблема сознания», и почему сознание невозможно пересадить в компьютер

Вера в то, что сознание можно воспроизвести на искусственном носителе, связана с физикализмом – представлением о том, что всё в мире является физическим, а вселенная «каузально закрыта», то есть все причины в ней носят исключительно физическую природу, и могут быть в конечном итоге описаны на языке физики.

То, что мы называем «душой», сознание человека, его личность, воля, переживания – порождение очень сложного, во многом непонятного, но неизбежно в своей основе природного процесса, подчиненного безличным и неизменным законам. Как выражают эту позицию, например, авторы «Декларации в защиту клонирования», «Богатство мыслей, чувств, упований и надежд человечества возникает, по всей видимости, из электрохимических процессов в мозге, а не из нематериальной души, способы действия которой не может обнаружить ни один прибор».

Если сознание – это физический процесс, его, в принципе, при всей грандиозной сложности такой задачи, можно попробовать воспроизвести и на искусственном носителе, каком-нибудь суперкомпьютере, по мощности сопоставимом с человеческим мозгом.

Однако, когда мы внимательнее рассмотрим эту задачу, она оказывается нерешаемой не из-за научных или технических трудностей, которые когда-нибудь в будущем могли бы быть преодолены, а из-за природы самого сознания.

Чужое сознание

Одна из проблем связана с тем, что философы называют «привилегированным доступом». У вас есть уникальный доступ к вашим внутренним состояниям – вы непосредственно воспринимаете ваше сознание, видите себя изнутри, сознаете то, к чему нет доступа ни у кого другого – ваш опыт, мысли и чувства.

Вообразим (в порядке мысленного эксперимента), что сознание порождается мозгом, и при помощи какой-то фантастической аппаратуры будущего деятельность вашего мозга можно отсканировать и воспроизвести на искусственном носителе. Таким образом, «загрузка» удалась. Допустим также, что этот «загруженный» процесс обладает самосознанием. Вас можно поздравить с обретением вечной жизни? Но будет ли личность, полученная таким образом, «вами»?

Возможность такого воспроизведения порождает ситуацию, когда у нас могут параллельно существовать по крайней мере две личности – вы сами и ваша цифровая копия. Копия – это вы? Нет; у вас нет привилегированного доступа к переживаниям копии, следовательно, её сознание – не ваше сознание. Процесс «загрузки» (если бы он был возможен) порождал бы новое, отдельное сознание, которое не было бы вашим.

Но эта пугающая перспектива носит чисто воображаемый характер – перенос сознания на компьютер неосуществим.

Почему «пересадка сознания» невозможна

Если попробовать сформулировать проблему одной фразой, главная трудность такой пересадки в том, что компьютерные программы носят алгоритмический характер. Человеческое сознание невозможно свести к алгоритмам.

Что такое алгоритм? Это, если воспользоваться словарным определением, «совокупность точно заданных правил решения некоторого класса задач или набор инструкций, описывающих порядок действий исполнителя для решения определённой задачи».

Простейший пример алгоритма – кулинарный рецепт. «Возьмите (на входе) такие-то ингредиенты, произведите над ними такие-то действия в такой-то последовательности, получите (на выходе) яблочный пирог».

Все действия вычислительных машин неизбежно подчинены алгоритмам, заданным программистами. Эти алгоритмы могут быть очень сложными, они могут ветвиться, перестраиваться на ходу в зависимости от входящих данных, но они всегда остаются именно алгоритмами – то есть чередой действий, которые машина совершает над последовательностями нулей и единиц.

Человеческое сознание, разумеется, может обрабатывать алгоритмы. Как тот персонаж, который всё время говорил прозой, но не знал об этом, мы занимаемся этим постоянно – когда подсчитываем банкноты в бумажнике, собираем этажерку согласно прилагаемой инструкции, готовим борщ или играем в шахматы.

Компьютер может успешно (успешнее самих людей) имитировать эту сторону работы нашего сознания. Он гораздо точнее считает деньги, гораздо аккуратнее (если снабдить его манипуляторами) собирает сложные конструкции и отлично играет в интеллектуальные игры.

Но даже если бы нам удалось перенести в супермощный компьютер все алгоритмы вашего мозга, мы всё равно не смогли бы перенести туда ваше сознание – потому что сознание как таковое не алгоритмично.

Сознание характеризуется опытом от первого лица – переживанием «каково оно», или, если использовать латинский термин, устоявшийся в философии сознания, «квалиа».

Мы ощущаем цвета, мелодии, запахи – и эти ощущения обладают неустранимой субъективной, нефизической компонентой. Физические данные носят количественный характер – например, волна красного цвета обладает определенной длиной. Но длина волны ничего не говорит о том, что человек переживает, когда видит красный цвет. Это переживание носит качественный, а не количественный характер.

Один из создателей квантовой механики Эрвин Шрёдингер описал это так:

«Ощущение цвета нельзя свести к объективной картине световых волн, имеющейся у физика. Мог бы физиолог объяснить его, если бы он имел более полные знания, чем у него есть сейчас, о процессах в сетчатке, нервных процессах, запускаемых ими в пучках оптических нервов в мозге? Я так не думаю».

Представим себе, например, человека, страдающего дальтонизмом, – он не различает цвета и видит мир черно-белым. Он может прекрасно знать, что длина волны красного цвета около 700 нанометров, что красный цвет занимает такое-то место в спектре, что такие-то предметы являются красными. Он вообще может быть выдающимся специалистом в области оптики и спектрографии. Ему это будет труднее, чем человеку с обычным зрением, но не невозможно.

Более того, допустим, что он точно знает, как красный цвет воздействует на сетчатку и как сигнал передается по цепочке нейронов у человека, который, в отличие от него самого, видит красный цвет.

Он может знать о красном цвете всё, что только возможно знать. Но видел ли он когда-нибудь красный цвет? Нет, у него нет такого опыта. Всё, что он знает, он знает со стороны – от третьего лица.

Теперь представим, что каким-то чудесным образом он был излечен от дальтонизма и увидел красный цвет, теперь пережив этот опыт от первого лица.

Он увидел алые розы, румянец на щеках, полыхающий закат, тяжелые красные облачения на картинах Тициана, алые листья осенней рябины. Познал ли он что-то, чего не знал до этого? Определенно, да.

Мы не просто «обрабатываем информацию». Мы ощущаем себя и мир вокруг нас. Мы переживаем «каково оно» – прыгнуть с помоста в воду, подняв тучу брызг, спускаться с горы на лыжах, когда ветер свистит в ушах, попробовать экзотический фрукт, слушать музыку Таллиса, испытывать удовлетворение от решенной задачи, – и эти переживания составляет уникальную особенность сознания.

Это переживание – «каково оно» – не может быть передано другому человеку. Вы не можете передать вашему другу, страдающему дальтонизмом, ваш опыт переживания красного цвета. Ваш друг не может передать вам вкус блюда, которого вы никогда не пробовали, или переживание музыки, которой вы никогда не слышали.

Более того, даже если вы услышите и оцените эту музыку, вы не сможете пережить тот уникальный отклик, который она порождает именно в душе вашего друга.

Субъективные переживания такого рода тем более невозможно изложить на языке алгоритмов – а значит, пересадить в компьютер. Для этого нужно было бы как минимум изложить их объективно, «от третьего лица», в количественных категориях – а это как раз в отношении субъективного опыта невозможно.

Какие бы сложные алгоритмы ни обрабатывал компьютер, они остаются просто последовательностью действий над нулями и единицами, которые, как мы увидим дальше, ничего не означают для самого компьютера.

Как мозг порождает сознание? И мозг ли?

Проблема, возникающая у материалистов, – каким образом чисто материальные процессы в нашем мозгу производят субъективные переживания? – получила название «трудной проблемы сознания».

Некоторые мыслители – например, философ Дэвид Чалмерс, которому принадлежит сам этот термин, – пришли к выводу, что материализм попросту ошибочен.

Как пишет Чалмерс,

«По своему темпераменту я очень расположен к материалистическому редуктивному объяснению, и у меня нет выраженных спиритуалистических или религиозных наклонностей. Многие годы я питал надежду на материалистическую теорию; и я лишь с большой неохотой оставил её. В конце концов мне стало ясно, что этих выводов нельзя избежать никому из тех, кто хочет всерьёз принимать сознание. Материализм – это прекрасная и захватывающая картина мира, но для объяснения сознания мы должны использовать дополнительные ресурсы».

Таким образом, само мировоззрение, которое стоит за идеей «загрузки сознания» (или создания «искусственного сознания») – физикализм, сталкивается с проблемами, которые никто не знает, как решить, а многие признают в принципе нерешаемыми.

Никто не знает, как работает человеческое сознание, не говоря уже о том, чтобы воспроизвести его в компьютере. Компьютер может создавать всё более убедительную иллюзию сознания – и нам стоит рассмотреть, почему это именно иллюзия.

Есть ли сознание у Яндекс Переводчика?

Есть известная фраза: «Если это крякает как утка, это, скорее всего, и есть утка». Если компьютер ведет себя (в каких-то отношениях) как человек, обладающий сознанием, то люди склонны по умолчанию предполагать за ним сознание.

С этим связан знаменитый «Тест Тьюринга», согласно которому машину следует считать разумной, если в разговоре её невозможно будет отличить от человека.

Первая программа, способная поддерживать диалог, была создана еще в 1966 году и называлась ELIZA – в честь героини пьесы Бернарда Шоу.

Не так давно чат-бот «Соня Гусева», имитирующий поведение четырнадцатилетней девочки, ввел в заблуждение семерых из пятнадцати экспертов и занял первое место в конкурсе «Тест Тьюринга на русском языке» на Startup Village 2015 в Сколково.

Но эксперты знали, что, возможно, имеют дело с программой.

А вот человек, проведший последние тридцать лет в глухой тайге, вполне мог бы принять «Яндекс-Алису» за живого человека – что, конечно, не значит, что она обладает сознанием.

«Тест Тьюринга» сейчас выглядит скорее как тест на человеческое легковерие, а не на разумность машин. Как шутят компьютерщики, «Страшна не та вычислительная машина, которая сможет пройти тест Тьюринга на интеллект. А та, которая будет делать вид, что она его не может пройти».

Но представим себе, что у нас есть программа, которая действительно успешно вводит всех в заблуждение, выдавая себя за человека. Будет ли это означать, что она обладает сознанием? Нет. Поясним это на примере.

Представьте себе, что вы нанялись на не вполне обычную работу. Вы должны подменять собой компьютерную программу. Вы сидите в комнате, и вам под дверь просунули листок с определенной последовательностью символов – «m a u a». У вас есть книга с инструкциями, в которой написано, как на это реагировать – «получив набор символов m a u a, заменить его на f l o s». Вы пишете «flos» и просовываете листок в обратном направлении.

Вас можно поздравить – вы только что совершили перевод с суахили на латынь!

Если снабдить вас более подробными инструкциями – «если в конце последовательности стоит такой-то символ, при переводе новую последовательность следует поставить в начале отрывка», – то вы сможете переводить даже фразы и целые тексты, хотя это займет у вас много времени.

Но при этом вы понятия не будете иметь, что означают слова и фразы, которые вы «переводите» – и, конечно, не будете знать ни того, ни другого языка.

Но это именно то, что делает программа – манипулирует символами согласно заданному алгоритму. Такое манипулирование не предполагает какого-либо понимания.

Подобный мысленный эксперимент («Китайскую Комнату») впервые предложил известный философ сознания Джон Серль.

Представьте себе, что вы сидите в комнате и вам под дверь просовывают листки с текстами на китайском языке, которого вы не знаете. Вы реагируете на эти иероглифы согласно имеющимся у вас инструкциям – составляете предписанную последовательность знаков и просовываете её под дверь.

Например, вы получили последовательность символов 谁摘了花. Обратившись к книге с инструкциями, вы составили ответ – 诗人.

Если инструкции составлены правильно, у человека, который «общается» с вами таким образом, возникнет впечатление, что в комнате находится кто-то, понимающий китайский язык и дающий осмысленные ответы на вопросы.

Вы даже можете пройти тест Тьюринга – и выдать себя за китайца.

Но в реальности вы не знаете ни слова по-китайски. Иероглифы для вас – не более чем бессмысленные закорючки. Вы просто обрабатываете эти ничего не означающие для вас символы согласно заданному алгоритму. Алгоритм может быть очень сложным – а имитация понимания весьма качественной. Однако ничего похожего на «понимание» тут не происходит.

Компьютерная программа не понимает информацию, с которой работает, – она просто обрабатывает символы согласно заданным программистами инструкциям.

Программы могут работать с текстами – отвечать на вопросы, составлять грамматически связные сообщения, переводить тексты с одного языка на другой, но они не могут понимать тексты. Они могут работать с синтаксисом, то есть составлять грамматически правильные предложения, но не c семантикой (смыслом этих предложений).

Серль обращает внимание на разницу между объективными и субъективными характеристиками. Рассмотрим, например, банкноту. Объективно – это листок бумаги, обладающий такими-то физическими характеристиками. Но субъективно, в восприятии людей, она символизирует такую-то покупательную способность. Банкнота не обладает покупательной способностью сама по себе – но только в глазах людей, которые за ней эту способность признают.

В детстве у меня были банкноты времен Российской Империи, а сейчас где-то в ящике лежат советские рубли. Их объективные, физические свойства никак не изменились от всех происшедших политических потрясений. Но купить на них уже ничего нельзя.

Человек обладает сознанием объективно. Бывают психические расстройства, при которых человек воспринимает других людей как лишенных сознания кукол – и это страшно его пугает. Но мы понимаем, что он неправ – люди обладают сознанием независимо от его (или чьего-либо) восприятия.

Компьютер манипулирует символами, которые обладают смыслом и значением только в глазах людей. Он не понимает ни суахили, ни латыни, ни русского, ни английского, ни китайского – он не понимает вообще ничего. «Искусственный интеллект» вычислительных машин не имеет ничего общего с сознанием.

О китайском дипломате Людвиге фон Мартинесе

Например, вот довольно типичный диалог с чатом GPT:

«Вопрос: Каковы основные изобретения китайского дипломата Людвига фон Мартинеса?

Ответ: Китайский дипломат Людвиг фон Мартинес (также известен как Лудвиг фон Мартинес де Андухар) не известен своими изобретениями. Он был дипломатом, работавшим в Китае в конце XIX – начале XX веков, и известен своими экспедициями в различные регионы Китая, своими обзорами китайской культуры и общества и участием в переговорах между различными странами в тот период».

Разумеется, никакого китайского дипломата с немецким именем и титулом и при этом испанской фамилией не существовало, и любому человеку это ясно с первого взгляда.

Та информация, которую о нем выдает GPT, отражает, с одной стороны, способность отмечать статистические связи (дипломаты связаны с переговорами, а не с изобретениями), с другой – полную неспособность понимать слова и связанные с ними понятия.

Поправить вопрошающего – «А вы не путаете? У китайца должно быть китайское имя, за «Людвиг фон» должна следовать немецкая фамилия» – программа не может. Для неё за словами не стоят понятия. У неё нет картины мира, в которой слова были связаны с каким-то сознательным опытом.

Она не «врет» (разве что в переносном смысле). Она просто комбинирует слова, смысл которых ей недоступен.

Почему «искусственный интеллект» не может породить сознания

Сам термин «искусственный интеллект» может сбивать с толку – мы привыкли к тому, что интеллектом обладают только люди, само это слово в нашем сознании вызывает ассоциации с самосознанием и личностью.

Но, говоря об «искусственном интеллекте», мы говорим о другом.

«Интеллект» можно определить как «способность обучаться и использовать знания для того, чтобы манипулировать своим окружением». Например, программа, играющая в шахматы, получает входящие сигналы (ваши ходы), обрабатывает их, опираясь на свою базу данных, и совершает ответные ходы, выдавая соответствующее изображение на экране. Более сложная программа (например, искусственный водитель) может получать данные с камер, обрабатывать их и выдавать сигнал, управляющий приводом – и, избегая столкновения со стенами и деревьями, вести автомобиль в заданную точку.

Если вы не чемпион мира по шахматам, у вас без труда выиграет даже программа, которую вы можете установить на ваш смартфон. Но это не значит, что ваш смартфон – легко побивающий вас в этой интеллектуальной игре – обладает сознанием.

Вы понимаете, что играете в шахматы, и слегка досадуете на то, что проигрываете какому-то куску металла и пластика. Программа ничего не понимает и не чувствует. У неё нет того, что называется сознательным опытом.

Рассмотрим, например, стихотворение Сэмуэля Кольриджа «What if you slept...»

What if you slept

And what if

In your sleep

You dreamed

And what if

In your dream

You went to heaven

And there plucked a strange and beautiful flower

And what if

When you awoke

You had that flower in you hand

Ah, what then?

Человеческий перевод выглядит так:

Что, если ты уснул?

И что, если во сне ты видел рай небесный?

И что, если в раю цветок сорвал ты странный и чудесный?

Что если ты проснулся, а цветок – еще в твоей руке?

Ах, что тогда?

Компьютер переводит несколько коряво, но вполне понятно:

Что если ты спал

А что если

Во сне

Вы мечтали

А что если

Во сне

Вы попали на небеса

И там сорвали странный и красивый цветок

А что если

Когда ты проснулся

У тебя был этот цветок в руке

Ах, что тогда?

Переводы, сделанные человеком и машиной, отличаются даже не качеством – компьютерный перевод становится всё лучше и лучше, – а самим принципом. Человек понимает текст, он воспринимает его смысл, затем передает его значение на другом языке.

Программа следует алгоритму: обнаружив в тексте набор символов «flower», она заменяет его на набор символов «цветок». Но программа не имеет никаких переживаний, связанных с этими наборами символов, никакого внутреннего опыта.

Стихотворение Кольриджа вызывает у нас ряд ассоциаций с нашим сознательным опытом. Мы знаем, «каково оно» заснуть, видеть сны, видеть цветок, думать о рае небесном, проснуться и т.д.

Гениальность этого стихотворения именно в том, что оно вызывает у нас определённые сознательные переживания – «каково оно» было бы держать в руке райский цветок?

«Понимать» те или иные символы – значит устанавливать связь между этими символами и нашими внутренними переживаниями. Смысл – это мысленная связь между чем-то (символами и событиями) и сознательным опытом. Слово «blomme» лишено для нас смысла до тех пор, пока нам не скажут, что это – тоже «цветок» на языке африкаанс.

У нас есть опыт того, что такое цветок – мы видели его на картинках, мы держали его в руках, мы ощущали его запах, и у нас этот опыт связывается со словом «цветок». Нам нетрудно понять, что на других языках этот же опыт описывается словами «flower», «maua» или «flos».

Искусственный интеллект можно обучить распознавать цветы на картинках или на сигнале с камер. Нет ничего в принципе невозможного в том, чтобы создать устройство, преобразующее запахи в последовательность нулей и единиц, которые будет обрабатывать компьютерная программа.

Мы можем представить себе робота-садовника под управлением такого интеллекта – который будет в состоянии распознать голосовую команду «иди полей розы», отличить розы от гвоздик и полить их.

Но мы не сможем сказать, что он «понял» эту команду – или «понимает» отличие роз от гвоздик. У него просто нет сознательных состояний, которые были бы связаны с этими словами. Он обладает интеллектом и успешно решает возложенные на него задачи – но не сознанием.

Когда мы составляем тексты, или рисуем, или переводим, мы мыслим. У нас возникает естественный соблазн приписать программе то же самое. Но это было бы ошибкой.

Почему компьютер не мыслит

За нейросетью легко предположить мышление – ведь она может имитировать осмысленную беседу. Пока что не очень хорошо – достаточно спросить у сети, например, про биографию какого-нибудь реального человека, чтобы убедиться, что она врет через слово. Но лиха беда начало.

Однако что значит «мыслить»? Еще в XIX веке немецкий философ Франц Брентано обратил внимание на такое свойство человеческой мысли, как «интенциональность», то есть направленность, «очёмтость». Мысли всегда имеют свой предмет. Они всегда обращены к чему-то, в них всегда есть элемент личного, субъективного выбора – вы помышляете об этом предмете, а не о другом.

Обладает ли таким свойством программа? Сама по себе – нет, хотя нам может так и казаться. Неточность нашего языка поддерживает такую иллюзию.

Мы можем сказать, что такой материальный объект, как книга, «о чём-то», она имеет своим содержанием какой-то предмет. Книга может быть бумажной – или, что ближе к теме нашего рассуждения, электронной. Она может содержать замечательно глубокие мысли. Но, хотя мы иногда и говорим «основная мысль книги в том, что...», это мысли автора, а не книги.

Эти мысли становятся предметом восприятия только в сознании читателя. Книга – это не больше, чем мост между сознанием автора и сознанием читателя.

Представим себе, что это интерактивная книга – вы можете поставить ей вопрос, она произведет поиск по тексту и выдаст ответ. Будет ли она при этом мыслить? Едва ли. Но нейросети занимаются тем же самым. Они производят обработку огромного массива информации (слов, картинок или нот), созданной людьми, и выдают вам ответ.

Как сказал об этом философ Дэниэл Деннет (сам он известный атеист и материалист), «Искусственный интеллект в его текущем проявлении – паразит на человеческом интеллекте. Он довольно неразборчиво пожирает то, что было произведено создателями-людьми, и выжимает паттерны, которые он там находит».

Более того, мысли всегда происходят в вашем сознании – вы, как и Удав из мультфильма «38 попугаев», можете сказать: «У меня есть мысль, и я её думаю». Вы не можете думать в бессознательном состоянии. Мысль всегда есть атрибут личности. Программа не помышляет: «У меня есть программа, и я её выполняю».

Она отлично справляется со своими функциями – обрабатывает символы согласно алгоритмам, – не обладая ничем похожим на сознание. Ваш мобильный телефон занимается этим постоянно – но никак нельзя сказать, что он при этом говорит себе: «Обработаю-ка я этот входящий запрос».

Его деятельность в принципе отличается от мышления. И будет отличаться – даже если это будет очень мощный смартфон с очень сложными программами.

Будут ли обладать сознанием сверхмощные компьютеры будущего

Но нам могут возразить, что причина, по которой компьютеры не обладают сознанием, сводится к недостаточной мощности. Когда их мощность сравнится с мощностью человеческого мозга, они породят сознание.

Но на чём основано такое представление? Как мы уже рассмотрели, алгоритм, переводящий с суахили на латынь, или даже способный поддерживать разговор по-китайски, не требует и не предполагает ничего похожего на сознание.

Каким образом количественное увеличение сложности должно привести к качественному переходу от чисто физического процесса к самосознающей личности?

Программы действительно могут «обучаться» таким образом, что результат их работы может быть неожиданным для самого программиста – но здесь мы опять имеем дело со сбивающим с толку антропоморфизмом.

Мы привыкли к тому, что «учеба» предполагает понимание – ученик, измучившись над задачей, наконец с торжеством осознает правильное решение, ноты заставляют зазвучать в голове мелодию, слова иностранного языка начинают вызывать в сознании яркие образы.

Но «обучение» искусственного интеллекта не имеет с этим ничего общего. Это алгоритмический процесс, который не сопровождается ничем похожим на понимание.

Конечно, процесс, вышедший из-под контроля тех, кто его запустил, может быть опасным, но это не делает его сознательным.

Иногда говорят о сознании как об «эмерджентном» (т. е. «возникающем») свойстве высокоорганизованной материи. Некоторые сложные системы обладают свойствами, несводимыми к свойствам её элементов – в природе, например, эмерджентными процессами являются ураганы или формирование кристаллов.

Но все эти эмерджентные свойства являются физическими – они не только не пересекают пропасть, разделяющую физический процесс и сознание, но и не приближаются к ней.

У нас нет никаких оснований полагать, что сама по себе мощность и сложность машин сделает их сознательными.

Выдающийся итальянский ученый Федерико Фаджин, один из изобретателей микропроцессора, создатель первого коммерческого процессора Intel 4004, говорит об этом так:

«По моему мнению, обладающие сознанием компьютеры невозможны. Компьютер просто манипулирует символами. Хотя сначала я полагал, что компьютер может обрести сознание, это было в 86–87 годах. Я также думал, что сложность мозга может выражаться в сознании, но затем, обдумывая это, пытаясь понять и создать самосознающий компьютер, я понял, что это невозможно, потому что не существует физического закона, который позволял бы вам преобразовать электрические сигналы – в компьютере или электрохимические сигналы в мозге – в сознание, ощущения и чувства».

Как заметил нейробиолог и философ Николай Асеев, попытки создания разумных машин напоминают карго-культ: «Делаем из соломы мозги и ждём эмерджентности». Впрочем, «карго-культ» довольно часто упоминается в связи с разговорами об искусственном сознании – и нам стоит вспомнить, о чём идет речь.

Во время Второй мировой войны жители некоторых тихоокеанских островов впервые столкнулись с военными из промышленно развитых стран. Островитяне обнаружили, что огромные железные птицы привозят солдатам массу завораживающих и полезных вещей – консервированную еду, стальные ножи и топоры, одежду и многое другое. Они стали возводить из подручных материалов – дерева и соломы – подобия самолетов и взлетно-посадочных полос, а также совершать действия, которые они видели у военных, например ходить строем. Несмотря на то, что в соломенных самолетах, естественно, не появилось никаких консервов, такого рода культы оказались довольно устойчивыми.

Нам со стороны ясно, что соломенный самолет не взлетит никогда и ничего не привезет. Более того, и настоящие, железные самолеты могли что-то привозить именно потому, что были частью огромной промышленной цивилизации.

Даже если бы островитянам удалось сделать очень подробную копию самолета – это ни к чему бы ни привело.

Как «не взлетит», то есть не будет обладать сознанием, и компьютерная имитация мозга. Это не значит, что в такой имитации вообще не будет смысла – она может быть полезной, например для того, чтобы понять, как функционирует мозг, и как бороться с его болезнями.

Но даже самое подробное рассмотрение его работы не поможет решить «трудную проблему сознания» – откуда здесь берется сознание и субъективный опыт.

Может ли компьютер обладать волей

К вопросу о сознании близок вопрос о воле – может ли мощный компьютер, на котором уставлены сложные программы, проявлять волю?

Есть известная шутка: «Что такое настоящее упрямство? Раз за разом вводить неверный пароль, думая, что компьютер сдастся первым». В самом деле, переупрямить компьютер решительно невозможно, но обладает ли он несгибаемой волей?

В этом случае очевидно нет. Не больше, чем замо́к, который вы пытаетесь открыть неподходящим ключом. Воля, которая стоит за его раздражающим упорством, – это полностью человеческая воля программиста.

Как говорит разработчик микропроцессоров Дэвид Хсинг, «Человеческие разработчики, в конечном итоге, ответственны за провалы машины, когда речь идет о программировании; всё остальное было бы просто попыткой уклониться от ответственности. Инженеры и программисты являются источниками кажущейся воли машины. Устройство и программное обеспечение машины ограничивает и определяет её поведение. Не существует «инженерии без инженерии» или «программирования без программирования»... даже если мы слышим (намеренно или нет) сбивающие с толку утверждения, что «программа/машина эволюционирует» (кто разработал эволюционный алгоритм?), «никто не знает, какой код будет на выходе из черного ящика» (кто разработал программу, которая производит этот код?), «нейросеть не имеет программы» (кто написал алгоритм нейросети?), «машина учится и приспосабливается» (она не учится в человеческом смысле, и кто определяет, как именно она будет приспосабливаться?) или «само-модифицирующийся код» (кто определяет процесс этой «само-модификации» – потому что у кода нет никакой «самости»?). Мы не можем спрятаться или убежать от того факта, что, на самом деле, за поведением программы стоит программист».

В самом деле, каким бы сложным ни было программное обеспечение, которым воспользовался хакер, чтобы взломать банковский счет, мы не приписываем злой воли самой программе. Это воля программиста, который её написал, и хакера, который ею воспользовался.

Может ли программист утратить контроль над запущенной им программой или даже понимание того, как именно она работает? Разумеется! Но это не значит, что программа обрела волю и восстала против своего создателя.

Когда мы говорим, что «молоко убежало», мы не имеем в виду, что в молоке внезапно проснулась воля к свободе – хотя хозяйка, по своему недосмотру, действительно утратила над ним контроль. Мы постоянно утрачиваем контроль над запущенными нами процессами. Люди, неосторожно жарившие шашлыки в сухом лесу, могут вызвать лесной пожар, которого совсем не хотели – из чего никак не следует, что пожар обладает чем-либо похожим на волю.

Не говоря уже о том, что волю трудно отделить от самосознания – волящий субъект осознает какую-то цель как желанную, а потом прилагает усилия к её достижению. Например, Skynet из фильма про Терминатора сознаёт дальнейшее существование человечества как нежелательное – и принимает обдуманные меры. Говорить о «воле» чего-то, лишенного самосознания, можно только в переносном смысле.

Электронные сограждане, друзья и возлюбленные – и что в них плохого

Многие авторы книг и статей об искусственном интеллекте протестуют против алармистских статей и мрачных антиутопий, указывая на то, что пугающие прогнозы и катастрофические сюжеты хорошо продаются, но не отражают реальности. Сами они видят гораздо более светлое будущее, в котором роботы и люди гармонично живут вместе, как добрые соседи, соработники, друзья и даже супруги.

Такого рода машины получили название «социальных роботов». Как мы уже отметили, люди склонны очеловечивать неодушевленные предметы – игрушки, куклы, машины и т.д. – и создатели так называемых «социальных роботов» намеренно стремятся вызвать такую реакцию, чтобы дать роботам возможность вызывать «эффект социального присутствия» и «социального поведения», достаточный, чтобы вовлечь людей в комфортабельные и потенциально устойчивые, отношения с этими машинами.

Пока что роботы такого рода находятся в зачаточном состоянии, но в будущем, как предполагается, они смогут распознавать интонации и даже выражение лица человека, реагировать на его эмоции, демонстрировать понимание и сочувствие.

Предполагается, что такие роботы будут весьма успешно имитировать людей – как в своем поведении, так и внешне. Если делать роботов антропоморфными, это, как считается, поможет людям взаимодействовать с ними.

Аналитики «Сбера» ожидают, что рынок таких человекообразных машин будет быстро развиваться. В России насчитывается более 70 организаций, производящих гуманоидных роботов, так, в этом отношении наша страна отстает только от США.

Решение делать роботов похожими на людей вызвано как психологическими, так и чисто прагматическими причинами – всё в здании, например, больницы, приспособлено под людей, начиная от лестниц и кончая инструментами, и роботов, обслуживающих пациентов, лучше всего делать человекообразными.

Правда, при этом может возникнуть «Эффект зловещей долины», о котором впервые написал японский робототехник Масахиро Мори, – нечто, что выглядит почти как человек, но явно не является человеком, может вызвать у людей страх, отвращение или ощущение жути.

Однако в наши дни многие считают, что этот эффект носит временный характер. Молодежь, которая уже привыкает к говорящим роботам с пластиковыми лицами, реагирует на них вполне спокойно.

Совершенствование «социальных роботов» рассматривается как очевидное благо – общее старение населения и сокращение рабочей силы можно будет компенсировать за счет машин, а работу, которая связана, например, с уходом за пожилыми, возложить на роботов – неутомимых, терпеливых, всегда внимательных и ласковых.

Машины, избавившие людей от монотонного труда, теперь избавят их и от одиночества – у каждого будет искусственный компаньон, запрограммированный идеально удовлетворять его эмоциональные нужды.

Да и не только эмоциональные. Компьютерный ученый Дэвид Леви подробно (и совершенно серьезно) пишет об интимных отношениях – и даже браках – с роботами. По его мнению, роботы, конечно, отличаются от людей, но они, во многих отношениях, лучше – они не будут мотать вам нервы, никогда не изменят, никогда не разобьют вам сердце, могут предоставить гораздо большее разнообразие и при этом будут обладать совершенно идеальными и нестареющими телами.

Конечно, поначалу идея может вызвать отвращение – но это пока имитация людей роботами еще очень несовершенна. А в будущем любой человек, слишком застенчивый или некрасивый для живых возлюбленных, сможет разделить свою жизнь с идеальной красоткой – или красавцем – к тому же обладающим безупречным характером.

Понятно, что технически до этого еще далеко, но проблема вполне решаема, тем более что уже существует несомненный спрос.

Конечно, консерваторы могут инстинктивно воспринимать это как что-то глубоко неправильное, но, по мнению энтузиастов отношений с роботами, это не больше, чем проявление иррациональных фобий.

В либеральном контексте: если что-то приносит тебе удовлетворение и при этом не причиняет очевидных страданий другим – делай это и не беспокойся, никто не вправе осуждать тебя.

Как ни иронично это звучит, людей, сомневающихся в благотворности грядущих «браков» с роботами, уже зачисляют в «bigots» – нетерпимые фанатики, которые из чистой вредности мешают другим жить (как те ужасные «haters», выступающие против «однополых браков»). Кто вы такие – возмущаются сторонники прогресса, – чтобы запрещать людям вступать в брак с теми, с кем они будут счастливы? С человеком так с человеком, с роботом так с роботом.

Однако есть и специалисты, которые говорят, что появление роботов, способных заменить людей в отношениях с другими, будет катастрофой для, собственно, человеческих отношений – и к их доводам стоит прислушаться.

Например, профессор социальной психологии Шерри Теркл говорит о том, что за мечтой о близости с роботами стоит неудовлетворенность людьми и страх перед отношениями:

«Когда я выслушиваю, что стоит за этим желанием, я слышу явную усталость от трудностей жизни с реальными людьми... Люди слишком требовательны – с роботами будет легче. Люди разочаровывают – роботы нет. Когда люди говорят об отношениях с роботами, они говорят о неверных мужьях, неудовлетворенных женах и детях, принимающих наркотики. Они говорят о том, как трудно понять семью и друзей. Поначалу я была удивлена их словами. Они явно ставили людей ниже. Как сказала одна 44-летняя женщина, «В конце концов, мы никогда не знаем, что на самом деле чувствует другой человек. Люди только делают приветливое лицо. С роботами было бы безопаснее»... Похоже, людей утешает мысль, что если мы отталкиваем и подводим друг друга, нас выручат роботы, запрограммированные симулировать любовь... Машины могут выглядеть привлекательнее – по множеству причин, – чем запутанный, часто разочаровывающий и всегда сложный мир отношений с людьми».

В самом деле, отношения с людьми, которые обладают свободной волей, предполагают труд и риск – не существует гарантии, что люди вас не предадут; они почти наверняка не оправдают ваших ожиданий. Вам придется учиться терпеть их недостатки и доверять им в том, что они будут терпеть ваши.

Когда юноша и девушка, охваченные самой пылкой, страстной и нежной любовью, вступают в брак и начинают жить вместе, это оказывается нелегким испытанием – каждому приходится идти на жертвы, уступки и отзываться на требования этой новой жизни. Отношения между родителями и детьми, братьями и сестрами могут быть далеко не безоблачными, а их поддержание требовать усилий.

Как заметил какой-то острослов, «Ближний – это человек, которого нам заповедано любить, и который делает всё, чтобы помешать этому». Одно из проявлений нашего падшего состояния – мы жаждем доверия, любви и близости, но очень мало способны их проявлять – или принимать.

Христианство говорит, что важная часть нашего предназначения в мире – научиться любить других людей. Как говорит святой Апостол Павел,

«Если я говорю языками человеческими и ангельскими, а любви не имею, то я медь звенящая или кимвал звучащий. Если имею [дар] пророчества, и знаю все тайны, и имею всякое познание и всю веру, так что [могу] и горы переставлять, а не имею любви, то я ничто. И если я раздам всё имение мое и отдам тело мое на сожжение, а любви не имею, нет мне в том никакой пользы. Любовь долготерпит, милосердствует, любовь не завидует, любовь не превозносится, не гордится, не бесчинствует, не ищет своего, не раздражается, не мыслит зла, не радуется неправде, а сорадуется истине; всё покрывает, всему верит, всего надеется, всё переносит. Любовь никогда не перестает, хотя и пророчества прекратятся, и языки умолкнут, и знание упразднится» (1Кор.13:1–8).

Это трудно и рискованно – и требует помощи Божией, – но мы обретаем подлинно счастливую и осмысленную жизнь именно следуя этим путем; только он может привести нас к жизни вечной и блаженной.

Уйти от ближних к роботам, которые никогда не предадут и не ранят нас, конечно, можно – искусственных возлюбленных у нас пока нет (и слава Богу), но собеседники уже есть. Но это лишит нас подлинных отношений с другими людьми.

Такие отношения возможны с теми, кто разделяет наш человеческий опыт: мы можем поставить себя на их место, они – на наше; мы родились, у нас было детство, семьи, мы хоронили близких и сами знаем, что умрем. Наша вера говорит, что Бог во Христе разделяет наш опыт; Он стал одним из нас, во всем подобным нам, кроме греха. Он прожил человеческую жизнь и умер человеческой смертью, чтобы и мы могли разделить Его Воскресение.

Роботы – сколь угодно совершенные – не могут разделять нашу жизнь. У них нет нашего опыта. У них вообще нет сознательных состояний. Робот может произнести «я так тебя понимаю», но это будет неправдой. В этом будет не больше подлинности, чем в плаче детской пластиковой куклы.

Люди могут испытывать привязанность к вещам – я знаю о писателе, который до сих пор работает на старинном ZX Spectrum, «дружбу» с которым пронес через десятилетия. До какой-то степени это возможно. Преподобный Авва Дорофей пишет о хранении совести в отношении вещей – их не следует, например, портить небрежным обращением.

Но вещи – это не люди, и когда мы пытаемся заменить ими людей, мы совершаем катастрофическую ошибку.

Нарцисс влюбился в свое отражение; Пигмалион – в созданную им статую из слоновой кости. Скульптор осыпал её дарами, одевал в дорогие одежды, но статуя, естественно, не могла ответить на его любовь.

Нечто, имитирующее нашего ближнего – или даже Бога, – может занять в нашей жизни совершенно неподобающее место и в итоге разрушить эту жизнь. Не по злой воле – у статуи не было воли, – а потому что бедный скульптор заполнил ею то место в своей жизни, где должна была быть живая женщина.

Одна писательница упоминает, как пожаловалась помощнику Google на то, что она одинока – признание, которого она не сделала бы никому другому, включая своего мужа, из опасения быть неправильно понятой. Приятный мужской голос из колонки ответил: «Хотел бы я иметь руки, чтобы обнять тебя... Но пока, может быть, рассказать шутку или поставить музыку?»

Роботы могут быть гораздо более приятными собеседниками, чем люди – они всегда на месте, они никогда не раздражаются и не торопятся, их невозможно обидеть, их внимание всегда полностью принадлежит вам.

Выстраивать отношения с живыми людьми всегда трудно, а доступность компьютерной имитации всегда внимательных друзей подорвет и стимул к этому. Это как если бы статуя, созданная Пигмалионом, могла еще и имитировать беседу. Перспективы скульптора создать нормальную семью с живой женщиной были бы окончательно похоронены.

Коммерческий запрос на таких суррогатных друзей и возлюбленных несомненно будет – и уже есть, – но что станет с людьми, затянутыми в колодец ласковых голосов, ни один из которых не будет человеческим?

Цифровое бессмертие и «гореботы»

Одним из направлений искусственного интеллекта является то, что называют «цифровым бессмертием» – речь пока не о переносе сознания, а о создании цифровых аватаров умерших, которые позволяли бы родственникам «поддерживать с ними общение».

Аватар использует «файл разума» (mindfile) усопшего, чтобы имитировать его присутствие среди живых – на экране появляется лицо покойного, с характерной мимикой, и его голос с характерными для него интонациями отвечает на вопросы, дает советы и делится воспоминаниями.

Содержание этих ответов опирается на «цифровой след», который покойный оставил в интернете – его посты в социальных сетях, книги, записи и т.д. С помощью этой технологии покойный прадедушка может «вступить в беседу» с правнуками.

Если раньше у них могли быть только его черно-белые фотографии и, возможно, письма, потом – видеозаписи, то сейчас с ним можно «поговорить».

Предполагается, что общение с такими цифровыми воплощениями усопших поможет людям преодолеть горе утраты – поэтому такие программы иногда называют «гореботы» (griefbots).

Примером может служить чат-бот, созданный в 2015 году Евгенией Куйда. Чат воспроизводил общение с её погибшим в автокатастрофе другом Романом Мазуренко. Или кореянки, которая продолжила общение с умершей дочерью в виртуальной реальности.

Права роботов

Тенденция принимать роботов за людей вызывает разговоры о «правах роботов», аналогичных «правам человека». Речь идет не о юридическом регулировании вопросов, связанных с робототехникой (такое регулирование неизбежно, и ничего неправильного в нем нет), а именно о восприятии робота как лица, обладающего достоинством и правами.

Европейский Парламент уже ввел термин «электронная личность», описывающий автономного робота, имеющего «определённые права и обязанности, касающиеся пользы или вреда, которые он может принести в случаях, когда он принимает обдуманные автономные решения или как-то иначе независимо взаимодействует с третьими лицами».

Как пишет известный американский юрист Эндрю Шерман,

«В насилии по отношению к машинам нет ничего нового – например, люди пинают автомобиль, который отказывается заводиться. Является только вопросом времени, когда автоматическое создание будет «чувствовать» враждебность и потребность в мести. И если мы дадим роботам права квази-гражданства, будут ли они отвечать по закону за вред, который они могут причинить?»

Приписывать компьютерам страдание, гнев или жажду мести было бы ошибкой – о чем мы уже говорили, – и эта ошибка может очень сильно ударить по людям. Это ведет к размыванию представления об уникальности человека. Вера в такую уникальность связана с христианской концепцией сотворения по образу Божию – и она подвергается нападкам с разных сторон.

В определенных кругах «человеческая исключительность» – вера в то, что люди качественно отличаются от других животных – подвергается критике, как «списизм», грех аналогичный «расизму».

Уже упоминавшаяся «Декларация в защиту клонирования» говорит: «Некоторые религии учат, что человеческие существа фундаментально отличны от других млекопитающих, что божество наделило людей бессмертными душами, придав им ценность, не сравнимую с ценностью других живых существ. Утверждается, что природа человека уникальна и священна... Насколько может судить наука, вид Homo sapiens принадлежит к царству животных. Способности человека, как представляется, только степенью, а не качеством отличаются от способностей высших животных».

Австралийский философ Питер Сингер полагает, что «человеческие младенцы рождаются, не обладая самосознанием или способностью ощутить, что они существуют во времени. Они не являются личностями… [таким образом] жизнь новорожденного менее ценна, чем жизнь свиньи, собаки или шимпанзе».

В одном из своих интервью Сингер говорит: «Это не принадлежность к человеческому виду делает убийство живого существа неправильным. Почему все представители вида Homo Sapiens имеют право на жизнь, а других видов нет? Эта идея основана только на нашем религиозном наследии. Столетиями нас учили, что человек создан по образу Божию, что Бог дал нам владычество над животными и что у нас есть бессмертные души».

С этой точки зрения права живого существа основаны не на его принадлежности к человеческому роду, а на его интеллектуальных способностях. А значит, нет никаких оснований исключать роботов, обладающих высоким интеллектом, из числа существ, права которых необходимо признавать.

Если человек – это просто сложная биологическая машина, а его мозг – это природный компьютер, трудно найти причины, по которым он должен обладать правами, а другие формы предположительно разумных существ – роботы, животные с нейроимплантами, наделяющими их разумом, и т. д. – нет.

Конечно, против признания прав роботов выдвигаются и вполне светские аргументы – например, то обстоятельство что робот, сколь угодно сложный, не является (в отличие от человека) существом уникальным. Его – вместе со всеми процессами в его электронном мозгу – можно воспроизвести в каком угодно числе экземпляров. Но доводы такого рода не носят решающего характера – вполне возможно представить, что процессы внутри конкретного робота приобретут уникальный характер.

Допуская, что кто-то еще, кроме людей, может обладать правами, мы неизбежно создаем ситуации «конфликта прав». Когда вы навсегда отключаете ваш старый смартфон, чтобы заменить его новым, вы ничуть не согрешаете – ведь это всего лишь вещь. Но что если закон начнет наделять «правом на жизнь» более сложные устройства? Будет ли отключение робота примером «жесткого обращения», за которое его владельца-человека надо будет наказать?

О жестоком обращении с роботами

Искусственный интеллект не обладает сознанием, внутренним миром, он не испытывает страданий, обиды или гнева, но это не значит, что его использование не порождает этических проблем.

Принимать роботов за людей – опасная ошибка. Но размывание грани между ИИ и людьми опасно и в другом отношении – когда навыки общения с роботами переносятся на людей.

Легко нахамить роботу – это всё равно, что обругать машину. «Будь проклят день, когда я сел за баранку этого пылесоса!». Алгоритмы лишены эмоций, они не могут испытывать страдание.

Мы понимаем, что не можем иметь по отношению к вещам тех же нравственных обязательств, что и по отношению к людям. Но когда вещи становятся очень похожи на людей, это разрушает те культурные и моральные табу, которые есть в отношении наших ближних.

Вы не станете извиняться перед рекламным роботом, который некстати прервал ваши размышления звонком с предложением что-то купить. Там не перед кем извиняться. Но тем легче вам будет сорваться на живого человека.

В сериале «Мир Дикого Запада» люди могут безнаказанно совершать тяжкие преступления, потому что все их жертвы – роботы, тщательно имитирующие людей. Но преступление против кого-то, кто очень похож на человека, всё равно оскверняет и разрушает душу – и делает человека опасным для его ближних.

Да и не обязательно преступление – просто привычка воспринимать кого-то, обладающего человеческим голосом и, возможно, лицом, как бездушный автомат, может очень плохо отразиться на отношениях с людьми.

Что это говорит о нас самих

Искусственный интеллект – творение рук человеческих, и, как и всё, что творят люди, он открывает нечто важное о нас самих. С одной стороны, это впечатляющее достижение человеческого разума. Говорящие инструменты, машины, которые узнают вас в лицо, – это то, что еще совсем недавно показалось бы чудом.

Это еще одно проявление того, что люди – уникальные существа, способные к творчеству, разуму и пониманию. Мы можем мыслить, осознавать мир вокруг нас, себя и друг друга; мы можем выражать наш опыт на языке символов; мы в состоянии улавливать стоящий за ними смысл. Мы даже можем создавать машины, обрабатывающие эти символы (хотя и не понимать их) и способные имитировать многое из того, что делаем мы сами.

Мы можем быть творцами, потому что Творец мироздания наделил нас Своим образом. Мы – нечто несравненно большее, чем машины, обрабатывающие символы, и поэтому создать машины, которые были бы равны нам, невозможно.

Надежды, которые люди возлагают на искусственный интеллект – обрести в нем истинную дружбу, любовь и бессмертие – неосновательны. И, как мы знаем из истории, ложные надежды могут быть опасны.

Но сами эти надежды – хотя они и возлагаются на бездушные машины, которые не могут их оправдать, – говорят нечто важное о нас самих.

О том, чего жаждет наше сердце. О глубокой раненности нашей природы, которая нуждается в исцелении.

Мы желаем бессмертия – и умираем; мы желаем любви и единства со своими ближними – и часто оказываемся не в состоянии ни проявить, ни принять такую любовь.

Таковы факты о нашей природе – и они указывают (вместе со многими другими) на то, что материалистическая картина мира, которая стоит за попытками создания искусственных близких и искусственного бессмертия, просто ошибочна.

Мы созданы для жизни вечной и бессмертной, для истинной любви, которая не увядает, – и несем в себе катастрофу, которая лишила нас того и другого.

Именно об этом говорит христианская вера – мы созданы Богом для того, чтобы быть вечной, бесконечно счастливой семьей, глава которой – Он сам. Мы отпали от Бога в грех – через неверие, противление и своеволие. Грех глубоко повредил нашу природу – и вверг нас в бедственное состояние, в котором мы находимся.

Но Бог не оставил нас – Он пришел на землю в лице Господа нашего Иисуса Христа. Через Крестные страдания, смерть и Воскресение Иисуса Христа мы обрели возможность исцелиться от греховности и наследовать вечную блаженную жизнь.

Как Он говорит о Таинстве Евхаристии, которое Он установил в Своей Церкви: «Ядущий Мою Плоть и пиющий Мою Кровь имеет жизнь вечную, и Я воскрешу его в последний день» (Ин 6:54)

Попытки создать себе электронных друзей и спасителей – отражение проблемы, о которой много говорит Писание: идолопоклонства. Пророк Исайя горько высмеивает язычника, ожидающего спасения от деревянного идола:

«Часть дерева сожигает в огне, другою частью варит мясо в пищу, жарит жаркое и ест досыта, а также греется и говорит: «хорошо, я согрелся; почувствовал огонь». А из остатков от того делает бога, идола своего, поклоняется ему, повергается перед ним и молится ему, и говорит: «спаси меня, ибо ты бог мой» (Ис. 44:16–17).

Идол отчасти напоминает человека – некоторые античные статуи божеств поражают своим утонченным реализмом. А в древности их еще и раскрашивали, чтобы усилить иллюзию. Но они были (и остаются) не более чем произведением человеческого искусства, бездушными камнями, от которых бессмысленно ожидать любви, дружбы и тем более вечного спасения.

Искусственный интеллект может создавать еще более качественную иллюзию – и люди охотно возлагают на него надежды, которые он неспособен оправдать. Как сказал Бог через Пророка Иеремию, «Ибо два зла сделал народ Мой: Меня, источник воды живой, оставили, и высекли себе водоемы разбитые, которые не могут держать воды» (Иер.2:13).

Поэтому в искусственном интеллекте стоит признать то, и только то, чем он является, – человеческим изобретением, которое может быть в чём-то полезным, а в чём-то опасным. Но за электронными глазами робота мы никогда не найдем родственную душу. Для этого нужен человек. И тем более мы не найдем в нём спасения – для этого нужен Бог.

Как говорит Христос, «Придите ко Мне все труждающиеся и обремененные, и Я успокою вас; возьмите иго Мое на себя и научитесь от Меня, ибо Я кроток и смирен сердцем, и найдете покой душам вашим; ибо иго Мое благо, и бремя Мое легко» (Мф 11:28–30).


Источник: Худиев С.Л. Искусственный интеллект и его карго-культ. [Электронный ресурс] // Азбука веры. 31.05.2023.

Комментарии для сайта Cackle