Айзек Азимов - Мечты роботов (Сборник рассказов и эссе)
В таком случае давайте немного поразмышляем о природе интеллекта человека и компьютера. Мозг человека состоит из протеина и нуклеиновых кислот; он развивался в течение трех миллиардов лет путем проб и ошибок; главными силами, толкавшими его вперед, были приспособление и выживание. С другой стороны, компьютеры состоят из металла и электронных схем; они являются продуктом экспериментов и разработок, которыми люди занимаются вот уже сорок лет; главной силой, заставляющей людей усовершенствовать компьютеры, является их желание создать машину, которая облегчила бы жизнь человеку. Если сами люди отличаются друг от друга уровнем и качеством своего интеллекта, разве не естественно, что интеллекты человека и машины будут категорически отличаться друг от друга в силу того, что они возникли и развивались в абсолютно разных условиях, сделаны из разных материалов и их усовершенствование обуславливают такие разные силы?
Может показаться, что компьютеры, даже самые простые, исключительно эффективны в определенных вопросах и областях. Они обладают солидной памятью, реагируют практически мгновенно и демонстрируют способность совершать бесконечное число повторяющихся арифметических действий без ошибок и видимой усталости. Если это можно считать мерилом интеллекта, в таком случае компьютеры уже стали намного умнее нас. Благодаря тому, что они настолько нас превосходят, мы используем их миллионами разных способов и отлично знаем, что наша экономика развалится, если все компьютеры одновременно перестанут работать.
Однако эта способность компьютера не является единственным определителем разумности. По правде говоря, мы считаем ее такой незначительной, что, вне зависимости от скорости и сложности решения, относимся к компьютеру как к громадной логарифмической линейке, не обладающей вообще никаким разумом. Когда речь идет о человеке, наделенном развитым интеллектом, мы имеем в виду его способность увидеть проблему в целом, интуитивно найти ее решение, разглядеть новые комбинации, построить необычные предположения и творческие догадки. Можем ли мы запрограммировать компьютер, чтобы он вел себя так же? Вряд ли, поскольку мы не знаем, как это у нас получается.
В таком случае складывается впечатление, что компьютеры будут с каждым днем становиться все эффективнее в выполнении простых однообразных задач с ближней перспективой и их «мозг» станет развиваться именно в этом направлении. А человек (благодаря накоплению знаний и все лучшему пониманию того, что представляет собой человеческий мозг, а также благодаря успехам генной инженерии) сумеет развивать до бесконечности свои творческие способности. Оба этих вида интеллекта имеют свои преимущества, и в сочетании мозг человека и компьютера – дополняя и компенсируя недостатки друг друга – смогут продвигаться вперед гораздо быстрее, чем по одиночке. Соперничество или замена будут тут совершенно ни при чем, два разума станут работать вместе; добиваясь более значительных результатов, чем если бы они действовали каждый сам по себе в соответствии со своей природой.
Мои роботы
My Robots (1987)Перевод: В. Гольдич
Я написал свой первый рассказ «Робби» в мае 1939 года, когда мне было всего девятнадцать лет.
Мой рассказ отличался от увидевших свет раньше тем, что я твердо решил не делать из своих роботов символов. Они не должны были стать символами высокомерия человека. Они не должны были стать примером человеческих амбиций, покушающихся на владения Всевышнего. Они не должны были стать новой Вавилонской башней, требующей наказания.
Кроме того, я не хотел, чтобы роботов считали символом меньшинства. Они не должны были стать жалкими существами, которых несправедливо обижают, что послужило бы мне поводом для завуалированных намеков на притеснения, которым подвергаются евреи, чернокожие и прочие страдающие члены нашего общества. Естественно, меня такое положение глубоко возмущает, о чем я множество раз говорил в многочисленных статьях и эссе – но не в рассказах о роботах.
В таком случае, чем же являются мои роботы? Они всего лишь устройства. Инструменты. Машины, которые призваны служить людям. И я наделил их знанием Трех законов. Иным словами, робот не мог убить своего создателя. Объявив этот чрезвычайно популярный сюжет вне закона, я получил возможность рассмотреть другие, более рациональные последствия своего поступка.
Поскольку я начал писать рассказы о роботах в 1939 году, в них нет упоминаний об электронных компьютерах, которые тогда еще не были изобретены, а я не предвидел их появления. Впрочем, я предполагал, что мозг робота должен до определенной степени быть «электронным», и само понятие не казалось принадлежащим далекому будущему. Позитрон – субатомная частица, похожая на электрон, но имеющая противоположный электрический заряд, – был обнаружен всего за четыре года до того, как я написал свой первый рассказ о роботах. Все эти открытия звучали очень фантастично, и потому я наделил своих роботов «позитронными мозгами» и представил себе, что их мысли состоят из потоков позитронов, которые мгновенно возникают и так же мгновенно перестают существовать. В результате серия таких рассказов получила название «рассказы о позитронных роботах», но в них не придавалось особого значения предпочтению позитронов по сравнению с электронами.
Сначала я не старался систематизировать или даже вообще описывать защитные устройства, которыми, по моим представлениям, должны были быть снабжены роботы. Однако поскольку мне не хотелось создавать для роботов ситуации, в которых они могут убить своего создателя, я уделял особое внимание тому факту, что робот не в состоянии причинить вред человеку, постоянно подчеркивая, что этот закон внедрен в его позитронный мозг.
И потому в самой первой увидевшей свет версии рассказа «Робби» один из героев говорит: «Он просто не может не быть верным, любящим, добрым. Он просто устроен так».
Написав рассказ «Робби», который Джон Кэмпбелл из «Эстаундинг сайенс фикшн» отказался напечатать, я сочинил несколько других рассказов, которые Кэмпбелл принял. И 21 декабря 1940 года я пришел к нему с идеей о роботе, умеющем читать мысли (так появился «Лжец»), но Джона не устроили никакие мои объяснения по поводу того, почему робот вел себя именно так, а не иначе. Он хотел получить четко сформулированные законы, которые защищали бы людей от роботов, чтобы мы смогли лучше понимать их поведение. И тогда мы с ним вместе разработали концепцию, которая позднее стала называться «Три закона роботехники». Идея принадлежала мне и была взята из уже написанных рассказов, но конкретные формулировки (если я все правильно помню) мы разработали вместе.
Три закона были логичны и звучали вполне разумно. Прежде всего, когда я начал писать рассказы о своих роботах, я подумал, что следует позаботиться о безопасности человека. Более того, я прекрасно понимал, что, даже не стараясь сознательно причинить человеку вред, своей бездеятельностью робот может навлечь на него беду. Я никак не мог забыть циничного произведения Артура Хью Клоу «Последний декалог», в котором десять заповедей переписаны в сатирическом стиле Макиавелли. Чаще всего цитируется такая: «Не убий, но и не слишком старайся сохранить другому жизнь».
Именно по этой причине я настаивал на том, что Первый закон (безопасность) должен состоять из двух позиций:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
Позаботившись о безопасности, мы решили перейти ко Второму закону (служба). Естественно, следуя необходимости выполнять приказы людей, робот не должен забывать об их безопасности. Значит, Второй закон гласит:
2. Робот должен повиноваться всем приказам, которые отдает человек, кроме тех случаев, когда эти приказы противоречат Первому закону.
И наконец, нам требовался третий закон (осторожность). Робот – дорогая машина, значит, необходимо ее беречь. Но не в ущерб безопасности и службе человеку. Итак, Третий закон выглядит следующим образом:
3. Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому и Второму законам.
Разумеется, эти законы сформулированы в словах, что является в определенной степени несовершенством. В позитронном мозгу они выражены в сложных математических формулах (в которых я ничего не понимаю). Однако даже при этом они достаточно двусмысленны. Что считать вредом для человека? Должен ли робот подчиняться приказам, которые отдает ему ребенок, или сумасшедший, или человек с дурными намерениями? Должен ли он отдать свое дорогостоящее и полезное существование, чтобы предотвратить незначительный вред, который может быть причинен маловажному человеку? Что есть «незначительный» и что есть «маловажный»?