Айзък АзимовЗагрижен за човечеството

ТРИТЕ ЗАКОНА НА РОБОТИКАТА:

1. Роботът съзнателно, или чрез своето бездействие не може да наранява човек.

2. Роботът е длъжен да се подчинява на заповедите на човека. Изключение правят случаите, които противоречат на Първия закон.

3. Роботът трябва да защитава собственото си съществуване. Изключение правят случаите, които противоречат на Първия и Втория закон.

1.

Кит Харимън вече дванадесет години ръководеше Изследователския отдел на Корпорация „Американски роботи и механични същества“. За първи път в неговата практика сега не беше сигурен, че постъпва правилно. Той прокара език през пълните си, бледи устни. Струваше му се, че ликът на Сюзан Калвин никога не го беше следил толкова намръщен.

Обикновено се стараеше да не обръща внимание на портрета на великата кибернетичка. Изнервяше го фактът, че не успява да го възприеме като неодушевен предмет. В този момент усещаше погледът й от стената буквално да пронизва лицето му.

Предстоеше му да извърши недостойна и унизителна постъпка.

Срещу него невъзмутимо седеше Джордж Десет. Той явно не споделяше зле прикритото безпокойство на Харимън. Не му влияеше и портретът от стената.

— Не сме говорили за това, Джордж — каза Харимън. — От много време не си бил сред нас, а и не сме имали възможност да останем насаме. Сега бих желал да обсъдим някои подробности.

— Нямам нищо против — отговори Джордж. — От престоя си в Корпорацията останах с впечатление, че кризата има нещо общо с Трите закона?

— Да. Спомняш си съдържанието им, нали?

— Разбира се.

— Добре. Позволи ми да отида малко по-далеч, за да помислим върху основния проблем. За двеста години успешна дейност нашата компания не успя да убеди хората да приемат роботите. Поставили сме ги единствено там, където човешка намеса е невъзможна — най-вече в среда, опасна за здравето. Функцията на роботите бе лимитирана единствено в космичното пространство.

— Но това е огромно поле за изява, което несъмнено води до успех — отбеляза Джордж Десет.

— Не е така по две причини. На първо място, реализацията на роботите зависи от подписания договор. За пример ще ти дам лунната колония. Тя става все по-култивирана и нуждата й от роботи намалява. Очаквахме това, разбира се. Такава ще бъде съдбата на всеки свят, колонизиран от човека. На второ място, истински просперитет на човечеството тук, на Земята, е немислим без роботиката. Ние твърдо вярваме, че човекът трябва да се научи да живее в сътрудничество със своя механичен аналог.

— Но не става ли точно така? Господин Харимън, на вашето бюро е инсталиран компютър, свързан с организацията Мултивак. Компютърът е вид неподвижен робот. Мозък на робот, изолиран от тялото…

— Прав си, но и такива случаи рядко се срещат. Компютрите, използвани от хората, са специализирани да не наподобяват прекалено много човешкия интелект. Преди век ние бяхме на път да създадем изкуствен ум с неограничени възможности. Говоря за компютрите Машина. След като разрешиха екологичния проблем, те се самоунищожиха. Продължаващото им присъствие заплашваше да се превърне в прът, спъващ човешката сигурност. Разбрали това, те престанаха да функционират, в съответствие в Първия закон.

— И не постъпиха ли правилно?

— Според мен — не. С това свое действие те подсилиха Франкенщайновия комплекс — страхът, че изкуственият човек ще се обърне срещу своя създател. Хората се страхуват, че роботите ще ги подменят.

— Вие самият не се ли страхувате от такова нещо?

— Аз съм много начетен и просветен. Докато са в сила Трите закона на роботиката, ние сме в безопасност. Роботите могат да бъдат наши партньори във великата ни борба с природните закони.

— Но след като Трите закона вече два века доказват своята ефективност, откъде идва недоверието към тях?

— От суеверието, разбира се — отговори Харимън, като зачеса гневно посивялата си коса. — За съжаление, съществуват и някои усложнения, които служат като храна за нашите противници.

— И те засягат Трите закона?

— Да, по-специално Втория. С Третия закон няма проблеми. Той е универсален. Роботът винаги ще жертва своето съществуване в името на което и да е човешко същество.

— Разбира се — потвърди Джордж Десет.

— Малко по-незадоволителен е Първият закон. Винаги може да изникне ситуация, при която роботът трябва да избира между действие А и действие Б. Двете действия може да се изключват взаимно или да причинят нараняване на човек. Роботът трябва много бързо да прецени кое от двете ще доведе до по-малка загуба. Позитронните пътища в мозъка му не могат лесно да извършат селекцията. Ако действие А ще нарани талантлив, млад художник, а действие Б — петима старци, кое от двете ще избере?

— Действие А — отговори Джордж Десет. — По-добре да се нарани един, отколкото петима.

— Прав си. Роботите са програмирани да взимат решения. Да очакваш хуманоидът да прецени качества като талант, ум, значение за обществото, изглежда непрактично. Това ще отложи изпълнението на заповедта до степен на ефективно изключване. Затова решава според числеността. За щастие, можем да сведем такива случаи до минимум. Остава Вторият закон.

— Законът за подчинението?

— Да. Необходимостта от подчинение е постоянна. Роботът може да съществува двадесет години, без да му се наложи да нарани човек или себе си. През цялото това време обаче трябва да изпълнява команди. Но чии?

— Тези на човека.

— На всеки човек? Как да прецениш дали е загрижен за благото на хората?

Тук Джордж се поколеба.

— Използвах цитат от Библията — побърза да го успокои Харимън. — Няма значение. Кому да се подчини роботът? На дете, на идиот, на престъпник, или на обикновен човек, който не е експерт и не знае последствията от своята заповед. Ами ако двама дадат противоречащи заповеди, коя да изпълни роботът?

— За двеста години не бяха ли решени тези проблеми? — попита Джордж Десет.

— Не — отговори Харимън, клатейки яростно глава. — Бяхме спирани от факта, че с роботите се борави единствено в открито космическо пространство. С тях манипулираха специалисти. Там нямаше деца, идиоти, престъпници, или други невежи. Въпреки това, поради недомислие, бяха допуснати някои щети. На Земята обаче роботите трябва да преценяват. За това настояват антироботистите и са прави.

— Значи в позитронния мозък трябва да въведете съответният капацитет?

— Точно така. Започнахме да произвеждаме моделите JG. Те отчитат фактори като пол, възраст, социално и професионално положение, интелект, зрялост, обществена отговорност и други.

— Как ще се отрази това на Трите закона?

— С Третия закон нямаме проблеми. Дори най-ценният робот ще се самоунищожи заради най-незначителния човек. Него не можем да променяме. Първият закон е засегнат в случаите, когато алтернативните действия ще причинят вреда. Трябва да се съпоставят качествените с количествени характеристики, за което е необходимо да се предвиди време за решение. Вторият закон търпи най-много корекции, тъй като всяка потенциална заповед изисква мнение. Реакцията на робота ще бъде бавна, но по-качествена.

— Но изискваната преценка е много сложна!

— Много. Необходимостта от нея забави реакциите на първите ни модели до степен на парализа. В следващите подобрихме нещата. Но при тях необходимостта от въвеждане на прекалено много разклонения в мозъка им ги направи огромни и тромави. В последната двойка модели мисля, че постигнахме търсения резултат. Роботът не е длъжен мигновено да анализира качествата на човека. Първоначално той се подчинява на всеки, но постепенно започва да селектира. Роботът расте, учи се и съзрява. Отначало е еквивалентен на дете и има необходимост от надзираване. Вече пораснал, той може да бъде оставен сам в човешко общество. Накрая става негов пълноправен член.

— Със сигурност това удовлетворява опонентите?

— Ни най-малко — отговори ядосан Харимън. — Сега се появиха нови. Те не приемат правото на преценка. Според тях, роботът няма право да подценява никой човек. Като изпълнява заповед А, роботът нарушавал правата на този, издал заповед Б.

— И какво е разрешението на тази дилема?

— Няма такова. Аз се предавам!

— Разбирам.

— По тази причина потърсих теб, Джордж.

— Мен… — Гласът на Джордж Десет остана непроменен. Съществуваше елемент на изненада, но той не се прояви външно. — Защо избрахте точно мен?

— Защото не си човек — отговори напрегнато Харимън. — Казах ти, че виждам роботите като партньори на човека. Искам ти да ми сътрудничиш!

Джордж разпери ръце с длани нагоре. Жестът му беше странно човешки.

— Какво мога да направя?

— Може би ти се струва, че си безсилен да ми помогнеш, Джордж? Създаден си отскоро и си още в детска възраст. Програмиран си да не разполагаш с много информация, затова ти обясних ситуацията подробно. Ще пораснеш умствено и ще можеш да погледнеш на проблема от другата му страна. Там, където аз не виждам разрешение, ти може да видиш!

— Мозъкът ми е програмиран по човешки образец — отбеляза Джордж. — Как може да разсъждавам различно?

— Ти си последният от моделите JG. Мозъкът ти е по-сложен дори от старите гиганти Машините. Той има човешка основа, но е отворен. Може да се развие във всяка посока. Въпреки това няма да може да преодолее Трите закона. По тази причина мисленето ти може да се различава от това на човека.

— Знам ли достатъчно за хората, за да успея да се доближа ефективно към проблема? За тяхната история? За тяхната психология?

— Разбира се, че не, но ще можеш да научиш всичко достатъчно бързо.

— Ще мога ли да разчитам на помощ, господин Харимън?

— Не, всичко е между нас. Никой друг не знае за този проект и ти не трябва да споменаваш пред никого!

— Дали не бъркаме, господин Харимън, като пазим нашия план в тайна?

— Не. Разрешение, предложено от робот, няма да бъде прието. Всяка идея ще споделяш с мен. Ако я сметна за ценна, ще я докладвам. Никой няма да разбере, че е твоя.

— В светлината на казаното от Вас преди, тази процедура ми се струва правилна — каза Джордж. — Кога започваме?

— Веднага. Ще се погрижа да получиш необходимите за обучение филми.

Загрузка...