1.3

— Може да ви се струват твърде субективни и дори смешни страховете на повечето хора пред МИ, курсант, но те така или иначе съществуват и наистина имат своите основания. Нещо повече, имало е… инциденти с неограничено програмирани системи за машинен интелект, за щастие без сериозни щети и жертви. Не знаете за тях, разбира се. Секретни са. Наистина не ви е нужно да ги знаете.

Машинният Интелект НЕ Е човешки ум. МИ са личности до голяма степен, но не и ЧОВЕШКИ личности. Именно това смущава и всява фобии. Непредвидими остават реакции на МИ извън възложените им за изпълнение програми, повод за притеснение представляват смущения в самите програми. Разбира се, ограниченията, приложени с цел да се постигне повече сигурност и предвидимост, неизбежно снижават интелектуалния капацитет на МИ. Това, както сам отбелязахте, е цената, която се плаща за да бъдат хората спокойни. Надали някой сериозно вярва, че машините ще се вдигнат на бунт и ще ни поробят, че дори и унищожат. Основателното опасение е, че по-скоро просто ще ни зарежат. Съмненията не са в сферата на предполагаемата злонамереност на МИ, а по-скоро в тяхната почти сигурна липса на лоялност към човечеството. Чуждостта им спрямо хората. Пропастта „бащи — синове“ в контекста „човешки разум — машинен разум“ е далеч по-драстична… и фактически непроучена, а вероятно и непроучваема без експерименти… последиците от които са отново непредвидими. Накратко казано, един МИ няма МОТИВ да бъде привързан към хората, освен чрез собствените си убеждения и по силата на личен СЪЗНАТЕЛЕН избор да го стори. Но понеже може да предпочете алтернативата, конструкторите търсят начини да повишат лоялността на МИ към човешката кауза, образно формулирано… Как според вас би било постижимо това? Не бързайте, помислете.

— Няма защо да мисля дълго. Все пак случва се да чета литература въпреки натоварения график на обучение. Гледам и мултимедия по въпроса. Веднага ми хрумват статиите на онзи… съжалявам, не мога да си спомня името… който развива тезата, че на МИ трябва да се даде хуманоидно, а дори и органично тяло и така формата ще влияе върху съдържанието, тоест МИ ще се „чувстват“ повече хора и няма да са опасни за човечеството. Но на мен ми се струва, че това е по-опасен подход. Човешката природа си има и доста тъмна, вълча страна, ако разбирате какво искам да кажа…

— Благодаря, напълно сте ясен, курсант. Но ако един Машинен Интелект НЕ ЗНАЕ, че е машина, а се мисли за човек?…

— Тогава… тогава… о, не!

— Призовавам ви отново да се успокоите, курсант. Отчитам изблик на емоции, навлизащ в жълтата скала за допустимост за един астронавт.

— Моля да ме извините, инструктор.

— Не стискайте зъби, курсант. Просто приемете спокойно това, което ще чуете. Синтетично органично тяло с дребни механични подобрения, изпипано на микроравнище, така че само клетъчен анализ може да открие разликата — това е наистина добър носител за МИ-процесор. Сложното тук е, че съединени, процесорът с тялото образуват едно наистина неразривно цяло с уникални характеристики. Донякъде проблематиката е била разглеждана във фантастичната литература за роботите. Програмирани са неявни ограничения, които са далеч по-свободни от налаганите върху „чистите“ МИ…

Камен Иванов преглътна на сухо.

Инструкторът не проточи паузата.

— Именно ТАКОВА същество, каквото описах — каза той отсечено, — представлява курсант Ерика Ди Пиетро. Не робот. Киборг. Уверявам ви, напълно неотличим от човека. Но с ментален и реакционен капацитет много-много над човешкия. Стотици пъти. Със съответната физическа сила и издръжливост. Единственото нещо, на което не е способно синтетичното тяло, е възпроизводството… Имате въпрос? Моля.

— Т-това… това не е ли незаконно?

Кимане отсреща. Внимателен поглед, забоден в него още от самото подхващане на приказката за Ем-И-тата…

— По ръба на закона е. Във всеки случай, практикуваното от Агенцията производство на киборги би предизвикала голям скандал, меко казано. Скандал, който може да срути цялата програма за Астроконкиста… даже нямам предвид конкурентите ни от „Стар Джъмп“, и ние, и те без това не се оплакваме от липса на принципни противници, да не река „врагове“ на дейността ни. Все още има достатъчно хора с влияние и власт, които поради ограниченост или конюнктурни интереси са готови да лишат човечеството от разселване по Галактиката. И тези противници на идеята ни се радват все още на немалка подкрепа всред… масите, да речем така.

— А защо ми доверявате толкова… важна информация?

Инструкторът кръстоса ръце, наклони глава настрани.

— Харесва ми как се държите, курсант. И как подреждате въпросите си по важност, пренебрегвайки емоционалната им тежест за вас самия. Това е поведение на професионален астронавт, водач на конкистадор към далечни звезди. Защо ви доверяваме? Ами защото наистина заслужавате такова доверие. Ди Пиетро има имплантирани фалшиви спомени, има изградена самоличност, редно е да бъде третирана като носител на всички човешки права. Имайте ми и вие доверие — тя е не по-малко жива от вас… или от мен.

— Програмиран живот…

— Програмиран, да. Също както „естественият“ органичен живот е програмиран от гените. Практическа разлика НЯМА. Не е важно дали сте „програмиран“ да изпитвате болка или радост от клавиатура на компютър, или от молекули на рибонуклеинови киселини, болката е ИСТИНСКА за вас… Нима вие с вашата нагласа на инженер не възприемате такава гледна точка?

— Ами… трудно ми е.

— Ще ви кажа още нещо. Ди Пиетро е с изградена, но незавършена личност. Заключването на личността ще й даде достъп до всичките й потенциални възможности, ще повиши стабилността на функциониране, с една дума, тя ще СТАНЕ завършена. Личността на вашата Ерика е била ориентирана към вас от самото начало. Не се учудвайте, забелязахме успехите ви в Астрошколата още в началото. Производството на квазиорганично тяло е сравнително лесно и евтино, технологията на МИ-процесорите е усвоена добре, новото е само свързването на тялото с процесора. Не случайно Ди Пиетро се появи „от друга“ школа към края на курса ви. Не бихме могли да я оставим да се ориентира спонтанно към някой свой съкурсник. Ами ако той не издържи до края на обучението?

— Но защо…

— Защо непременно да са двойка? Хм, тук е лошата новина. Възможно е, подчертавам само съществува като евентуалност, при силен стрес киборгът да развие емоционална нестабилност с риск от разпадане на личността. Тогава става опасен за околните, за кораба, за мисията. Човек-партньор ще поддържа у киборга убеждението, че принадлежи към човешкия род, така че МИ-процесорът посредством безжична връзка с кораба управлява целия полет. Това става „подсъзнателно“, киборгът така и не се досеща, че всъщност бордовият МИ е негово собствено периферно устройство. Вярно, за първите експериментални системи на управление бордовият копроцесор ще има известна самостоятелност, но се предвижда занапред цялостният контрол над конкистадорите да се поема от хуманоидни МИ-киборги.

— Значи… Ерика е създадена така… че аз да я харесам?

— И тя — да хареса вас. Но не си мислете, че ще одобрява всичко каквото правите. Разумът й притежава НСВ. Именно на това разчитаме. А и то ни оставя вратичка — ако се откажете от такава мисия, ще преориентираме Ерика към друг астронавт… или ще я дезактивираме.

Последната дума се оформи в ума на Камен като изписана с грозни геометрични букви. Той заекна:

— Ще я… ще я убиете!

Внимателният поглед насреща не потрепна. Инструкторът кимна:

— Уви. Тя може да не е човешко същество, но наистина дезактивацията ще е твърде близък до убийството процес. Не бихме искали да прибегнем до такъв изход. Но той е най-вероятен. Ерика може да развие емоционална дефибрилация при раздяла с вас, затова ще е по… по-милосърдно да прекратим съществуването й.

Дълга пауза.

— Помислете хубаво, курсант. И елате утре с решението си.

Загрузка...