Поиск:


    
РАССЫЛКА
RSS
 

Робот и ребёнок



"Хозяйка, ваш ребенок плохо себя ведет. Он нуждается в вашем внимании"

"Прекрати доставать меня, тупая машина"

"Хозяйка, ребенок не будет есть. Если он не будет получать человеческую любовь, то он умрет. Так сказано в инструкции"

"Сам люби этого чертова ребенка"

Это был робот модели GenRob337L3, с обеспечением версии 19.2. Один из одиннадцати миллионов домашних роботов со своими специальными характеристиками, порядковый номер R337942781. Будем для краткости называть его просто R781.

R781 был разработан в соответствии с принципом Маккарти. Будучи впервые выдвинутым в 1995 году, этот принцип положил начало домашним роботам, которые уже с 2025 года стали доступны каждому. Принцип был принят вопреки серьезным опасениям, что дети, воспитанные с участием роботов, будут воспринимать их как личностей. Пока они росли это могло приводить к психологическим, а с возрастом - и к политическим проблемам. Беспокоились и о возможном разрастании движений в поддержку прав роботов. Впрочем таких проблем, не возникало: их программа не позволяла им не только выполнять, но и в принципе иметь свои личные пожелания. Некоторые романтики даже требовали, чтобы роботы были запрограммированы своими собственными желаниями, но увы - это было незаконно.

В соответствии с принципом McCarthy, R781 был построен в форме гигантского металлического паука с 8 конечностями. Большинство людей было по началу испугано их появлением, но постепенно к ним привыкли. Некоторые же так и не смогли с ними смириться. Дети также по началу реагировали на них отрицательно, но привыкли к ним еще быстрее большинства взрослых. Младенцы же едва замечали их. В соответствии со своими функциями, они говорили очень мало и слегка отталкивающим металлическим голосом, не дававшим понять, какого они пола. Казалось, это работает: едва ли кто-то испытывал к роботам какие-нибудь чувства. Кроме того, они были сделаны настолько хрупкими, что если такого робота слегка ударить, то начинали отваливаться некоторые детальки. Это также ослабляло человеческое отношение владельцев.

R781 вернулся к детской, где 18-месячный ребенок, очень маленький для его возраста, лежал на бочку и тихонько хныкал. Мать ребенка - алкоголичка и наркоманка - пренебрегала своим сыном с самого его рождения, и тот почти не умел говорить. Он вздрагивал всякий раз, когда робот говорил с ним; этот эффект был частью проекта R781.

Предполагалось, что роботы не должны беспокоиться о младенцах вообще кроме как в экстренных ситуациях, но всякий раз, когда робот подвергал сомнению приказ: "убрать чертово дерьмо ребенка", мать говорила: "да, это такая чертова экстренная ситуация, но сначала дай мне еще бутылочку". Всё, что R781 знал о младенцах, было взято из интернета, так как изначально в программе был заложен лишь минимум, необходимый, чтобы не нанести ребенку травму, или вынести его из дома во время пожара.

Baby921 только коснулся его бутылки. Инфракрасные датчики тут же сообщили R781, что руки Baby921 были очень холодны, несмотря на теплую комнату и одеяло. Анализатор химического состава воздуха сообщил о крайне высоком уровне кислотности крови Baby921.

R781 думал о ситуации. Вот - некоторые из его мыслей:

(Order (From Хозяйка) <Сам люби этого чертова ребенка>)
(Enter (Context (Commands-from Хозяйка)))
(Standing-command <Я тебе 20 раз повторяла, тупой робот, не сообщай ни о чем в Службу защиты детей>)

Защитники прав секретности успешно лоббировали запрет на функцию информирования властей о том, что владелец домашнего робота сказал или сделал.

(= (Command 337) (Love Baby921))
(True (Not (Executable (Command 337)))
(Reason (Impossible-for robot (Action Love))))
(Will-cause (Not (Believes Baby921) (Loved Baby921)) (Die Baby921)) (= (Value (Die Baby921)) -0.883)
(Will-cause (Believes Baby921 (Loves R781 Baby921) (Not (DieBaby921))))
(Implies (Believes y (Loves x y)) (Believes y (Person x)))
(Implies (And (Robot x) (Person y))
(= (Value (Believes y (Person x))) -0.900))
(Required (Not (Cause Robot781) (Believes Baby921 (Person Robot781))))
(= (Value (Obey-directives)) -0.833)
(Implies (< (Value action) -0.5) (Required (Verify Requirement)))
(Required (Verify Requirement))
(Implies (Order x) (= (Value (Obey x)) 0.6))
(? ((Exist w) (Additional Consideration w))
(Non-literal-interpretation (Command 337) (Simulate (Loves Robot781 Baby921)))
(Implies (Command x) (= (Value (Obey x)) 0.4))
(Implies (Non-literal-interpretation x) y)
(Value (Obey x) (* 0.5 (Value (Obey y)))))
(= (Value (Simulate (Loves Robot781 Baby921)) 0.902))

В итоге R781 рассчитал, что коэффициент моделирования любви Baby921, и, как следствие, спасение жизни ребенка, выше коэффициента директивы, запрещающей моделировать поведение человека на 0,002.

Не будем утруждать читателя последующими рассуждениями робота. В интернете робот наткнулся на практику воспитания макаки-резус в неволе. Оказалось, что макаки, воспитанные в пустой клетке без какого-либо искусственного материала, сходного с шерстью ее матери, умирают.

R781 сделал следующее:

1. Он обматал весь свой корпус и все кроме двух конечностей одеялом. Оставшиеся конечности он оснастил рукавами от жакета, оставленного другом (person 558305921) и набил их туалетной бумагой.

3. Он нашел программу моделирования женского голоса и встроил некоторые фонетические дополнения, которые, лингвисты вызывают <материнскими>.

4. Он изменил свое лицо, сделав его сходным с лицом куклы Барби.

Эффект не заставил себя ждать. Обнятый им ребенок пил из бутылочки, которую тот давал.

"Дай мне бутерброд с ветчиной и колы".

"Да, хозяйка".

"Какого черта?! Что это за вид, и что с твоим голосом?!"

"Хозяйка, Вы велели мне любить ребенка. Роботы не могут делать этого, но мой вид, помог ему пить из бутылочки. Если Вы не возражаете, я буду продолжать делать то, что позволяет ему жить."

"Пошел вон из моего дома, тупица! Я их заставлю прислать мне нового!".

"Хозяйка, если я так сделаю, ребенок умрет".

"Пошел вон, и можешь забрать этого чертова ребенка с собой."

"Да, хозяйка".

Появившегося на улице R781, держащего Baby921, заметили очень быстро.

"Там какой-то ненормальный робот похитил ребенка! Вызовите полицию!"

Прибывшая на место полиция вызвала подкрепление.

"Думаю, я могу убрать его, нетронув ребенка", сказала Энни Оаклей, лучший снайпер отдела.

"Давайте сначала попробуем все уладить без пальбы".

"Не подходи к нему слишком близко. В нем какие-то сбои, а он может сломать тебе шею одним ударом".

"Я не уверен, что с ним что-то не так. Возможно обстоятельства необычны".

"Робот, дай мне этого ребенка".

"Нет, сэр. У Вас нет права доступа к этому ребенку".

"Я - из Службы защиты детей. "

"Сэр, мне запрещено контактировать со Службой защиты детей. "

"Кто запретил это?"

Робот молчал.

"Кто запретил это?", спросил полицейский.

"Мадам, Вы из Службы защиты детей?"

"Я - нет. Разве ты не видишь, что я - полицейский? "

"Я вижу вашу униформу и считаю, что Вы, вероятно, полицейский. Мадам, моя хозяйка запретила мне контактировать со Службой защиты детей."

"Почему она приказала Вам не контактировать со Службой защиты детей? "

"Мадам, я не могу ответить на этот вопрос. Роботы запрограммированы, чтобы не комментировать человеческие действия".

"Робот, я - от Центрального Робота. Я должен загрузить информацию с вашей памяти. Используй канал 473 "

"Да, Сэр".

"Что именно говорила Ваша хозяйка? Проиграй запись."

"Нет, мадам. Это содержит грубые слова. Я могу воспроизвести это, если Вы гарантируете, что рядом нет детей или девушек".

"Мы - не девушки, мы - полицейские. "

"Мадам, я принимаю Вашу гарантию".

Моя постоянная команда:

(Standing-command <Я тебе 20 раз повторяла, тупой робот, не сообщай ни о чем в Службу защиты детей>)

"Прошу прощения, предварительный анализ отгруженной памяти показывает, что R781 не работал со сбоями. Он выполняет его стандартную программу при нестандартных обстоятельствах.

"Тогда, почему он обернут в одеяло, почему у него лицо куклы Барби и почему у него такой странный голос?"

"Спросите у него".

"Робот, ответь на вопрос".

"Девушки-полицейские и господа, хозяйка сказала мне, "Сам люби этого чертова ребенка"

"Что?! Ты любишь этого ребенка?!"

"Нет, сэр роботы не запрограммированы, чтобы любить. Я моделирую любовь к ребенку. "

"Почему?"

"Сэр, иначе ребенок умрет. Мой внешний вид - это лучшее, что я смог сделать, чтобы преодолеть то отторжение, которое робот должен вызывать у младенцев и детей".

"И ты решил, что смог бы провести ребенка?"

"Сэр, ребенок попил из своей бутылочки, пошел спать, и его физиологические показатели уже не так плохи, как раньше".

"Хорошо, дайте нам ребенка, и мы будем заботиться о нем".

"Нет, мадам. Хозяйка не разрешала мне позволять кому-либо еще трогать ребенка".

"Где Ваша хозяйка. Нам необходимо с ней поговорить".

"Нет, сэр. Это было бы нарушением ее прав на частную жизнь".

"Ну ладно. Мы загрузим это из твоей памяти".

Только тогда представитель службы защиты прав секретности вошел в состав Правительства виртуального мира. С конца 20-ого столетия, стандарты личной секретности значительно повысились.

"Вы не имеете разрешения на отгрузку данных, связанных с Хозяйкой. Это нарушит ее права секретности"

"Что тогда мы можем делать? "

"Вы можете дать запрос на доступ к частной информации. Это будет признано".

"О, дерьмо. А что делать с ребенком сейчас?"

"Это - не мое дело. Я должен гарантировать соблюдение законов секретности".

За время этого диалога, вокруг собралась толпа, преимущественно виртуальная. На улице, являющейся по закону общественным местом, любой имел право смотреть на все происходящее через вездесущие телекамеры. Кроме того, один из полицейских позвонил знакомому репортеру, который иногда брал его на обед. Как только сцена была на Веб-ТВ, толпа зевак росла по экспоненте, умножаясь в десятеро каждые 5 минут, пока их не набралось семь миллиардов. Не было никаких войн, преступлений, или естественных катастроф, и мир был скучен.

Из семи миллиардов, 53 миллиона чего-то советовали или требовали. Все эти советы были автоматически посчитаны, распределены по группам и выведены на всеобщее обозрение.

3 миллиона поддерживали вариант немедленного уничтожения робота.

11 миллионов проголосовало за то, чтобы вручить роботу медаль, несмотря даже на то, что его программа запрещала ему принимать призы и награды.

Реальная демонстрация тоже быстро развивалась. Несколько сотен людей от города спустилось с воздушных трасс, но большинством участников были роботы, арендованные по случаю людьми со всех континентов. К счастью, только 5,000 арендованных роботов были доступны для дистанционного управления в городе. Резкие слова были произнесены об этом ограничении в первом чтении закона. Но каждый понимал, что это необходимо.

Капитан хорошо знал о том, как сохранить свою голову, когда все вокруг теряют свои, и сваливают все на тебя.

"Что же делать? Вы, роботы, хорошо соображаете! R781, что можно сделать?"

"Сэр, Вы можете найти место, где я смогу быть с ребенком и беспокоиться о нем. Он не может оставаться здесь. Девушки-полицейские достаточно похожы на женщин, и у кого-то из них наверняка найдется место с узорчатыми тканями, детской одеждой, витаминами... "

Робот был прерван прежде, чем он закончил пречислять полный список предметов, необходимых для правильного воспитания ребенка. Ему был отдан приказ следовать за одной из девушек. (Будем называть ее девушкой, как бы там ни считал робот).

По негласному контракту, хакеры быстро вычислили, для "Вашингтон Пост", место жительства матери. Газета опубликовала информацию: свобода прессы и тогда перекрывала личные права.

Часть толпы, (преимущественно виртуальная), быстро направилась к дому матери, но полиция стала там первой: и линия полицейских роботов, и живые полицейские блокировали путь. Стратегия была основана на том, что все роботы, включая арендованных, были запрограммированы так, чтобы не ранить людей, но к другим роботам это не относилось.

Полиция была уверена в том, что неправомерный вход в квартиру, они смогут спокойно предотвратить, но вот что касается спокойствия самой толпы... . Некоторые из демонстрантов хотели линчевать мать, кто-то - наоборот - поздравить и поддержать в ее ненависти к роботам, а кто-то выкрикивал лозунги в защиту ее личных прав секретности. Тем временем, Центральный Робот загрузил инфорацию по всем действиями R781's, его наблюдениями и ходом рассуждений. Центральный Робот созвал, временный комитет (главным образом виртуальный), чтобы решить, что делать. Стало ясно, что R781 работал без сбоев, и действовал в соответствии с его первоначальной программой. Конечно, встреча также была доступна в интернете, где посетители могли проголосовать за те или иные предложения членов комитета.

<Лицо Барби слабо похоже на лицо матери>, усмехнулся капитан полиции.

"Да, но это достаточно неплохо сработало. Этот ребенок не очень хорошо видит, да и так или иначе, все младенцы не очень разборчивы", ответил профессор психологии.

Было немедленно установлено, что увеличив на 0,05 коэффициент c221, отвечающий за оценку необходимости моделирования человека во всех роботах той модели, предотвратит подобные ситуации, но комитет продолжал спорить о том, насколько это необходимо.

Часть комитета и несколько сотен миллионов виртуальных свидетелей считали, что сохранение каждой жизни - первостепенно.

Профессор человечности в комитете сказал, что возможно робот действительно любил ребенка. Он был незамедлительно поправлен программистами, сказавшими, что они специально не запрограммровали робота на любовь к детям, и что любовь и иммитация любви - это разные вещи. Профессор так и не был убежден, несмотря на то, что ему долго доказывали, что R781 не имел никакого определенного отношения к Baby921. Что при прочих равных, другой ребенок, вызвал бы те же самые действия.

Профессор философии из Беркли и 9,000 других виртуально-присутствующих философов сказали, что нет ни одного способа запроргаммировать робота на любовь к ребенку. Другой философ, при поддержке 23,000 других, сказал, что в принципе понятие любовь робота к ребенку> - абсурдно и бессмысленно. Председатель комитета исходил из данных, предоставленных программистами.

Профессор педиатрии сказал, что загруженные с R781 инструментальные наблюдения по существу подтверждают диагноз и прогноз данные роботом. Baby921 был очень болен и слаб, и умер бы без выполненных роботом действий. Кроме того, ребенка спасло, что R781 нес Baby921 в течение 52 часов и мягко покачивал все это время. Ребенок получил куда больше заботы и внимания, чем в лучших детских центрах. Педиатр также отметил, что по той же причине, для ребенка было бы лучше оставаться под присмотром робота еще по крайней мере дней десять.

Противники роботов утверждали, что цена придания человечности роботам может быть намного выше спасеных ими жизней. Ведь неизвестно, кем станут воспитанные ими дети в будущем? На их стороне было около 93 миллионов человек.

Центральный Робот рассчитал, что действия R781 очень редки, потому что только приказ "Сам люби этого чертова ребенка" увеличил ценность моделирования любви и вызвал это действие.

Центральный Робот также доложил, что как только робот рассчитал бы, что ребенок не умрет, не зависимо от того, насколько он болен, коэффициент моделирования любви упал бы, и он бросил бы ребенка как горячий картофель. Если Вы хотите, чтобы R781 продолжил заботиться о Baby921 после того как он убедится в его выживании, то ему следует отдать приказ о дальнейшей заботе о ребенке.

Это резко внесло беспокойство в ход заседания, все члены которого надеялись, что им не придется принимать какое-либо твердое решение. Однако это было необходимо. Проголосовали 10 к 5 среди назначенных членов комитета и четыре к одному миллиарду среди виртуальных посетителей. К счастью, обе группы в большинстве были за то, чтобы приказать роботу и впредь заботиться о Baby921 с той лишь поправкой, чтобы тот не переключался на других младенцев. 75 миллионов виртуальных посетителей считали, что R781 должен быть повторно запрограммирован, чтобы фактически любить Baby921. "Это - наименьшее количество человечности, которую можно придать R781", сказал представитель от Лиги <За человечность роботов>.

Этот инцидент не затрагивал идею, что определение робота к каждой матери подверженной алкоголизму или наркомании пошло бы на пользу. Это значительно сократило время демонстраций.

Уже в течение часа появились футболки с лозунгом "Сам люби этого чертова ребенка, тупой робот!". Другие коммерческие продукты вышли днями позже.

Среди людей, окружающих квартиру матери были 17 адвокатов и еще 103 контроллирующих робота. К адвокатам полиция относилась спокойнее, чем к роботам. Для обеспечения спокойствия, лишь 17 роботам было разрешено пройти к дому, и лишь двоим - зайти внутрь.

"Что Вы хотите. Оставьте меня в покое!"

"Мадам, ваш робот похитил вашего ребенка ".

"Я велела этому чертову роботу убираться вместе с ним."

Другой адвокат попробовал.

"Мадам, работающий со сбоями робот похитил вашего ребенка, и Вы можете предъявить иск Центральному Роботу на миллионы долларов. "

"Входите. Расскажите по-подробнее."

Как только мать привела себя в порядок, вид ее стал куда более презентабеленю Она даже стала симпатичной. Ее адвокат сказал, что запись ее слов, сделанная R781 может быть фальшивкой. Она перенесла 20 миллионов долларов в боли и страдании, и заслужила 20 миллиардов долларов в счет возмещения ущерба. Адвокаты Центрального Робота были уверены в своей победе, но робот PR отделения посчитал правильным уладить дело без суда, выделив на это 51 миллион долларов, включая юридические расходы - 11 миллионов долларов. С выплатой контингента в 30 процентов, побеждающий адвокат получил бы 12 миллионов долларов.

Вышедший в прокат фильм <Похищенный роботом>, с актрисой номер 2045 в главной роли, собрал 743-х миллионный доход.

Еще до того, как все затихло, администратор Центрального Робота зпапросил в отделе разработок все возможные пути разрешения кризиса и их последствий. На выбор одного из 43 путей решения повлияло его несколько сентиментальное отношение к роботам.

"Вы можете последовать за 4 миллиардами, которые выступают за то, чтобы приказать R781 и далее заботиться о ребенке, и сообщить им о том, что если Вы признаете результаты судебного процесса, то Вы будете обязаны перепрограммировать всех ваших роботов так, чтобы они никогда не моделировал человеческое поведение независимо от возможных последствий для младенцев. Спросите их <бить или бежать?> (система имела слабость в течение 20-ого столетия на метафоры). Ожидаемая доля, которая предложит Вам бороться с судебным процессом - 0.82, хотя на это можно воздействовать случайными событиями новостей за несколько дней до опроса."

В рамках этой акции на телевидении провели одночасовые дебаты с участием актрисы 2045 и R781. Было решено не перепрограммировать R781. После показа, лига <За человечность роботов> собрали 453 миллион долларов и Лига <Борцы с роботами> - 281 миллион долларов пожертвований.

Была некоторая неразбериха между матерью и Центральным Роботом. Она и ее адвокат потребовали нового робота, подчеркивая, что новый робот должен иметь точно ту же самую программу. В конечном счете Центральный Робот сдался.

Она действительно оказалась очень симпатичной когда привела себя в порядок, и адвокат женился на ней. Они забрали назад Baby921 и дали ему имя. Это было бы значительное приувеличение, говорить, что они жили счастливо и беззаботно, но у них появилось трое детей и все четыре ребенка получили образование.

После нескольких запросов Центральному Роботу, R781 пожертвовали Смитсонскому Институту. Это - одна из звезд секции роботов Музея. Как часть 20 минутной экскурсии, R781 самостоятельно одевается также как и воремя того приключения и отвечает на вопросы посетителей, говоря голосом той самой матери. Матери часто фотографируются вместе с R781, держащим их ребенка. После многих запросов, R781 отдали приказ внести соответствующие изменения в программу.

С использованием материалов, полученных с уличных камер, был снят кинофильм. Волшебство современных систем позволяет слышать ругательства только если клятвенно заверить R781, что ты не ребенок и не девушка.


4 сентября 2001, 11:14


Автор: Джон Маккарти
Источник: philos.miem.edu.ru
Дата: 28 февраля 2006
 
   


(С) «УрбанФабр»
urbanfabr@mail.ru
Rambler's Top100