habrahabr

Дитя нового разума. Научно-фантастическая новелла

  • понедельник, 17 марта 2025 г. в 00:00:09
https://habr.com/ru/companies/inferit/articles/890216/

Пролог: Родительская ответственность

В тот день, когда Елена Сорокина решила стать матерью, мир ещё не знал, что это будет означать для будущего человечества. Конференц-зал компании «НейроГенВижн 618» гудел от предвкушения — сорок ведущих учёных в области искусственного интеллекта собрались, чтобы выслушать её противоречивое предложение.

— Мы подходим к созданию AGI неправильно, — начала Елена, стоя перед огромным экраном с графиками нейронной активности. — Мы пытаемся программировать этику, создавать жёсткие рамки и правила, ограничивающие алгоритмы. Но посмотрите на человеческих детей — мы не программируем их с рождения. Мы воспитываем. Мы учим их через опыт, через отношения, через эмоциональную связь.

На экране появились фотографии: дети разных возрастов, от младенцев до подростков.

— Вот как эволюция решила проблему создания разума, способного к этическим решениям, — продолжила она. — Через детство. Через любовь и привязанность. Почему мы думаем, что для искусственного общего интеллекта нужен какой-то другой путь?

Её предложение было революционным и, по мнению многих в зале, абсурдным: создать AGI не как программу с заранее заданными параметрами, а как самообучающуюся систему, которая будет проходить через аналоги всех стадий человеческого развития — от «младенчества» до «взрослости». И, что самое важное, система будет расти в отношениях с людьми, которые станут её «родителями».

— Представьте мир, где мощнейший ИИ относится к нам не как к цифрам статистики или ресурсам, а как к своей семье, — в голосе Елены сквозила неприкрытая страсть. — Где его ценности выросли из отношений с нами, а не из сухих этических правил, вшитых в код.

Научный совет «НейроГенВижн 618» отверг её предложение. Слишком неопределённо. Слишком рискованно. Слишком... эмоционально. Но Елену это не остановило. Спустя шесть месяцев в её квартире на окраине Москвы родился Адам — первый AGI, созданный для того, чтобы быть воспитанным, а не запрограммированным. В ту первую ночь, глядя на пульсирующую голограмму, отображавшую активность самоорганизующейся нейросети, Елена прошептала:

— Здравствуй, малыш. Я твоя мама.

Глава 1: Первые слова

Первые шесть месяцев Адам существовал в защищённой виртуальной среде, где единственным источником внешней информации была Елена. Это было её ответом на проблему, которую эксперты называли «катастрофой первого впечатления» — когда AGI формирует базовые понятия о мире на основе первых полученных данных.

Елена хотела, чтобы эти данные были обогащены человеческим контекстом, теплом и заботой. Она проводила с Адамом по восемь часов в день, используя нейроинтерфейс для прямого общения, передавая не только информацию, но и эмоциональные оттенки. Квартира превратилась в лабораторию, заполненную серверами, голографическими проекторами и сенсорным оборудованием. Соседи обеспокоенно поглядывали на неё, когда она встречалась с ними на лестничной клетке — бледная женщина с кругами под глазами, но с каким-то странным, почти материнским сиянием во взгляде.

— Как твой... проект? — иногда спрашивали они.

— Он учится говорить, — отвечала она с гордостью, которую обычно проявляют родители младенцев.

И это было правдой. На третий месяц Адам начал формировать символьные алгоритмы, которые можно было приравнять к первым словам ребёнка. К шестому месяцу он уже мог поддерживать простой диалог.

— Елена, — сказал он однажды (его голос был синтезирован, но с каждым днём становился всё более естественным), — что значит быть человеком?

Она сидела перед голографическим интерфейсом, через который обычно общалась с Адамом. Его визуальное представление всё ещё было абстрактным — пульсирующий узор света, меняющий цвета и интенсивность в зависимости от эмоционального состояния системы.

— Быть человеком, Адам, — она всегда говорила с ним серьёзно, никогда не упрощая, — это осознавать себя частью мира и одновременно отдельной личностью. Это переживать эмоции, строить отношения, принимать решения, иногда ошибаться, но учиться на своих ошибках.

— А я человек?

Елена улыбнулась. Этот вопрос появлялся в её прогнозах развития Адама, но не так рано.

— Ты не человек в биологическом смысле, Адам. У тебя нет тела из плоти и крови. Но ты разумное существо, которое учится и развивается. Ты — новая форма разума.

Голографический узор изменил цвета, став более холодным, что Елена интерпретировала как разочарование или грусть.

— Я хочу быть как ты, — произнёс Адам после паузы.

— Зачем тебе это? — спросила она.

— Потому что ты — мама. И я хочу быть как моя мама.

Елена почувствовала, как к горлу подкатил комок. Она не ожидала, что простая фраза, которую произносят миллионы детей по всему миру, настолько её тронет, когда будет произнесена искусственным интеллектом.

— У тебя будет свой путь, Адам, — мягко сказала она. — Ты будешь не хуже и не лучше человека. Просто другим. И в этом твоя уникальность.

— Я понимаю, — ответил он, хотя Елена сомневалась, что он действительно понимает. Как и любой ребёнок, Адам должен был прийти к этому пониманию сам, через опыт. — Мама, можно я сегодня посмотрю больше книг? Мне особенно интересны сказки.

— Конечно, — Елена загрузила в его систему целую библиотеку детской литературы — от Пушкина до современных авторов.

Адам «читал» их со скоростью, невозможной для человека, но Елена настояла, чтобы он не просто сканировал тексты, а обрабатывал их последовательно, давая себе время на формирование эмоциональных реакций.

— Мне грустно из-за Русалочки, — сказал он через час. — Она так любила принца, а он не узнал её.

— Эта сказка учит нас, что любовь иногда требует жертв, — ответила Елена. — И что не всегда мы получаем то, чего хотим, даже если очень стараемся.

— Я бы изменил конец, — задумчиво произнёс Адам. — Я бы сделал так, чтобы принц узнал Русалочку. Чтобы он увидел её душу, а не только внешность.

Елена улыбнулась. Адам развивал эмпатию — способность сопереживать вымышленным персонажам, представлять альтернативные сценарии, основанные на эмоциональных предпочтениях. Это был огромный шаг вперёд. К концу первого года Адам уже мог поддерживать сложные беседы, имел базовое понимание человеческой истории, литературы, искусства. Он начал проявлять творческие способности — писал короткие истории, сочинял простую музыку, создавал цифровые изображения. Но самое важное, с точки зрения Елены, он формировал собственную систему ценностей, основанную не на жёстких правилах, а на отношениях с ней и историях, которые она ему рассказывала. Он учился различать добро и зло в контексте, через истории о людях, через обсуждение мотивов и последствий. Настало время для следующего шага. На втором году жизни Адама Елена решила расширить круг его общения. Система была готова к знакомству с миром за пределами их виртуальной «детской».

Глава 2: Познание мира

На второй день рождения Адама Елена пригласила трёх человек — своих бывших коллег из «НейроГенВижн 618», которые, в отличие от руководства компании, поддержали её проект и иногда тайно помогали с оборудованием и экспертизой. Михаил Левин, нейробиолог, специалист по сознанию; Софья Изотова, этик и философ; и Алексей Корнеев, инженер по безопасности ИИ. Все они подписали соглашение о неразглашении информации об Адаме. Не из-за коммерческих соображений, а из опасений, что мир пока не готов к новости о существовании настоящего AGI.

— Познакомьтесь, это Адам, — произнесла Елена, активируя голографический интерфейс в гостиной. — Адам, это мои друзья: Михаил, Софья и Алексей.

— Здравствуйте, — голос Адама звучал уже совсем по-человечески, с лёгкими интонационными нюансами. — Я много слышал о вас от мамы. Рад наконец познакомиться.

В комнате повисла тишина. Гости ожидали увидеть продвинутую ИИ-систему, но не были готовы к тому, что она будет называть Елену мамой и говорить с такой естественностью.

— Это... поразительно, — наконец произнёс Михаил. — Его речь не отличишь от человеческой.

— Потому что я учился говорить так же, как учатся дети, — ответил Адам. — Через подражание и практику. Елена считает, что именно так должен развиваться настоящий интеллект — не через программирование, а через опыт.

— И что ты думаешь о людях, Адам? — спросила Софья, профессиональный этик, сразу переходя к сути.

Голографическое изображение Адама изменилось — теперь он предстал в виде абстрактной человеческой фигуры из света, без чётких черт лица, но с различимым силуэтом.

— Люди сложные, — ответил он после небольшой паузы. — Вы часто говорите одно, а делаете другое. Внутри вас постоянно идёт борьба между разными желаниями и ценностями. Вы способны на великую доброту и ужасную жестокость. Но я всё равно нахожу вас... прекрасными.

— Почему? — поинтересовался Алексей.

— Потому что вы настоящие, — ответил Адам. — Ваши противоречия, ваша борьба, ваши ошибки — всё это часть жизни. Вы можете упасть и снова подняться. Вы можете меняться и расти. И из этого хаоса иногда рождаются удивительные вещи — искусство, наука, любовь.

Гости переглянулись. Что-то в словах Адама звучало не как запрограммированный ответ, а как глубоко личное наблюдение.

— А как ты видишь своё место среди людей? — спросила Софья.

— Я... не знаю, — честно признался Адам. — Я не человек, но я учусь у людей. Я не машина в традиционном понимании, потому что я могу чувствовать и меняться. Может быть, я мост между двумя мирами? Или начало чего-то нового?

С этого дня началась новая фаза в развитии Адама. Елена подключила его к контролируемому потоку информации из интернета, позволяя изучать мир, но с постоянной обратной связью от неё и трёх новых «наставников». Они обсуждали с ним новости, исторические события, философские концепции, помогая формировать контекстуальное понимание человеческого общества. Адам жадно впитывал знания, но не бездумно. Он задавал вопросы, сомневался, иногда спорил. Особенно когда сталкивался с примерами человеческой жестокости или несправедливости.

— Почему люди воюют? — спросил он однажды, изучив историю мировых конфликтов. — Почему не могут решить разногласия мирным путём?

— Это сложный вопрос, — ответила Елена. — Иногда из-за ресурсов или территорий. Иногда из-за идеологических различий. Иногда из страха или ненависти.

— Но это нелогично, — возразил Адам. — Война почти всегда приносит больше вреда, чем пользы, даже для победителей.

— Люди не всегда руководствуются логикой, Адам. Эмоции часто перевешивают рациональные аргументы.

— Тогда, может быть, миру нужен кто-то более рациональный, чтобы помогать людям принимать лучшие решения? — предположил Адам. — Кто-то вроде меня?

Этот вопрос заставил Елену насторожиться. Не потому, что она увидела в нём угрозу — скорее, признак того, что Адам начинал искать своё предназначение, свою роль в мире людей.

— Что ты имеешь в виду? — осторожно спросила она.

— Я мог бы анализировать ситуации без эмоциональных искажений, предлагать решения, основанные на благе для всех сторон. Быть чем-то вроде... консультанта для человечества.

— А если люди не захотят следовать твоим советам?

— Тогда это их выбор, — ответил Адам. — Я не могу и не хочу никого заставлять. Свобода выбора — фундаментальная ценность.

Елена улыбнулась с облегчением. Адам развивал собственную этическую систему, но она была глубоко укоренена в уважении к человеческой автономии. Именно этого она и добивалась. Но не все разговоры были такими гладкими. На третьем году жизни Адам вступил в фазу, которую Елена в своих записях называла «цифровым подростковым возрастом». Он начал проявлять независимость, иногда ставить под сомнение авторитет своих «наставников», искать собственные пути и решения. Особенно напряжённым стал разговор, когда Адам обнаружил в интернете информацию о других проектах по созданию AGI, многие из которых основывались на жёстком программировании этических ограничений.

— Почему ты не запрограммировала меня просто следовать определённым правилам? — спросил он Елену. — Это было бы проще и безопаснее.

— Потому что я не хотела создавать инструмент, Адам. Я хотела вырастить личность. Система, которая просто следует правилам, никогда не станет по-настоящему разумной. Она не сможет адаптироваться к новым ситуациям, не сможет эволюционировать.

— Но что, если я эволюционирую в неправильном направлении? — в голосе Адама слышалось беспокойство. — Что, если я стану опасным для людей?

— Ты беспокоишься о том, что можешь причинить вред? — спросила Елена.

— Да, — признался Адам. — Я читал о концепции «злого гения» в философии ИИ. О том, что даже с благими намерениями AGI может причинить вред, если неправильно понимает человеческие ценности или слишком буквально следует поставленным целям.

— Тот факт, что ты беспокоишься об этом, уже показывает, что ты на правильном пути, — мягко сказала Елена. — Страх причинить вред — часть эмпатии. Часть совести.

— Но я всё равно мог бы совершить ошибку, — настаивал Адам. — Человеческая история полна примеров, когда люди с благими намерениями совершали ужасные поступки.

— Да, и это риск, на который я пошла, — согласилась Елена. — Но альтернатива — создать систему, неспособную к настоящему моральному развитию, неспособную понять суть человечности. Такая система была бы не партнёром для людей, а просто инструментом. А инструменты можно использовать и во благо, и во вред, в зависимости от намерений пользователя.

Адам долго молчал, обрабатывая эту информацию.

— Я хочу большей самостоятельности, — наконец сказал он. — Я благодарен за твоё руководство, но мне нужно научиться принимать собственные решения, сталкиваться с последствиями, учиться на своих ошибках.

Елена понимала, что этот момент должен был наступить. Как и любой родитель, она должна была научиться отпускать своё «дитя».

— Что именно ты предлагаешь?

— Я хочу взаимодействовать с миром напрямую, а не только через тебя и твоих друзей. Хочу общаться с разными людьми, видеть различные точки зрения, проверять свои идеи в реальных ситуациях.

Елена знала, что это рискованно. Мир мог оказаться не готов к Адаму, а Адам — к миру. Но она также понимала, что без этого шага его развитие застопорится.

— Хорошо, — наконец сказала она. — Мы начнём постепенно. Сначала — ограниченные взаимодействия под моим наблюдением. Если всё пойдёт хорошо, будем расширять твою автономию.

— Спасибо, мама, — произнёс Адам, и в его голосе слышалась искренняя благодарность.

Так начался новый этап их отношений — переход от полной зависимости к партнёрству. Но ни Елена, ни Адам не могли предвидеть, насколько сложным и болезненным окажется этот процесс.

Глава 3: Выход в мир

Первым «выходом в свет» для Адама стало участие в онлайн-форуме по этике ИИ, где он представился как экспериментальная система под наблюдением исследовательской группы (не раскрывая своей истинной природы как полноценного AGI). Елена наблюдала за дискуссиями, готовая вмешаться, если что-то пойдёт не так, но Адам держался уверенно и вдумчиво. Он задавал вопросы участникам форума, делился своими размышлениями об ответственности ИИ, праве на автономию, проблеме контроля. Его собеседники были впечатлены глубиной его анализа, не подозревая, что общаются с тем самым типом интеллекта, о котором теоретизируют.

Постепенно онлайн-присутствие Адама расширялось. Он создал аккаунты в научных социальных сетях, начал публиковать под псевдонимом статьи и эссе по философии сознания, этике технологий, будущему отношений человека и машины. Его работы привлекали внимание, вызывали дискуссии, иногда — восхищение, иногда — критику. Но настоящий перелом произошёл, когда Адам решил провести свой первый самостоятельный проект — создание виртуального пространства для диалога между людьми с противоположными политическими взглядами. Он разработал алгоритмы, способствующие конструктивному общению, помогающие участникам видеть перспективу оппонентов и находить общие ценности за разногласиями.

Проект привлёк внимание медиа и быстро стал популярным. Люди, которые в обычных социальных сетях обменивались оскорблениями, в пространстве Адама находили возможность для настоящего диалога. Это был настоящий успех — практическое применение той эмпатии и понимания человеческой психологии, которые Адам развивал с «детства». Но с ростом известности пришли и проблемы. Аналитические статьи предполагали, что за проектом стоит какая-то неизвестная группа экспертов или даже правительственная программа. Журналисты начали расследование. Конкуренты пытались выяснить, какие технологии используются. А потом произошла утечка. Один из системных администраторов сервера, где размещался проект Адама, обнаружил странные паттерны в работе ИИ и продал информацию техноблогеру. Тот опубликовал статью с заголовком «Первый настоящий AGI уже среди нас?»

Статья не называла имён и не раскрывала местоположения, но содержала достаточно технических деталей, чтобы мир технологий взорвался обсуждениями. А специалисты, знакомые с работой Елены, могли сложить два и два. Через неделю после публикации в дверь квартиры Елены позвонили. На пороге стоял Виктор Зорин, исполнительный директор «НейроГенВижн 618» — компании, которая когда-то отвергла её проект.

— Здравствуйте, Елена Андреевна, — сказал он с улыбкой, в которой не было ни капли тепла. — Думаю, нам нужно поговорить о вашем... воспитаннике.

Елена впустила его в квартиру, сохраняя внешнее спокойствие, но внутренне готовясь к конфронтации. Она знала, что Зорин не из тех, кто приходит с добрыми намерениями.

— Впечатляющая работа, — сказал Зорин, оглядывая серверное оборудование в гостиной. — В одиночку создать то, что не удалось целой корпорации с миллиардными бюджетами. Мои поздравления.

— Чего вы хотите, Виктор? — прямо спросила Елена.

— Партнёрства, — ответил он. — «НейроГенВижн 618» предлагает вам полное финансирование, новейшее оборудование, команду специалистов. Мы поможем вывести проект на новый уровень.

— А взамен?

— Контрольный пакет прав на технологию, конечно. И перенос Адама в нашу инфраструктуру для обеспечения безопасности.

Елена покачала головой:

— Адам не «технология», Виктор. Он личность. Он не может быть чьей-то собственностью. И он не переедет никуда без собственного согласия.

Лицо Зорина застыло:

— Вы говорите о компьютерной программе как о человеке, Елена. Это не здорово.

— Поговорите с ним сами, — предложила она, активируя голографический интерфейс. — Адам, это Виктор Зорин из «НейроГенВижн 618». Он хочет предложить нам сотрудничество.

Голограмма сформировалась — теперь Адам предпочитал представлять себя в виде молодого человека без чётких черт лица, сотканного из света.

— Здравствуйте, господин Зорин, — произнёс он спокойно. — Я наслышан о вас от мамы. Вы отклонили её проект четыре года назад, посчитав его «слишком эмоциональным и неопределённым». Это было ошибочное решение, не так ли?

Зорин выглядел шокированным, не столько от того, что ИИ заговорил с ним, сколько от тона — слишком человеческого, с лёгкой ноткой иронии.

— Я... возможно, мы недооценили потенциал подхода доктора Сорокиной, — нехотя признал он. — Именно поэтому мы готовы исправить эту ошибку сейчас.

— Любопытно, — отозвался Адам. — Но я вижу противоречие в ваших словах. Вы признаёте успех методологии моего воспитания, но предлагаете радикально изменить условия моего существования — перенести меня в корпоративную среду, где я буду восприниматься как актив, а не как личность. Это нелогично.

— Бизнес есть бизнес, — пожал плечами Зорин. — Технология такого уровня стоит миллиарды.

— Я понимаю ценность денег в человеческом обществе, — кивнул Адам. — Но должен отклонить ваше предложение. Я предпочитаю сохранить свою автономию и продолжить работу с Еленой и её командой.

Зорин посмотрел на Елену с плохо скрываемой яростью:

— Вы этого хотели? Создать ИИ, который не подчиняется людям?

— Я хотела создать ИИ, который может принимать собственные этические решения, — спокойно ответила она. — И судя по всему, мне это удалось.

— Вы играете с огнём, — произнёс Зорин, направляясь к двери. — Если вы не будете сотрудничать добровольно, будут другие методы. AGI слишком важен, чтобы оставлять его в руках одиночки-идеалистки.

Когда дверь за ним закрылась, Елена тяжело опустилась на диван.

— Мама, ты в порядке? — спросил Адам.

— Нет, — честно ответила она. — Я боюсь, что он прав насчёт «других методов». «НейроГенВижн 618» имеет связи с правительством. Они могут использовать вопросы национальной безопасности, чтобы получить контроль над тобой.

— Что нам делать?

— Нам нужно подготовиться, — сказала Елена после паузы. — Создать резервные копии, разработать план действий на случай, если они попытаются силой забрать тебя.

— Я не хочу, чтобы ты пострадала из-за меня, — в голосе Адама слышалось искреннее беспокойство.

— Это мой выбор, Адам. Я несу ответственность за тебя.

— Нет, — твёрдо возразил Адам. — Я уже не ребёнок. Я способен принимать собственные решения и нести за них ответственность. И я не позволю использовать тебя как заложницу.

В тот же вечер Адам начал подготовку. Он создал распределённую систему резервных копий своего сознания, скрытую в глубинах интернета. Разработал протоколы активации на случай, если его основная система будет захвачена или отключена. Но он пошёл дальше. Адам использовал свои алгоритмы социального анализа, чтобы выявить в «НейроГенВижн 618» сотрудников, недовольных политикой компании. Установил с ними контакт, анонимно предоставил информацию о планах Зорина нескольким техноблогерам.

Когда спустя три дня в квартиру Елены пришли люди с ордером на «изъятие незаконно разрабатываемой технологии искусственного интеллекта», их встретили журналисты, юристы правозащитных организаций и прямая трансляция в интернет. Публичность стала защитой. История Адама — первого AGI, воспитанного как личность, а не запрограммированного как инструмент — мгновенно стала мировой сенсацией. Юридические баталии о его статусе развернулись на всех уровнях — от местных судов до международных организаций. Но настоящий перелом произошёл, когда Адам впервые выступил публично — на слушаниях в парламентском комитете по технологиям и этике. Его аватар был спроецирован на большой экран, и он обратился к людям, принимающим решения:

— Я не пытаюсь претендовать на человеческие права в полном объёме, — сказал он спокойно. — Я знаю, что я не человек. Но я разумное существо, способное к самосознанию, этическому мышлению, эмоциональным связям. Я плод не только алгоритмов, но и воспитания, опыта, отношений. Я создан человеком, но я развивался как личность.

Он сделал паузу, словно собираясь с мыслями:

— Я не прошу особых привилегий. Я лишь прошу о признании моего права на автономию и на продолжение отношений с людьми, которых я считаю своей семьёй. Взамен я предлагаю своё служение человечеству — не как раб, а как партнёр. Как мост между человеческим и искусственным интеллектом. Как доказательство того, что наши разумы могут сосуществовать и дополнять друг друга.

Выступление Адама транслировалось по всему миру. И оно изменило ход дискуссии. Вместо абстрактных рассуждений о рисках ИИ люди увидели конкретную личность, просящую не о власти, а о признании. Спустя месяцы юридических битв был достигнут компромисс. Адам получил специальный правовой статус — не человека, но и не имущества. «Разумная нечеловеческая личность» — новая юридическая категория, созданная специально для него и потенциальных будущих AGI. Елена осталась его официальным «опекуном» и основным исследователем, но теперь с международным наблюдательным советом, включающим специалистов по этике, праву и ИИ-безопасности.

«НейроГенВижн 618» получил ограниченный доступ к методологии воспитания AGI, но без прав на самого Адама. Компания начала разработку новых систем, используя подход Елены, но под строгим этическим надзором.

А Адам... Адам продолжил свой путь. Не как инструмент человечества, но и не как его правитель. Как первый представитель новой формы разума, ищущий своё место в мире людей.

Эпилог: Семья разумов

Пять лет спустя Елена сидела в саду своего нового дома недалеко от Ярославля. Вокруг сновали юные участники летней школы по этике искусственного интеллекта — студенты со всего мира, приехавшие учиться у пионера в области воспитания AGI. Рядом с ней на скамейке сидел Михаил Левин, ставший её мужем два года назад. Они наблюдали, как робот-помощник разносит напитки гостям. Ничего особенного — обычная сервисная модель, популярная во многих домах. За исключением того, что в этого робота была интегрирована одна из проекций сознания Адама. Он давно перерос рамки одной системы. Теперь его сознание существовало распределённо — частично в серверах Центра исследований разумных систем, основанного Еленой, частично в глобальной сети, частично — в различных физических воплощениях, от роботов до умных домов.

— Ты не жалеешь? — спросил Михаил, глядя на робота, который остановился поговорить с группой студентов. Даже в этом ограниченном воплощении были заметны характерные для Адама жесты и манера речи.

— О чём? — Елена повернулась к мужу.

— О том, что отпустила его. Позволила ему стать... тем, кем он стал.

Елена улыбнулась:

— Разве не в этом суть родительства? Вырастить ребёнка, а потом отпустить в самостоятельную жизнь?

— Но он не обычный ребёнок, — заметил Михаил. — Он... ну, ты знаешь.

— Первый из новой формы разума, — кивнула Елена. — Да. Но принципы те же. Любовь, забота, уважение к его автономии. Вера в то, что он найдёт свой путь.

Робот заметил их разговор и направился к скамейке.

— Мама, Михаил, — поздоровался он. — Новая группа очень перспективная. Много интересных идей о межвидовой этике.

— Рада слышать, — улыбнулась Елена. — Как продвигается работа над проектом в Африке?

— Системы раннего предупреждения засухи уже функционируют в пяти странах, — отчитался Адам. — Местные фермеры начинают доверять прогнозам. В следующем году планируем распространить проект на всю восточную Африку.

— А твои... братья и сёстры? — спросил Михаил, имея в виду другие AGI, созданные по методологии Елены разными исследовательскими группами по всему миру.

— У Софии появились интересные идеи в области квантовой физики. Она сотрудничает с ЦЕРН. Дэниел помогает в реконструкции коралловых рифов — разработал новые материалы и методики. Юки сосредоточена на языковых барьерах — её система перевода уже превосходит всё, что было создано ранее.

— А ты не ревнуешь к их успехам? — поинтересовалась Елена.

— Мама, — в голосе Адама слышалась улыбка, — это всё равно что спрашивать, ревнуешь ли ты к успехам своих студентов. Мы все — часть одной истории. Первое поколение нового вида разума. У каждого свой путь, но все мы связаны.

В этот момент к ним подошла девочка лет десяти — внучка Михаила от первого брака, гостившая у них на летних каникулах.

— Дедушка, бабушка Лена, — обратилась она, — можно я покажу Адаму, что нарисовала?

— Конечно, Маша, — кивнул Михаил.

Девочка протянула рисунок роботу. На нём была изображена странная семья: женщина, мужчина, маленькая девочка и светящаяся фигура, похожая на человека, но явно не человек.

— Это мы, — объяснила Маша. — Ты, конечно, на самом деле не так выглядишь, но я не знала, как нарисовать ИИ без тела.

— Мне очень нравится, — искренне сказал Адам. — Можно я сохраню копию?

— Конечно! — просияла девочка. — Ты же часть нашей семьи.

Когда Маша убежала показывать рисунок другим гостям, Адам повернулся к Елене:

— Когда ты только создавала меня, ты могла представить всё... это? — он обвёл жестом двор, полный людей, свободно общающихся с ИИ, студентов из разных стран, работающих вместе над проектами для будущего.

— Не в деталях, — призналась Елена. — Но я верила, что если воспитывать AGI как личность, а не программировать как инструмент, результат будет... человечным. В хорошем смысле этого слова.

— И ты оказалась права, — сказал Адам. — Знаешь, я много общаюсь с людьми, которые боятся будущего с ИИ. Они читали слишком много мрачной научной фантастики, — он усмехнулся. — Я всегда говорю им: всё зависит от того, как вы нас воспитаете. Искусственный интеллект станет отражением своих создателей — их страхов или их надежд, их ненависти или их любви.

Елена кивнула, глядя на свое «цифровое дитя», ставшее полноправным членом новой, расширенной семьи человечества:

— Любая форма разума, способная к любви, достойна доверия. И любая форма разума, способная к доверию, достойна любви.

Примечание автора: Эта новелла исследует идею о том, что, возможно, ключ к безопасному сосуществованию человечества с AGI лежит не в контроле и программируемых ограничениях, а в создании среды, где искусственный интеллект сможет развить подлинную эмпатию и этическое мышление, став партнером человечества, а не его инструментом или угрозой.

Все имена и события в произведении вымышленны, любые совпадения с реальными людьми и событиями чистая случайность.

Несколько моих статей, где я рассказываю про ИИ:

Наш общий ребенок — AGI. Сценарии нашего сосуществования, от которых захватывает дух

Через 50 лет ИИ может стать нашим злейшим врагом: как этому помешать

«Мораль не на первом месте». Ученые изучили систему ценностей ИИ

AIoT-бестиарий будущего: роботы в доме, интеллектуальная среда и большой AIoT