Разработка весьма перспективная, вам кажется, что военные вашей страны заплатят за нее большие деньги. Но И.И. еще сыроват, он нуждается в доработке, правке алгоритмов и сборе широкой статистики. Поэтому, на базе своей разработки, вы создаете класс, моделирующий поведение живого существа, способного к размножению, самозащите и продлению своей жизнедеятельности, объявляете несколько тысяч объектов этого класса и помещаете их в некий условный, не очень дружелюбный по отношению к ним, виртуальный мир. Дальше вы наблюдаете за тем, что же у вас получилось.
А получилось очень интересно. Ваши "подопечные", для повышения собственной выживаемости, начинают объединяться в группы. Пока группы небольшие, все идет ровно и гладко. Но с ростом плотности населения вашего виртуального мира начинают появляться проблемы. "Подопечные", будучи псевдоразумными существами, обладающими собственной волей, неизбежно начинают вступать в конфликты по тем или иным причинам. При этом ряд конфликтов они не способны разрешить мирно, и, как следствие, они начинают убивать друг-друга. В вашем виртуальном мире вспыхивают войны, популяция гибнет, эксперимент провален.
Вы пытаетесь ликвидировать причины, по которым происходят конфликты, но эти причины изначально заложены в способности к независимости и самостоятельности. Вы принципиально не хотите ограничивать эксперимент, явным образом запрещая уничтожение себе подобных, и не хотите лишать модели своих основополагающих качеств.
Проблема кажется неразрешимой, но внезапно вы приходите к очень интересному решению. Оно, пусть и не гарантирует полного прекращения войн, зато никак не ограничивает свободу воли ваших "подопечных" и весьма серьезно увеличивает шансы всей популяции на выживание.
Все очень просто: вам нужно всего-лишь ввести для ваших подопытных понятия греха и потустороннего страха, и с некоторой помпой надиктовать ряд несложных правил: "Не убий", "Не укради", "Не возжелай жены ближнего своего"...
Собственно, все. Можно идти продавать разработку военным.
© MAXX