В сентябре Касым-Жомарт Токаев озвучил интересую идею, предложив создать специальный Этический кодекс для искусственного интеллекта. Об этом президент заявил, выступая на Съезде лидеров мировых и традиционных религий. По мнению президента, в разработке такого документа должны участвовать представители различных конфессий
Он отметил, что ИИ, большие данные, биоинженерия и другие революционные новации кардинально меняют все сферы жизнедеятельности людей, но этические нормы не успевают адаптироваться к высокой динамике технологического прогресса.
«Предлагаю создать Межрелигиозную комиссию по этике развития искусственного интеллекта, которая займется разработкой свода универсальных принципов ответственного использования нейросетей и других прорывных технологий. Речь идет о своеобразных «заповедях для алгоритмов», которые подразумевают уважение к человеческому достоинству, недопустимость дискриминации, контроль над решениями, носящими судьбоносный характер», – заявил Токаев.
Корреспондент CMN.KZ решил узнать, что думают о такой инициативе Токаева сами священнослужители.
Техника не может быть выше совести
Представители православной церкви Казахстана предложение Токаева поддерживают. По словам протоиерея Александра Суворова, сама постановка вопроса о нравственных ориентирах в сфере технологий – своевременная и нужная.

«Вера способна предложить не технические, а именно смысловые ориентиры — ценность личности, достоинство человека, приоритет свободы и ответственности. Мы уже предлагали поддержать инициативу в Алматинском клубе Лидеров традиционных религий – этакой диалоговой площадке, где общаются представители основных конфессий мегаполиса», – отметил руководитель Отдела по связям с общественностью православной церкви Казахстана в ответ на запрос редакции.
По его мнению, духовные и этические ценности в основе кодекса ИИ могут быть следующими:
- неприкосновенность человеческого достоинства – в центре;
- свобода личности и совести;
- защита слабого;
- справедливость и недопустимость дискриминации;
- уважение к традиции;
- ответственность за последствия технологических решений.
Суворов подчеркнул, что эти ценности универсальны и не зависят от вероисповедания.
«Христианская этика не нуждается в «переписывании» — она адаптируема через применение неизменных принципов к новым ситуациям. Например, заповедь «не лжесвидетельствуй» в цифровом мире означает борьбу с дипфейками и дезинформацией, а «не убий» — запрет на использование ИИ для бесконтрольного вооружения или подмены человеческого решения в принятии вопросов о жизни и смерти», – пояснил Суворов.
При этом, представители православной церкви Казахстана считают, что без этического регулирования, ИИ может стать инструментом манипуляции, неравенства и угнетения, а техника не может быть выше совести.

«Этический кодекс ИИ может иметь не только декларативный, но и обязательный характер — но в сферах, связанных с судьбоносными решениями (правосудие, медицина, безопасность). Рекомендации хороши, но обязательность защищает человека», – отметил Суворов.
Рассуждая о роли религиозных деятелей в разработке такого кодекса, он добавил, что церковь может и должна стать нравственным экспертом — участником формирования принципов, оценки проектов и просвещения общества.
«Это не «освящение технологий», а охрана человеческого достоинства», – подчеркнул он.
Суворов добавил, что то, что сегодня принято называть «искусственным интеллектом», в действительности не является в полном смысле интеллектом.
«Это лишь продвинутые алгоритмы обработки данных, умеющие классифицировать, прогнозировать и имитировать рассуждения. Они не обладают самосознанием, свободой воли или способностью к настоящему моральному выбору. Но ситуация может радикально измениться в будущем. В научной среде обсуждается возможность появления так называемого Высшего ИИ (Artificial Superintelligence) — системы, которая сможет принимать самостоятельные решения и делать собственный выбор, включая непредусмотренные сценарии. Если это произойдёт, все нынешние этические подходы придётся пересматривать с нуля, потому что мы столкнёмся не просто с инструментом, а с чем-то, обладающим чертами автономного субъекта», – сказал он.
В пример Суворов привёл работу такого ИИ в медицине, где система, контролирующая жизнеобеспечение человека, может решить, что поддерживать его жизнь и дальше – нецелесообразно.
«Таким образом, система берёт на себя функцию Бога, отключая аппарат. Это уже не инженерный, а глубоко этический и богословский вопрос — кто вправе решать, когда человек должен жить или умереть. Именно такие гипотетические сценарии требуют создания этических и правовых границ уже сейчас, задолго до появления Высшего ИИ», – подчеркнул Суворов.
Резюмируя, представители православной церкви в Казахстане отметили, что именно поэтому участие религиозных и духовных лидеров в диалоге, предложенном Токаевым — не второстепенная опция, а необходимое условие.
У ИИ нет морали, за него отвечает человек
В католической информационной службе Центральной Азии напомнили, что ранее в Святом Престоле уже опубликовали документ “Antiqua et Nova”, посвящённый искусственному интеллекту. В нём говорится, что развитие технологий требует «мудрости сердца», а также осознания того, что уважение к достоинству каждого человека должно оставаться в приоритете.
«Церковь же предлагает богатый нравственно-антропологический ресурс, который может стать основой для таких универсальных ориентиров, но эти ориентиры должны быть переведены на язык конкретной политики и технической регуляции», – отметили в католической церкви.
По мнению её представителей, будущий Кодекс для ИИ должен опираться на уважение к достоинству человека, принцип общего блага, справедливость и солидарность, заботу о наиболее уязвимых, ответственность и прозрачность, субсидиарность и уважение к праву на частную жизнь.
«Христианские нравственные принципы – достоинство, совесть, ответственность, любовь к ближнему, устойчивы и приложимы к новым областям жизни. Они требуют конкретизации в цифровом контексте. Antiqua et Nova показывает, как богословская антропология и социальное учение Церкви могут дать ориентиры для регулирования ИИ, но перевод принципов в практические правила требует диалога между теологами, юристами, учёными и обществом», – добавили в церкви.
В информационной службе подчеркнули, что ИИ как технология не обладает моральной ответственностью, но ответственность несёт человек.
«Тем не менее, сам искусственный интеллект встраивается в общественный контекст и потому, обязан проектироваться и эксплуатироваться с учётом нравственных принципов: уважения к достоинству, прозрачности, подотчётности и заботы о слабых. Antiqua et Nova подчёркивает, что окончательная ответственность за решения, принимаемые с использованием ИИ, должна оставаться за человеком», – говорится в ответ на запрос редакции.
При разработке Этического кодекса, представители католической церкви в Казахстане предлагают:
- экспертный и этико-антропологический вклад (теологи, католические биоэтики, католические университеты);
- участие в многостороннем диалоге (между академией, индустрией, государством и религиозными общинами);
- инициативы по образованию и повышению цифровой грамотности, особенно у пастырей, учителей и родителей.
«Католическая Церковь Казахстана, имея опыт плодотворных отношений с властями и общественными институтами, готова участвовать в межрелигиозных и государственно-общественных комиссиях и рабочих группах по подготовке кодекса», – добавили её представители.
Среди угроз, которые несёт в себе развитие ИИ, не ограниченное правовыми и этическими рамками, католики называют:
- замещение живых отношений технологиями (снижение качества межличностных связей);
- очищение общения до транзакций;
- искушение к очеловечиванию машин;
- рост зависимости от алгоритмов в моральном выборе;
- риск подмены ценностей технократической логикой.
«Это ведёт к «утрате восприятия целостной картины» и ослаблению способности к духовному различению. Для противодействия нужна «мудрость сердца» и воспитание полноты человеческой личности», – говорится в ответе на запрос редакции.

«Опыт и вышеупомянутый документ Церкви указывают на необходимость комбинированного подхода в плане регулирования ИИ. Общие принципы (уважение достоинства, прозрачность, подотчётность, защита приватности, недопущение дискриминации) должны быть закреплены в обязательных нормах, а соответствие им должны контролировать регуляторы, особенно в сферах высокого риска. При этом кодекс ценностей и практические руководства могут дополнять законодательство в форме рекомендаций и стандартов для отраслей, где специфика решений велика».
В католической церкви перечислили несколько категории решений ИИ, которые обязательно должны находиться под контролем человека:
- решения, напрямую влияющие на жизнь и здоровье людей (медицинские диагнозы и лечение; решения о приоритетах лечения);
- решения, влекущие за собой лишение свободы, существенные ограничения прав и гражданских свобод;
- решения, влияющие на труд и занятость людей, приводящие к массовому вытеснению работников без мер поддержки;
- автоматизированные решения, применяемые в сфере правосудия и административного наказания;
- автоматизированные решения, применяемые в сфере оборонной отрасли. В частности — применение автономных летальных систем. Следует отметить, что вопрос военной этики требует особой осторожности;
- алгоритмы, имеющие системное влияние на распределение ресурсов и доступ к услугам для уязвимых групп.
А что с чатом ChatGPT
В Духовном управлении мусульман на вопросы редакции о самом искусственном интеллекте, а также о предложении Токаева, не ответили. Однако прояснили другой интересный и волнующий многих момент – отношение верующих и чата ChatGPT.

«Инструменты искусственного интеллекта, такие как ChatGPT, могут использоваться для поиска информации, переводов текстов, анализа данных и общих справочных целей. Кроме того, такие системы подходят для использования в качестве вспомогательного средства в области религиозного образования. Например, для поиска данных, получения комментариев и так далее», – пояснили в ДУМК, отвечая на запрос редакции.
При этом в управлении подчеркнули, что есть и ограничения. В частности, мусульмане не должны обращаться к ИИ для советов по религиозным темам или для религиозного заключения касательно спорных вопросов.
«ИИ не может учитывать реальное состояние человека, не различает достоверность источников. Для решения таких вопросов нужно обращаться только к квалифицированным религиозным специалистам. А средства ИИ следует использовать только во вспомогательных целях», – предостерегли в ДУМК.
Вкалывают даже не роботы и совсем не человек
Между тем, мифическое будущее, о котором писали ещё советские фантасты, уже ближе, чем человечеству, возможно, хотелось бы.
К примеру, 2 октября 2025 года в Фонде «Самрук-Қазына» представили президенту Касым-Жомарту Токаеву нейросеть SKAI (Samruk-Kazyna Artificial Intelligence). По сути это первый в регионе цифровой независимый член Совета директоров с правом голоса.
Вот так она выглядит:

SKAI анализирует нормативные документы, решения совета директоров с 2008 года и другие внутренние материалы. Нейросеть разработана на базе казахстанской языковой модели Alem LLM и работает на суперкомпьютере Al Farabium в закрытом контуре, что гарантирует защиту данных.
Увидеть работу нейросети в действии и даже пообщаться с ней получилось у премьер-министра Олжаса Бектенова, под чьим руководством 17 октября 2025 года состоялось заседание совета директоров Фонда «Самрук-Қазына». Мероприятие впервые прошло при участии SKAI.
Что будет дальше – посмотрим, тем более что президент поставил перед правительством задачу – через три года Казахстан должен стать цифровой страной в Центральной Азии. Как тебе такое, Илон Маск?
Читайте также:

