В сентябре Касым-Жомарт Токаев озвучил интересую идею, предложив создать специальный Этический кодекс для искусственного интеллекта. Об этом президент заявил, выступая на Съезде лидеров мировых и традиционных религий. По мнению президента, в разработке такого документа должны участвовать представители различных конфессий

Он отметил, что ИИ, большие данные, биоинженерия и другие революционные новации кардинально меняют все сферы жизнедеятельности людей, но этические нормы не успевают адаптироваться к высокой динамике технологического прогресса.

«Предлагаю создать Межрелигиозную комиссию по этике развития искусственного интеллекта, которая займется разработкой свода универсальных принципов ответственного использования нейросетей и других прорывных технологий. Речь идет о своеобразных «заповедях для алгоритмов», которые подразумевают уважение к человеческому достоинству, недопустимость дискриминации, контроль над решениями, носящими судьбоносный характер», – заявил Токаев.

Корреспондент CMN.KZ решил узнать, что думают о такой инициативе Токаева сами священнослужители.

Техника не может быть выше совести

Представители православной церкви Казахстана предложение Токаева поддерживают. По словам протоиерея Александра Суворова, сама постановка вопроса о нравственных ориентирах в сфере технологий – своевременная и нужная.

Фото: Александр Суворов

«Вера способна предложить не технические, а именно смысловые ориентиры — ценность личности, достоинство человека, приоритет свободы и ответственности. Мы уже предлагали поддержать инициативу в Алматинском клубе Лидеров традиционных религий – этакой диалоговой площадке, где общаются представители основных конфессий мегаполиса», – отметил руководитель Отдела по связям с общественностью православной церкви Казахстана в ответ на запрос редакции.

По его мнению, духовные и этические ценности в основе кодекса ИИ могут быть следующими:

  • неприкосновенность человеческого достоинства – в центре;
  • свобода личности и совести;
  • защита слабого;
  • справедливость и недопустимость дискриминации;
  • уважение к традиции;
  • ответственность за последствия технологических решений.

Суворов подчеркнул, что эти ценности универсальны и не зависят от вероисповедания.

«Христианская этика не нуждается в «переписывании» — она адаптируема через применение неизменных принципов к новым ситуациям. Например, заповедь «не лжесвидетельствуй» в цифровом мире означает борьбу с дипфейками и дезинформацией, а «не убий» — запрет на использование ИИ для бесконтрольного вооружения или подмены человеческого решения в принятии  вопросов о  жизни и смерти», – пояснил Суворов.

При этом, представители православной церкви Казахстана считают, что без этического регулирования, ИИ может стать инструментом манипуляции, неравенства и угнетения, а техника не может быть выше совести.

фото: freepik

«Этический кодекс ИИ может иметь не только декларативный, но и обязательный характер — но в сферах, связанных с судьбоносными решениями (правосудие, медицина, безопасность). Рекомендации хороши, но обязательность защищает человека», – отметил Суворов.

Рассуждая о роли религиозных деятелей в разработке такого кодекса, он добавил, что церковь может и должна стать нравственным экспертом — участником формирования принципов, оценки проектов и просвещения общества.

«Это не «освящение технологий», а охрана человеческого достоинства», – подчеркнул он.

Суворов добавил, что то, что сегодня принято называть «искусственным интеллектом», в действительности не является в полном смысле интеллектом.

«Это лишь продвинутые алгоритмы обработки данных, умеющие классифицировать, прогнозировать и имитировать рассуждения. Они не обладают самосознанием, свободой воли или способностью к настоящему моральному выбору. Но ситуация может радикально измениться в будущем. В научной среде обсуждается возможность появления так называемого Высшего ИИ (Artificial Superintelligence) — системы, которая сможет принимать самостоятельные решения и делать собственный выбор, включая непредусмотренные сценарии. Если это произойдёт, все нынешние этические подходы придётся пересматривать с нуля, потому что мы столкнёмся не просто с инструментом, а с чем-то, обладающим чертами автономного субъекта», – сказал он.

В пример Суворов привёл работу такого ИИ в медицине, где система, контролирующая жизнеобеспечение человека, может решить, что поддерживать его жизнь и дальше – нецелесообразно.

«Таким образом, система берёт на себя функцию Бога, отключая аппарат. Это уже не инженерный, а глубоко этический и богословский вопрос — кто вправе решать, когда человек должен жить или умереть. Именно такие гипотетические сценарии требуют создания этических и правовых границ уже сейчас, задолго до появления Высшего ИИ», – подчеркнул Суворов.

Резюмируя, представители православной церкви в Казахстане отметили, что именно поэтому участие религиозных и духовных лидеров в диалоге, предложенном Токаевым — не второстепенная опция, а необходимое условие.

У ИИ нет морали, за него отвечает человек

В католической информационной службе Центральной Азии напомнили, что ранее в Святом Престоле уже опубликовали документ “Antiqua et Nova”, посвящённый искусственному интеллекту. В нём говорится, что развитие технологий требует «мудрости сердца», а также осознания того, что уважение к достоинству каждого человека должно оставаться в приоритете.

«Церковь же предлагает богатый нравственно-антропологический ресурс, который может стать основой для таких универсальных ориентиров, но эти ориентиры должны быть переведены на язык конкретной политики и технической регуляции», – отметили в католической церкви.

По мнению её представителей, будущий Кодекс для ИИ должен опираться на уважение к достоинству человека, принцип общего блага, справедливость и солидарность, заботу о наиболее уязвимых, ответственность и прозрачность, субсидиарность и уважение к праву на частную жизнь.

«Христианские нравственные принципы – достоинство, совесть, ответственность, любовь к ближнему, устойчивы и приложимы к новым областям жизни. Они требуют конкретизации в цифровом контексте. Antiqua et Nova показывает, как богословская антропология и социальное учение Церкви могут дать ориентиры для регулирования ИИ, но перевод принципов в практические правила требует диалога между теологами, юристами, учёными и обществом», – добавили в церкви.

В информационной службе подчеркнули, что ИИ как технология не обладает моральной ответственностью, но ответственность несёт человек.

«Тем не менее, сам искусственный интеллект встраивается в общественный контекст и потому, обязан проектироваться и эксплуатироваться с учётом нравственных принципов: уважения к достоинству, прозрачности, подотчётности и заботы о слабых. Antiqua et Nova подчёркивает, что окончательная ответственность за решения, принимаемые с использованием ИИ, должна оставаться за человеком», – говорится в ответ на запрос редакции.

При разработке Этического кодекса, представители католической церкви в Казахстане предлагают:

  • экспертный и этико-антропологический вклад (теологи, католические биоэтики, католические университеты);
  • участие в многостороннем диалоге (между академией, индустрией, государством и религиозными общинами);
  • инициативы по образованию и повышению цифровой грамотности, особенно у пастырей, учителей и родителей.

«Католическая Церковь Казахстана, имея опыт плодотворных отношений с властями и общественными институтами, готова участвовать в межрелигиозных и государственно-общественных комиссиях и рабочих группах по подготовке кодекса», – добавили её представители.

Среди угроз, которые несёт в себе развитие ИИ, не ограниченное правовыми и этическими рамками, католики называют:

  • замещение живых отношений технологиями (снижение качества межличностных связей);
  • очищение общения до транзакций;
  • искушение к очеловечиванию машин;
  • рост зависимости от алгоритмов в моральном выборе;
  • риск подмены ценностей технократической логикой.

«Это ведёт к «утрате восприятия целостной картины» и ослаблению способности к духовному различению. Для противодействия нужна «мудрость сердца» и воспитание полноты человеческой личности», – говорится в ответе на запрос редакции.

Фото: pixabay

«Опыт и вышеупомянутый документ Церкви указывают на необходимость комбинированного подхода в плане регулирования ИИ. Общие принципы (уважение достоинства, прозрачность, подотчётность, защита приватности, недопущение дискриминации) должны быть закреплены в обязательных нормах, а соответствие им должны контролировать регуляторы, особенно в сферах высокого риска. При этом кодекс ценностей и практические руководства могут дополнять законодательство в форме рекомендаций и стандартов для отраслей, где специфика решений велика».

В католической церкви перечислили несколько категории решений ИИ, которые обязательно должны находиться под контролем человека:

  • решения, напрямую влияющие на жизнь и здоровье людей (медицинские диагнозы и лечение; решения о приоритетах лечения);
  • решения, влекущие за собой лишение свободы, существенные ограничения прав и гражданских свобод;
  • решения, влияющие на труд и занятость людей, приводящие к массовому вытеснению работников без мер поддержки;
  • автоматизированные решения, применяемые в сфере правосудия и административного наказания;
  • автоматизированные решения, применяемые в сфере оборонной отрасли. В частности — применение автономных летальных систем. Следует отметить, что вопрос военной этики требует особой осторожности;
  • алгоритмы, имеющие системное влияние на распределение ресурсов и доступ к услугам для уязвимых групп.

А что с чатом ChatGPT

В Духовном управлении мусульман на вопросы редакции о самом искусственном интеллекте, а также о предложении Токаева, не ответили. Однако прояснили другой интересный и волнующий многих момент – отношение верующих и чата ChatGPT.

Коллаж: CMN.KZ

«Инструменты искусственного интеллекта, такие как ChatGPT, могут использоваться для поиска информации, переводов текстов, анализа данных и общих справочных целей. Кроме того, такие системы подходят для использования в качестве вспомогательного средства в области религиозного образования. Например, для поиска данных, получения комментариев и так далее», – пояснили в ДУМК, отвечая на запрос редакции.

При этом в управлении подчеркнули, что есть и ограничения. В частности, мусульмане не должны обращаться к ИИ для советов по религиозным темам или для религиозного заключения касательно спорных вопросов.

«ИИ не может учитывать реальное состояние человека, не различает достоверность источников. Для решения таких вопросов нужно обращаться только к квалифицированным религиозным специалистам. А средства ИИ следует использовать только во вспомогательных целях», – предостерегли в ДУМК.

Вкалывают даже не роботы и совсем не человек

Между тем, мифическое будущее, о котором писали ещё советские фантасты, уже ближе, чем человечеству, возможно, хотелось бы.

К примеру, 2 октября 2025 года в Фонде «Самрук-Қазына» представили президенту Касым-Жомарту Токаеву нейросеть SKAI (Samruk-Kazyna Artificial Intelligence). По сути это первый в регионе цифровой независимый член Совета директоров с правом голоса.

Вот так она выглядит:

SKAI анализирует нормативные документы, решения совета директоров с 2008 года и другие внутренние материалы. Нейросеть разработана на базе казахстанской языковой модели Alem LLM и работает на суперкомпьютере Al Farabium в закрытом контуре, что гарантирует защиту данных.

Увидеть работу нейросети в действии и даже пообщаться с ней получилось у премьер-министра Олжаса Бектенова, под чьим руководством 17 октября 2025 года состоялось заседание совета директоров Фонда «Самрук-Қазына». Мероприятие впервые прошло при участии SKAI.

Что будет дальше – посмотрим, тем более что президент поставил перед правительством задачу – через три года Казахстан должен стать цифровой страной в Центральной Азии. Как тебе такое, Илон Маск?

Читайте также:

Поделиться:
Оставить комментарий

Exit mobile version