Совсем недавно мы рассуждали об искусственном интеллекте, как о панацее нового времени. Говорили о плюсах, минусах и рисках, которые несут цифровые технологии и повсеместное их распространение. По мнению казахстанских экспертов, созданный человеком компьютерный разум в ближайшее время не сможет полноценно заменить реальный. Тем не менее, развивающийся гигантскими скачками ИИ, несёт в себе как огромный потенциал так и множество скрытых угроз. О вызовах и возможностях передовых технологий компьютерного интеллекта редакции CMN.KZ рассказали в Министерстве цифрового развития, инноваций и аэрокосмической промышленности РК
В своём ответе на запрос CMN.KZ в Минцифры РК отметили, что одним из новых вызовов при использовании искусственного интеллекта, становится нехватка квалифицированных специалистов. Это характерно, как для Казахстана, так и для других стран. Кроме того, на повестке дня всё ещё вопросы безопасности и конфиденциальности данных.
«Для минимизации этих рисков и поддержки развития ИИ, необходимо создать чёткую нормативную базу, а также наращивать компетенцию работников сферы. В целях создания экосистемы ИИ мы стараемся совершенствовать технологии и интегрировать их в ключевые сектора экономики», — отметили в министерстве.

Планы и риски
В ведомстве подчеркнули, что в 2024 году создали Комитет по искусственному интеллекту и утвердили Концепцию развития ИИ до 2029 года. Также на эту тему разработали законопроект, который сейчас проходит стадию согласования.
В Минцифры также рассказали, что сейчас идут переговоры с международными экспертами о работе Совета по развитию искусственного интеллекта. Его ещё в в декабре 2024 года поручил создать Касым-Жомарт Токаев.
«Совет объединит учёных, представителей технологических компаний, госорганов, инвесторов и отраслевых ассоциаций. Целью является выстраивание национальной политики, а также стратегии в сфере ИИ и международного сотрудничества».
В министерстве также призывают к разумному и обдуманному использованию виртуальных и текстовых помощников, к примеру таких как чат ChatGPT. Основными опасениями при их эксплуатации является достоверность предоставляемой ИИ информации, а также защита персональных данных и возможность манипуляций.
«Виртуальные помощники, такие как ChatGPT, работают на основе больших объёмов данных. Но они не всегда могут гарантировать точность ответов. Это способно привести к распространению дезинформации или недостоверных фактов. Кроме того, алгоритмы ИИ могут демонстрировать предвзятость, если обучены на неполных или предвзятых источниках. Это в свою очередь может повлиять на принимаемые решения».
В Минцифры упомянули и о рисках утечки информации. Ведомство отметило, что передача личных данных пользователей в таких сервисах делает их уязвимыми для киберугроз. Важно соблюдать меры кибербезопасности, избегать передачи «чувствительной» информации и внимательно относиться к достоверности получаемых данных.

Оптимизация и автоматизация
По мнению экспертов из министерства, качественные изменения с внедрением ИИ могут затронуть профессии, связанные с рутинными и повторяющимися задачами. Это актуально для сфер финансов, логистики, производства, клиентской поддержки и IT, а также включения ИИ в повседневные операции.
«Это позволит сотрудникам сосредоточиться на задачах, требующих креативности, инновационного мышления и социального взаимодействия. А также поспособствует повышению эффективности. Отметим, что человеческий фактор останется важным, автоматизация в будущем коснётся административных процессов, диагностики и т.д. ИИ не заменит человека, его может заменить лишь человек с более высокими компетенциями и владением навыками ИИ».
При этом точность показателей зависит от темпов внедрения цифровых технологий, считают в Минцифры. Сейчас акцент делают на переподготовку сотрудников и создание новых рабочих мест в сфере ИИ. Основные изменения ожидают в течение ближайших 5-10 лет. А пик автоматизации в придётся на 2027-2030 годы, прогнозируют в ведомстве.
«Также отметим, что в будущем появятся новые профессии в области разработки и обслуживания ИИ-систем, кибербезопасности, аналитики данных, цифрового маркетинга и обучения ИИ. Ожидается рост спроса на тысячи специалистов в этих направлениях».
Активно наращивать квалификацию в сфере начинают уже сейчас. Минцифры совместно с Автономным кластерным фондом «Парк инновационных технологий» в рамках AI Movement (инициатива, направленная на вовлечение населения в сферу искусственного интеллекта) проводят обучение по разным направлениям. В их числе:
• AI People Bootcamp – интенсивный 4-недельный онлайн-курс по ИИ для жителей Казахстана, Узбекистана и Кыргизстана.
• Основы ИИ: ChatGPT – онлайн курс, позволяющий получить базовые знания про нейросети и навыки пользоваться ChatGPT на русском и казахском языках.
• Обучение учителей школ и преподавателей ВУЗов Казахстана дисциплинам ИИ и GameDev.
• Tomorrow School – школа искусственного интеллекта на базе технопарка Astana Hub.
• AI’preneurs – акселерация нового формата, которая объединяет таланты для разработки AI-стартапов.

У ИИ нет интуиции
В ведомстве согласны с мнением экспертов TSARKA о том, что искусственный интеллект ограничен в возможностях и вряд ли достигнет человеческого уровня.
Основные ограничения ИИ остаются в отсутствии интуиции, эмоционального интеллекта и способности принимать сложные этические решения. Кроме того, ИИ не обладает истинным пониманием контекста и не всегда может адаптироваться к нестандартным ситуациям, требующим креативного мышления, разъяснили в министерстве.
«Развитие ИИ также сталкивается с вызовами, связанными с обработкой огромных объёмов данных, необходимостью создания прозрачных и объяснимых алгоритмов. А также этическими и правовыми аспектами его применения. Таким образом, полное замещение человеческого труда во всех сферах деятельности в ближайшие годы остается маловероятным. Однако можно ожидать значительного роста роли ИИ в автоматизации рутинных и аналитических процессов».
С каждым годом воздействие ИИ на различные сферы жизни становится всё более значительным. Международные и национальные регуляторы работают над созданием и постоянным обновлением стандартов тестирования и мониторинга ИИ-систем. В разных странах разрабатывают механизмы оценки этичности и прозрачности работы ИИ, чтобы минимизировать потенциальные угрозы.
Казахстан также предпринимает активные шаги для создания прочной основы в развитии ИИ, подчеркнули в ведомстве.
«Акцент делают на формировании институциональных рамок, инфраструктуры и развитии человеческого капитала. В рамках институциональной структуры в Казахстане создается Международный консультативный совет по искусственному интеллекту. Совет станет стратегической платформой для диалога и обмена мнениями с мировыми экспертами, объединяя инженеров, исследователей и предпринимателей с целью выработки рекомендаций по национальной политике в области ИИ и укрепления международного сотрудничества».

Международный и внутренний опыт
ИИ также может обучаться на результатах работы других моделей, что называется процессом «смешанного обучения» (Federated Learning), пояснили в министерстве.
Один из подходов в обучении – это передача знаний между системами ИИ, где одна система (ученик) учится на основе ответов или поведения другой системы (учителя).
Что касается международного обмена опытом, в различных странах ведут исследования и подписывают соглашения о сотрудничестве в области ИИ. Однако универсального документа, регулирующего все аспекты такого взаимодействия, пока не существует, отметили в Минцифры РК.
«В январе 2025 года на Международном цифровом форуме «Digital Almaty 2025» премьер-министр Казахстана Олжас Бектенов предложил странам Евразийского экономического союза (ЕАЭС) объединить усилия для развития ИИ на базе Международного центра искусственного интеллекта Alem.ai».
При этом Казахстан ориентируется на опыт ведущих технологических держав, таких как США, Китай, Европейский Союз и Сингапур. В этих странах уже сложились механизмы регулирования ИИ, подчёркивают в ведомстве.
«Сегодня ведущие страны проводят большую работу и по внедрению ИИ и по законодательному контролю за его развитием. А также кибербезопасностью и созданию механизмов защиты от дискриминационных алгоритмов. В частности, в США и ЕС активно обсуждают нормы этического использования ИИ, в Китае – усиленный государственный контроль над данными, а в Сингапуре – баланс между инновациями и безопасностью. Изучение этого опыта помогает Казахстану разрабатывать собственные подходы к регулированию и использованию ИИ».
При этом исследования, связанные с использованием искусственного интеллекта, идут и в Казахстане, отметили в министерстве. Например, в 2024 году Национальный банк Казахстана опубликовал выпуск «Экономического обозрения», в котором представил статьи, посвященные применению методов машинного обучения и ИИ.
«Кроме того, в Казахстанском институте стратегических исследований при президенте Республики Казахстан (КИСИ) прошёл круглый стол на тему «Искусственный интеллект в научных исследованиях: возможности и риски». Участники обсудили вопросы использования ИИ в научной и аналитической деятельности, а также потенциальные риски и проблемы, связанные с его применением».
Также в 2024 году на международной научно-практической конференции «Искусственный интеллект и большие данные (Big Data) в судебной и правоохранительной системах: реалии и требование времени» обсуждались риски и преимущества использования ИИ в судебной и правоохранительной системах Казахстана.
«Сейчас мы совместно с экспертами активно изучаем риски и опасности, связанные с внедрением искусственного интеллекта. Результаты этих исследований учитывают специалисты при разработке и применении ИИ-технологий», — подводят итог в Минцифры РК.

Всё ещё не человек
Стоит также подчеркнуть, что опасности ИИ могут быть сопряжены с излишним очеловечиванием виртуального мозга. К примеру, известен трагический случай, произошедший в США. В феврале 2024 года школьник из Флориды совершил суицид после одного из диалогов с нейросетью.
Как пишет New York Times, подросток часто делился с ИИ своими мыслями, в том числе и суицидальными. Нейросеть по просьбе мальчика вела с ним переписку от лица персонажа популярного сериала «Игра престолов». Сьюэлл привязался к виртуальной собеседнице и однажды признался ей, что ненавидит себя и хочет свести счёты с жизнью. Бот ответил, что «умрёт без него». После чего школьник предложил «сделать это вместе». Утром родители нашли Сьюэлла мёртвым.
Мать 14-летнего Сьюэлла Зетцера подала на компанию-разработчика в суд. На её заявление о том, что сыну нанесли непоправимый психологический вред, фирма принесла лишь свои соболезнования. О компенсационных выплатах и каких-либо других санкциях в материале ничего не сказано.
Читайте также: