Скрытые угрозы, манипуляции и утечки данных: как в Казахстане строят национальную политику в сфере ИИ

Скрытые угрозы, манипуляции и утечки данных: как в Казахстане строят национальную политику в сфере ИИ

Совсем недавно мы рассуждали об искусственном интеллекте, как о панацее нового времени. Говорили о плюсах, минусах и рисках, которые несут цифровые технологии и повсеместное их распространение. По мнению казахстанских экспертов, созданный человеком компьютерный разум в ближайшее время не сможет полноценно заменить реальный. Тем не менее, развивающийся гигантскими скачками ИИ, несёт в себе как огромный потенциал так и множество скрытых угроз. О вызовах и возможностях передовых технологий компьютерного интеллекта редакции CMN.KZ рассказали в Министерстве цифрового развития, инноваций и аэрокосмической промышленности РК

Поделиться

В своём ответе на запрос CMN.KZ в Минцифры РК отметили, что одним из новых вызовов при использовании искусственного интеллекта, становится нехватка квалифицированных специалистов. Это характерно, как для Казахстана, так и для других стран. Кроме того, на повестке дня всё ещё вопросы безопасности и конфиденциальности данных.

«Для минимизации этих рисков и поддержки развития ИИ, необходимо создать чёткую нормативную базу, а также наращивать компетенцию работников сферы. В целях создания экосистемы ИИ мы стараемся совершенствовать технологии и интегрировать их в ключевые сектора экономики», — отметили в министерстве.

Фото: freepik.com

Планы и риски

}}

В ведомстве подчеркнули, что в 2024 году создали Комитет по искусственному интеллекту и утвердили Концепцию развития ИИ до 2029 года. Также на эту тему разработали законопроект, который сейчас проходит стадию согласования.

В Минцифры также рассказали, что сейчас идут переговоры с международными экспертами о работе Совета по развитию искусственного интеллекта. Его ещё в в декабре 2024 года поручил создать Касым-Жомарт Токаев.

«Совет объединит учёных, представителей технологических компаний, госорганов, инвесторов и отраслевых ассоциаций. Целью является выстраивание национальной политики, а также стратегии в сфере ИИ и международного сотрудничества». 

В министерстве также призывают к разумному и обдуманному использованию виртуальных и текстовых помощников, к примеру таких как чат ChatGPT. Основными опасениями при их эксплуатации является достоверность предоставляемой ИИ информации, а также защита персональных данных и возможность манипуляций.

«Виртуальные помощники, такие как ChatGPT, работают на основе больших объёмов данных. Но они не всегда могут гарантировать точность ответов. Это способно привести к распространению дезинформации или недостоверных фактов. Кроме того, алгоритмы ИИ могут демонстрировать предвзятость, если обучены на неполных или предвзятых источниках. Это в свою очередь может повлиять на принимаемые решения». 

В Минцифры упомянули и о рисках утечки информации. Ведомство отметило, что передача личных данных пользователей в таких сервисах делает их уязвимыми для киберугроз. Важно соблюдать меры кибербезопасности, избегать передачи «чувствительной» информации и внимательно относиться к достоверности получаемых данных.

Фото: freepik.com

Оптимизация и автоматизация

По мнению экспертов из министерства, качественные изменения с внедрением ИИ могут затронуть профессии, связанные с рутинными и повторяющимися задачами. Это актуально для сфер финансов, логистики, производства, клиентской поддержки и IT, а также включения ИИ в повседневные операции.

«Это позволит сотрудникам сосредоточиться на задачах, требующих креативности, инновационного мышления и социального взаимодействия. А также поспособствует повышению эффективности. Отметим, что человеческий фактор останется важным, автоматизация в будущем коснётся административных процессов, диагностики и т.д. ИИ не заменит человека, его может заменить лишь человек с более высокими компетенциями и владением навыками ИИ».

}}

При этом точность показателей зависит от темпов внедрения цифровых технологий, считают в Минцифры. Сейчас акцент делают на переподготовку сотрудников и создание новых рабочих мест в сфере ИИ. Основные изменения ожидают в течение ближайших 5-10 лет. А пик автоматизации в придётся на 2027-2030 годы, прогнозируют в ведомстве.

«Также отметим, что в будущем появятся новые профессии в области разработки и обслуживания ИИ-систем, кибербезопасности, аналитики данных, цифрового маркетинга и обучения ИИ. Ожидается рост спроса на тысячи специалистов в этих направлениях». 

Активно наращивать квалификацию в сфере начинают уже сейчас. Минцифры совместно с Автономным кластерным фондом «Парк инновационных технологий» в рамках AI Movement (инициатива, направленная на вовлечение населения в сферу искусственного интеллекта) проводят обучение по разным направлениям. В их числе: 

 • AI People Bootcamp – интенсивный 4-недельный онлайн-курс по ИИ для жителей Казахстана, Узбекистана и Кыргизстана. 

• Основы ИИ: ChatGPT – онлайн курс, позволяющий получить базовые знания про нейросети и навыки пользоваться ChatGPT на русском и казахском языках. 

• Обучение учителей школ и преподавателей ВУЗов Казахстана дисциплинам ИИ и GameDev. 

• Tomorrow School – школа искусственного интеллекта на базе технопарка Astana Hub. 

• AI'preneurs – акселерация нового формата, которая объединяет таланты для разработки AI-стартапов. 

Фото: freepik.com

У ИИ нет интуиции

В ведомстве согласны с мнением экспертов TSARKA о том, что искусственный интеллект ограничен в возможностях и вряд ли достигнет человеческого уровня.

Основные ограничения ИИ остаются в отсутствии интуиции, эмоционального интеллекта и способности принимать сложные этические решения. Кроме того, ИИ не обладает истинным пониманием контекста и не всегда может адаптироваться к нестандартным ситуациям, требующим креативного мышления, разъяснили в министерстве.

«Развитие ИИ также сталкивается с вызовами, связанными с обработкой огромных объёмов данных, необходимостью создания прозрачных и объяснимых алгоритмов. А также этическими и правовыми аспектами его применения. Таким образом, полное замещение человеческого труда во всех сферах деятельности в ближайшие годы остается маловероятным. Однако можно ожидать значительного роста роли ИИ в автоматизации рутинных и аналитических процессов». 

С каждым годом воздействие ИИ на различные сферы жизни становится всё более значительным. Международные и национальные регуляторы работают над созданием и постоянным обновлением стандартов тестирования и мониторинга ИИ-систем. В разных странах разрабатывают механизмы оценки этичности и прозрачности работы ИИ, чтобы минимизировать потенциальные угрозы.

Казахстан также предпринимает активные шаги для создания прочной основы в развитии ИИ, подчеркнули в ведомстве.

«Акцент делают на формировании институциональных рамок, инфраструктуры и развитии человеческого капитала. В рамках институциональной структуры в Казахстане создается Международный консультативный совет по искусственному интеллекту. Совет станет стратегической платформой для диалога и обмена мнениями с мировыми экспертами, объединяя инженеров, исследователей и предпринимателей с целью выработки рекомендаций по национальной политике в области ИИ и укрепления международного сотрудничества».

Фото: freepik.com

Международный и внутренний опыт

ИИ также может обучаться на результатах работы других моделей, что называется процессом «смешанного обучения» (Federated Learning), пояснили в министерстве.

}}

Один из подходов в обучении – это передача знаний между системами ИИ, где одна система (ученик) учится на основе ответов или поведения другой системы (учителя). 

Что касается международного обмена опытом, в различных странах ведут исследования и подписывают соглашения о сотрудничестве в области ИИ. Однако универсального документа, регулирующего все аспекты такого взаимодействия, пока не существует, отметили в Минцифры РК.

«В январе 2025 года на Международном цифровом форуме «Digital Almaty 2025» премьер-министр Казахстана Олжас Бектенов предложил странам Евразийского экономического союза (ЕАЭС) объединить усилия для развития ИИ на базе Международного центра искусственного интеллекта Alem.ai». 

}}

При этом Казахстан ориентируется на опыт ведущих технологических держав, таких как США, Китай, Европейский Союз и Сингапур. В этих странах уже сложились механизмы регулирования ИИ, подчёркивают в ведомстве.

«Сегодня ведущие страны проводят большую работу и по внедрению ИИ и по законодательному контролю за его развитием. А также кибербезопасностью и созданию механизмов защиты от дискриминационных алгоритмов. В частности, в США и ЕС активно обсуждают нормы этического использования ИИ, в Китае – усиленный государственный контроль над данными, а в Сингапуре – баланс между инновациями и безопасностью. Изучение этого опыта помогает Казахстану разрабатывать собственные подходы к регулированию и использованию ИИ». 

При этом исследования, связанные с использованием искусственного интеллекта, идут и в Казахстане, отметили в министерстве. Например, в 2024 году Национальный банк Казахстана опубликовал выпуск «Экономического обозрения», в котором представил статьи, посвященные применению методов машинного обучения и ИИ.

«Кроме того, в Казахстанском институте стратегических исследований при президенте Республики Казахстан (КИСИ) прошёл круглый стол на тему «Искусственный интеллект в научных исследованиях: возможности и риски». Участники обсудили вопросы использования ИИ в научной и аналитической деятельности, а также потенциальные риски и проблемы, связанные с его применением».

Также в 2024 году на международной научно-практической конференции «Искусственный интеллект и большие данные (Big Data) в судебной и правоохранительной системах: реалии и требование времени» обсуждались риски и преимущества использования ИИ в судебной и правоохранительной системах Казахстана.

«Сейчас мы совместно с экспертами активно изучаем риски и опасности, связанные с внедрением искусственного интеллекта. Результаты этих исследований учитывают специалисты при разработке и применении ИИ-технологий», — подводят итог в Минцифры РК.

Фото: freepik.com

Всё ещё не человек

}}

Стоит также подчеркнуть, что опасности ИИ могут быть сопряжены с излишним очеловечиванием виртуального мозга. К примеру, известен трагический случай, произошедший в США. В феврале 2024 года школьник из Флориды совершил суицид после одного из диалогов с нейросетью.

Как пишет New York Times, подросток часто делился с ИИ своими мыслями, в том числе и суицидальными. Нейросеть по просьбе мальчика вела с ним переписку от лица персонажа популярного сериала «Игра престолов». Сьюэлл привязался к виртуальной собеседнице и однажды признался ей, что ненавидит себя и хочет свести счёты с жизнью. Бот ответил, что «умрёт без него». После чего школьник предложил «сделать это вместе». Утром родители нашли Сьюэлла мёртвым.

Мать 14-летнего Сьюэлла Зетцера подала на компанию-разработчика в суд. На её заявление о том, что сыну нанесли непоправимый психологический вред, фирма принесла лишь свои соболезнования. О компенсационных выплатах и каких-либо других санкциях в материале ничего не сказано.

Читайте также:

Подписывайтесь на официальный Telegram-канал CMN.KZ

Введите текст и нажмите Enter либо Esc для отмены поиска