Искусственный интеллект постепенно внедряется в нашу повседневную жизнь, а его возможности развиваются семимильными шагами. Многие процессы, на которые ранее требовались дни, недели и месяцы кропотливого труда профессионалов, ИИ с лёгкостью выполняет за считанные минуты. Может ли созданный человеком компьютерный разум полноценно заменить реальный и какие угрозы для казахстанцев несёт наращивание его повсеместного применения, разбирался корреспондент CMN.KZ
Об использовании искусственного интеллекта в разных областях социальной и государственной деятельности всё чаще говорят в СМИ и госструктурах Казахстана.
На январском расширенном заседании правительства президент Касым-Жомарт Токаев поручил приступить к внедрению инструментов искусственного интеллекта «в государственных органах и национальных компаниях».
Уже сейчас система распознавания лиц, основанная на ИИ, помогает казахстанским сотрудникам правопорядка в поимке преступников. А умные камеры в метрополитене способны считать биометрические данные пассажира и провести удалённую оплату поездки.
Помимо этого, ИИ с помощью визуальной оценки, может не только найти человека, но и, например, выявить дефекты на трассах страны.
Как недавно заявил генеральный директор РГП «Национальный центр качества дорожных активов» Болатбек Айтбаев, на некоторых казахстанских дорогах уже работает основанная на ИИ система автоматического распознавания дефектов дорожного покрытия.
По словам Айтбаева, новые технологии предприятие внедряет в целях минимизации человеческого фактора.
Конечно, нет ничего плохого в избавлении сотрудников от лишней работы в том случае, если это облегчает нагрузку. Но что, если искусственный интеллект способен полностью лишить рабочих мест тех или иных специалистов, взяв на себя весь спектр их задач? Какие ещё угрозы несёт в себе повсеместное внедрение ИИ? Давайте разбираться.
Что говорят международные эксперты
Совсем недавно, в конце января, в Алматы прошёл седьмой Международный цифровой форум Digital Almaty 2025. В этом году его тема как раз была посвящена цифровым технологиям, искусственному интеллекту и их применению в современном мире.
В рамках панельной сессии участники форума, среди которых были представители международных компаний, обсудили вопросы неоднозначности и рисков использования ИИ. В основном речь шла про прозрачность и безопасность его применения в Казахстане.
Среди проблемных мест технологии спикеры отметили угрозу нарушения конфиденциальности персональных данных.
К примеру, по информации МВД РК, в 2024 году казахстанцы потеряли 45 млрд тенге из-за интернет-мошенничества. Причём в 98% случаев они сами добровольно передавали мошенникам свои данные.
Эксперты назвали плюсами использования ИИ на мировом уровне: вклад в борьбу с голодом, улучшение здравоохранения, реагирование на кризисные ситуации, повышение безопасности, а также поддержку людей с ограниченными возможностями.
Однако тут же отметили возникающие серьёзные риски, такие как: социальное неравенство, нарушение конфиденциальности, предвзятость алгоритмов и даже угрозы национальной безопасности.
Специалисты пришли к выводу, что для безопасного и эффективного развития ИИ необходимо внедрить чёткие принципы регулирования, включая контроль обработки данных, а также защиту от манипуляций и минимизацию негативного влияния на энергоресурсы.
Но пока представители одних мировых компаний обсуждают осторожность в использовании ИИ, главы других делают пугающие прогнозы.
Илон Маск спрогнозировал восстание машин?
Одно из громких заявлений сделал Илон Маск в октябре 2024 года, выступая на конференции Future Investment Initiative в Саудовской Аравии.
Изобретатель и предприниматель заявил, что в ближайшие 10 лет вероятность выхода искусственного интеллекта и роботов из под контроля людей составит 10-20%.
Он тут же оговорился, что, вероятнее всего, сценарий развития будет всё же позитивный, и управление останется в руках человека. Но при этом миллиардер уточнил, что с каждым годом ИИ становится в 10 раз разумнее предыдущей версии себя.
По словам Маска, вскоре компьютерный разум достигнет способностей, равных человеческим, и превзойдёт их:
«Я думаю, он сможет делать всё, что может делать любой из нас, — возможно, в течение следующего года или двух. А через три он может стать разумнее и способнее, чем все живущие на планете люди вместе взятые», — предположил бизнесмен.
Мысль по поводу скорого превосходства ИИ над людьми Маск повторил на своей странице в X в декабре 2024 года. В посте изобретатель сократил сроки развития ИИ. Он пообещал, что всё произойдёт до конца 2025 года.
Маск также считает, что одним ИИ дело не обойдётся, и в каждом регионе мира их будет создано несколько. Помимо этого, по его мнению, в будущем количество роботов сильно превысит число людей на планете.
Впрочем, определение слова робот гласит, что это автоматическое устройство, предназначенное для осуществления различного рода действий, обычно выполняемых человеком. В таком случае роботом можно назвать любую вычислительную машину, которую можно запрограммировать, включая пресловутый домашний ПК.
Получается, что их численность значительно превысила количество людей уже давно. Так стоит ли нам бояться скорого прихода власти искусственного интеллекта и насколько это возможно в целом?
Чтобы прояснить вопросы, собравшиеся вокруг феномена искусственного интеллекта, мы обратились к экспертам казахстанского Центра анализа и расследования кибератак TSARKA.
Киберугрозы и снижение критического мышления
Как рассказал корреспонденту CMN.KZ руководитель направления R’n’D (анализ инициатив внутри компании) в TSARKA Group Игорь Сенюшин, среди подводных камней внедрения ИИ можно выделить высокие затраты на энергетику и закупку компонентов для дата-центров, а также зависимость от зарубежных технических решений, необходимых для его работы.
«Очевидных минусов пока нет, но есть риски. Во-первых, ИИ — относительно новая сфера в IT, и вместе с его развитием растёт число киберугроз. Во-вторых, широкое распространение ИИ-инструментов увеличивает объём фейковых данных и манипуляций, что создаёт дополнительные вызовы в сфере безопасности и доверия к информации»,.
Среди рисков, которые могут затронуть людей, часто прибегающих к помощи виртуальных помощников или чата GPT, Сенюшин отмечает вероятность снижения критического мышления. Однако не исключает и более неприятные и ощутимые последствия.
«Использование ИИ для быстрого решения задач может привести к тому, что мы меньше станем анализировать информацию. Хотя это может также высвободить время для творчества и исследований, что делает этот аспект скорее неоднозначным, чем негативным. Во-вторых, существует риск утечки конфиденциальной информации. Хотя эти сервисы не требуют прямого ввода персональных данных, в процессе взаимодействия пользователи могут непреднамеренно делиться “чувствительной” информацией».
В случае утечки данных, впоследствии их могут использовать против вас, отмечает эксперт. Он также подчёркивает, что, злоумышленники способны создавать поддельные версии подобных сервисов. Это увеличивает риск установки вредоносного программного обеспечения. Известны и случаи взлома аккаунтов через фишинг, что также ставит под угрозу персональные данные.
Читайте также:
Также, по словам специалиста, история уже знает примеры потери рабочих мест из-за замены работников более продвинутыми технологиями. По его мнению, сейчас просто всё повторяется.
«Во время первой промышленной революции в Англии луддиты протестовали против швейных машин, опасаясь потери рабочих мест, но в итоге производительность и экономика выросли. Подобные страхи были и при появлении калькуляторов, компьютеров, интернета, но, за исключением телевизора, эти технологии принесли пользу. Потеря рабочих мест действительно возможна в компаниях, где автоматизация поможет сократить издержки».
Однако, специалист уверен: ИИ не только заменяет, но и создаёт новые ценности, ускоряя рабочие процессы и открывая другие возможности. Это может привести к расширению существующих рабочих мест и появлению новых профессий, связанных с управлением ИИ. Так что всё может прийти к балансу.
«Маск поторопился»
При этом Сенюшин считает заявление Маска о том, что в ближайшее время ИИ сможет делать всё, что делают люди, преждевременным. Не смотря на то, что искусственный интеллект уже умеет решать многие задачи, это не только вопрос интеллектуальных способностей, но ещё механики, робототехники и других технологий, говорит он.
Эксперт подчёркивает, что даже в сфере генерации текста результаты ИИ пока далеки от идеала, и ChatGPT может ошибаться, а его логика не всегда совершенна.
«До конца 2025 года наверняка появятся новые достижения, но полноценной универсальности ожидать не стоит. Что касается США, то это не единственная страна, развивающая ИИ. Исследования в этой области идут по всему миру, а многие из них открыты и могут быть улучшены другими разработчиками».
Сейчас стремительное развитие ИИ действительно заметно, говорит специалист. Постоянно выходят новые модели, и сообщество не успевает полноценно оценивать риски. Хотя исследования и идут, они не всегда успевают за практическими разработками, поскольку технологии быстро монетизируются и превращаются в бизнес-инструменты, признаётся Сенюшин.
«Новые продукты создают на базе этих моделей так же стремительно, и зачастую они остаются недотестированными. Это приводит к росту уязвимостей и потенциальных угроз. В ближайшее время можно ожидать повышенного спроса на кибербезопасность и аудит новых решений. Возможно, регуляторы введут обязательную проверку безопасности сервисов перед их запуском».
Что характерно, одна модель ИИ может обучаться на основе других, говорит специалист. Это называется дообучением. Эксперт поясняет, что новые модели часто строятся на уже существующих. Либо ИИ дообучается в узкой специализации, если есть доступ к данным первой модели. Таким образом можно адаптировать общий ИИ под конкретные задачи.
«Однако обмен данными между разными компаниями не происходит из-за конкуренции и коммерческой тайны. Вместо этого компании заключают соглашения с организациями, владеющими нужными данными, для их обучения. Формальных международных договорённостей по обмену опытом нет, но научные институты могут проводить совместные исследования, публиковать результаты и работать над опенсорсными проектами. Таким образом, международный обмен знаниями существует, даже без официальных соглашений».
Иностранный опыт
Сенюшин говорит, что трудно определить, какой именно позитивный и негативный опыт других стран учитывают при внедрении ИИ в Казахстане. Особенно с условием локализации и адаптации к региональным языкам. Однако он отмечает, что, обладая локальными ИИ-решениями, государственная и критическая инфраструктуры могут использовать технологии «без риска хранения данных за пределами страны».
«Основные проблемы ИИ в других странах связаны с регулированием. Сейчас жёстких правил нет, но уже создан специальный комитет ИСО (устанавливает международные стандарты – Прим. ред.), разрабатывающий этические нормы для применения ИИ. Пока сложно делать выводы, так как сфера ещё новая. Основное внимание приковано к опыту США и Китая, где ИИ активно развивается, в то время как Европа сосредоточена на его регулировании и адаптации для индустриальных нужд».
Эксперт также отмечает что официальных исследований на тему рисков и опасностей ИИ он не встречал. Однако есть доклады и отчёты ООН, национальных ассамблей и аналитических агентств, прогнозирующих потенциальные угрозы.
Согласно им, основные риски связаны с распространением дипфейков, потерей рабочих мест и социальными вызовами.
Уязвимости в алгоритмах машинного обучения и текущих ИИ-сервисах, конечно, периодически выявляют. Однако крупнейшие разработчики активно взаимодействуют с исследователями, поэтому выявленные проблемы, как правило, устраняют оперативно.
Подводя итог можно сказать, что, не смотря на видимый прогресс, искусственному интеллекту всё же далеко до человеческих возможностей. ИИ требует такого же контроля и длительных проверок, как любое другое технологическое новшество. А с учётом постоянных обновлений и быстрого развития сферы, этот контроль должен быть ещё более пристальным. Так что, если рукотворный мозг совершает ошибку, то, как правило, за этим стоит ошибка человека.
Читайте также: