Погода в Семее
+27°С
в Семее Облачность
давление: 729 мм.рт.ст.
USD0
EUR0
RUB0
CNY0
Авторизуйтесь через социальную сеть:

GoogleMailruOdnoklassnikiVkontakteYandex
Сегодня 5 июля 2025 года, суббота

Новости Казахстана

Внедрение ИИ в Казахстане: безопасность и ответственность под вопросом

В работу казахстанских госструктур планируют внедрить цифрового помощника - искусственный интеллект. Его уже используют в разных странах. Но эксперты обеспокоены информационной безопасностью. Говорят, такой помощник может не только помочь, но и навредить. Кто будет нести за это ответственность? Анастасия Новикова разбиралась.

Сейчас нет никаких ограничений по использованию искусственного интеллекта, говорят эксперты. Его результаты поиска могут быть неточными, данные — неверными, а загруженные в него файлы — личные или корпоративные — могут стать добычей конкурентов или хакеров.

ЕВГЕНИЙ ПИТОЛИН, эксперт по кибербезопасности:

- Сейчас главная проблема — это утечка информации, которая происходит колоссальным образом, и многие бизнесмены, чиновники в соседних странах, министры используют для подготовки докладов ChatGPT. Это не так здорово, как могло бы показаться.

В Казахстане создали концепцию развития искусственного интеллекта на ближайшие 5 лет. При цифровом регуляторе появился комитет по управлению ИИ. Эксперты говорят, алгоритмы его работы должны быть прозрачными для казахстанцев, чтобы люди точно знали, что происходит с их данными и как их защищают от утечки. Для того, чтобы ИИ работал без вреда для безопасности данных, нужны обученные разработчики и операторы — его конечные пользователи. При этом важно проработать вопрос ограничения работы искусственного интеллекта и ответственности в случае, если что-то пойдет не так.

АЛЕКСАНДР ПУШКИН, руководитель ОЦИБ Ps Cloud Services:

- На текущий момент в Казахстане законов касательно искусственного интеллекта нет, есть только концепция, разработанная недавно. Какие-то законопроекты существуют, но в публичном доступе мы пока не можем изучить ее. Вопрос разделения ответственности при использовании ИИ — это важный вопрос.

Эксперты говорят, важно законодательно разграничить ответственность создателей и операторов искусственного интеллекта.

АЛЕКСАНДР ПУШКИН, руководитель ОЦИБ Ps Cloud Services:

- Перенесем, например, на беспилотные автомобили или автомобили с автопилотом, которые используют искусственный интеллект. Ответственность в случае ДТП должны нести как разработчики ИИ, которые заложили туда функционал, так и оператор, водитель, который находится в этом автомобиле. Эту границу ответственности нужно в этом законе провести, и чтобы не было коллизий с другими законами.

Специалисты говорят, к разработке законопроекта следует привлечь экспертов, которые имеют опыт работы с информационной безопасностью и большими данными. Но самое главное в работе с ИИ — помнить, что конечное решение должно оставаться не за «машиной», а за человеком. 

Источник: Информбюро 31

Понравилась статья? Поделитесь с друзьями!

Афоризм дня

Если то, что ты делаешь трудно тебе - посмотри, нуждаешься ли ты в этом.

Архив новостей

От редакции

Использование материалов возможно только при наличии активной ссылки на городской портал «Семей Сити».

Редакция не несет ответственности за содержание рекламных объявлений, статей и комментариев.

E-mail:

Посещаемость

Яндекс.Метрика