Новости Казахстана
Внедрение ИИ в Казахстане: безопасность и ответственность под вопросом
В работу казахстанских госструктур планируют внедрить цифрового помощника - искусственный интеллект. Его уже используют в разных странах. Но эксперты обеспокоены информационной безопасностью. Говорят, такой помощник может не только помочь, но и навредить. Кто будет нести за это ответственность? Анастасия Новикова разбиралась.
Сейчас нет никаких ограничений по использованию искусственного интеллекта, говорят эксперты. Его результаты поиска могут быть неточными, данные — неверными, а загруженные в него файлы — личные или корпоративные — могут стать добычей конкурентов или хакеров.
ЕВГЕНИЙ ПИТОЛИН, эксперт по кибербезопасности:
- Сейчас главная проблема — это утечка информации, которая происходит колоссальным образом, и многие бизнесмены, чиновники в соседних странах, министры используют для подготовки докладов ChatGPT. Это не так здорово, как могло бы показаться.
В Казахстане создали концепцию развития искусственного интеллекта на ближайшие 5 лет. При цифровом регуляторе появился комитет по управлению ИИ. Эксперты говорят, алгоритмы его работы должны быть прозрачными для казахстанцев, чтобы люди точно знали, что происходит с их данными и как их защищают от утечки. Для того, чтобы ИИ работал без вреда для безопасности данных, нужны обученные разработчики и операторы — его конечные пользователи. При этом важно проработать вопрос ограничения работы искусственного интеллекта и ответственности в случае, если что-то пойдет не так.
АЛЕКСАНДР ПУШКИН, руководитель ОЦИБ Ps Cloud Services:
- На текущий момент в Казахстане законов касательно искусственного интеллекта нет, есть только концепция, разработанная недавно. Какие-то законопроекты существуют, но в публичном доступе мы пока не можем изучить ее. Вопрос разделения ответственности при использовании ИИ — это важный вопрос.
Эксперты говорят, важно законодательно разграничить ответственность создателей и операторов искусственного интеллекта.
АЛЕКСАНДР ПУШКИН, руководитель ОЦИБ Ps Cloud Services:
- Перенесем, например, на беспилотные автомобили или автомобили с автопилотом, которые используют искусственный интеллект. Ответственность в случае ДТП должны нести как разработчики ИИ, которые заложили туда функционал, так и оператор, водитель, который находится в этом автомобиле. Эту границу ответственности нужно в этом законе провести, и чтобы не было коллизий с другими законами.
Специалисты говорят, к разработке законопроекта следует привлечь экспертов, которые имеют опыт работы с информационной безопасностью и большими данными. Но самое главное в работе с ИИ — помнить, что конечное решение должно оставаться не за «машиной», а за человеком.
Источник: Информбюро 31