Мы готовимся обсудить вопросы практического использования ИИ в оценке на одной из сессий в рамках Института оценки, который пройдет в Москве в декабре. Заявки на участие в Институте принимаются до 5 ноября ЗДЕСЬ.
Пока же посмотрим, что зарубежные коллеги пишут о проблемах, связанных с использованием искусственного интеллекта (ИИ):
- Проблемы конфиденциальности и безопасности данных. Использование ИИ в оценке часто подразумевает обработку больших объемов конфиденциальных данных, что вызывает серьезные проблемы. Неспособность должным образом защитить персонально идентифицируемую информацию может привести к юридическим последствиям и потере доверия.
- Проблемы предвзятости. Системы ИИ могут наследовать и усиливать предвзятость, заложенную при их обучении, что, в свою очередь, может привести к несправедливым или даже дискриминационным результатам оценок. От специалистов по оценке потребуются сознательные усилия для того, чтобы этого избежать.
- Закрытость процесса. Многие системы ИИ, особенно основанные на сложных алгоритмах, функционируют как «черные ящики», что затрудняет понимание того, как был получен тот или иной результат. Такое отсутствие прозрачности может подорвать доверие к результатам, полученным с помощью ИИ, и в целом усложнить обоснование результатов оценки.
- Интеграция с существующими процессами. Внедрение инструментов ИИ требует существенных изменений в устоявшихся процессах оценки. Удастся ли их органично соединить с новыми технологиями?
- Вопросы нормативного регулирования. Специалистам по оценке, использующим ИИ, может быть сложно ориентироваться в нормативно-правовом поле. Обеспечение соответствия систем ИИ правовым стандартам и этическим нормам может потребовать дополнительных усилий.
- Развитие новых навыков. По мере развития технологий ИИ растет необходимость в приобретении оценщиками новых навыков, имеющих отношение к внедрению и использованию ИИ. Следовательно, нужны качественные специализированные программы обучения. Их пока явно недостаточно.
Комментариев нет:
Отправить комментарий