Блог

Управление рисками AI: действия HR

Хотя использование ИИ в таких областях, как управление персоналом, началось в середине 2010-х годов, в последние годы он добился значительных успехов, особенно с ростом популярности инструментов генеративного ИИ. Эти инструменты, являющиеся подмножеством ИИ, сосредоточены на создании нового контента, данных или информации путем анализа закономерностей в существующих данных.

Управление рисками не является комплаенсом

Ключевое заблуждение об управлении рисками ИИ заключается в том, что речь идет только о соблюдении нормативных требований. Специалисты по персоналу часто ищут четкие правила, которые нужно соблюдать, а также то, что можно и чего нельзя делать, но в случае с искусственным интеллектом простого соблюдения правил недостаточно. Управление рисками ИИ требует правильного понимания связанных с ними рисков, а также способов выявления, смягчения и управления этими рисками.

Управление рисками должно быть неотъемлемой частью любой стратегии внедрения ИИ. Вместо того, чтобы просто предоставлять контрольный список правил, он фокусируется на областях, которые нуждаются в тщательном мониторинге на основе толерантности организации к риску и уровня подверженности. Такой подход помогает выявлять риски на ранних стадиях, позволяя организациям устранять их в процессе внедрения.

Используя этот упреждающий подход, организации могут использовать весь потенциал ИИ, защищаясь от непредвиденных последствий. Это также помогает укрепить доверие к ИИ, обеспечивает соблюдение правовых норм и помогает поддерживать целостность организации, позиционируя ИИ как ценный инструмент для долгосрочного успеха, а не как источник непредвиденных проблем.

3 Риски, которыми нужно управлять в области ИИ и почему это важно для HR

Основа целостной системы управления рисками начинается с понимания типа и характера рисков, связанных с ИИ.

1. Риски, присущие искусственному интеллекту

К этой категории рисков относятся вопросы, напрямую связанные с самой технологией искусственного интеллекта. Эти неотъемлемые риски возникают из-за того, как работает технология, а не из-за того, как она используется и применяется. Они могут возникнуть в результате интеграции и использования ИИ в различных бизнес-процессах.

К распространенным неотъемлемым рискам относятся:

  • Предвзятость
  • Недостаточная прозрачность
  • Непреднамеренные последствия автоматизированного принятия решений.

Эти риски, которые часто рассматриваются как теневая сторона преимуществ ИИ, напрямую связаны с возможностями и ограничениями технологии ИИ.

Риски предвзятости и справедливости

Системы искусственного интеллекта могут непреднамеренно увековечить предвзятость, если они обучены на предвзятых данных. Например, предположим, что модель ИИ, используемая для найма, обучена на прошлых данных найма, которые показывают скрытое предпочтение определенной демографической группы (например, больше мужчин, чем женщин). В этом случае ИИ может продолжить эту непреднамеренную предвзятость, отдавая предпочтение кандидатам из этих групп.

Предвзятость при приеме на работу или оценке эффективности может привести к несправедливым решениям, что приведет к дискриминации и нанесет ущерб репутации организации. Это также может подвергнуть компанию юридическим рискам и создать менее разнообразное и инклюзивное рабочее место.

Непрозрачность и объяснимость

Некоторые системы искусственного интеллекта, особенно такие сложные модели, как глубокое обучение, работают как «черные ящики», что затрудняет понимание того, как принимаются решения. Такое отсутствие прозрачности может быть проблематичным, особенно когда ИИ используется в функциях управления персоналом, таких как подбор персонала или оценка сотрудников.

Если специалисты по персоналу не могут объяснить, как ИИ принимает определенные решения, это может привести к отсутствию доверия и ответственности. Сотрудники могут сомневаться в том, что система делает справедливый выбор, и может быть трудно обосновать свои решения перед регулирующими органами или в юридическом контексте.

Риски автономии и непредвиденные результаты

Системы ИИ, особенно если их оставить работать автономно, иногда могут вести себя непредсказуемо в сложных ситуациях. Например, инструмент искусственного интеллекта может неправильно интерпретировать квалификацию кандидата или неправильно оценивать настроения сотрудников, что приводит к неправильным решениям о найме или неправильным действиям HR.

Непреднамеренные результаты в HR-процессах могут привести к неправильным решениям о найме, неудовлетворенности сотрудников или неэффективному управлению талантами. Это может повлиять на производительность организации, привести к ухудшению опыта сотрудников и потенциально нанести вред культуре и репутации компании.
Действия для HR
  • Используйте различные обучающие данные: Используйте разнообразные, репрезентативные данные при обучении моделей ИИ, чтобы свести к минимуму предвзятость.
  • Регулярный аудит предвзятости: Периодически проверяйте решения ИИ, чтобы выявить закономерности предвзятости.
  • Контроль со стороны человека: Обеспечьте контроль со стороны человека при принятии решений на основе ИИ, особенно в таких критически важных областях, как найм, продвижение по службе и оценка. Проверяйте результаты ИИ, прежде чем предпринимать какие-либо действия.
  • Инструменты для устранения предвзятости: Используйте инструменты, предназначенные для обнаружения и уменьшения предвзятости в моделях ИИ.
  • Используйте объяснимые модели ИИ: Выбирайте модели ИИ, которые четко объясняют свои решения, когда это возможно.
  • Документация: Убедитесь, что процесс принятия решений ИИ хорошо задокументирован и при необходимости может быть объяснен.
  • Прозрачность: Будьте прозрачны с сотрудниками и кандидатами в отношении того, как ИИ используется в процессах принятия решений.
  • Тестируйте необычные сценарии или выбросы: Чтобы свести к минимуму непредсказуемое поведение, тщательно тестируйте модели ИИ, особенно для необычных сценариев (пограничных случаев).
  • Контуры мониторинга и обратной связи: Непрерывно отслеживайте системы ИИ в режиме реального времени и собирайте отзывы об их производительности, чтобы быстро выявлять неожиданные результаты.
  • Резервные механизмы: Реализуйте меры безопасности там, где решения ИИ могут быть отменены или пересмотрены человеком при необходимости.
2. Риски, связанные с применением

Эта категория рисков относится к рискам, возникающим в результате использования и применения ИИ. Риски, связанные с приложениями, связаны с тем, как ИИ развертывается, внедряется и управляется в рамках HR-процессов. Даже если все присущие риски хорошо управляются и смягчаются, плохое использование или отсутствие надлежащего надзора может привести к ошибкам, неэтичным результатам или ущербу репутации организации.

Риски, связанные с приложениями, можно классифицировать как человеческие или поведенческие риски, возникающие в результате взаимодействия людей с ИИ для выполнения своей работы.

Эти риски часто связаны с:

  • Этическими соображениями
  • Репутационным влиянием;
  • Балансом между искусственным интеллектом и человеческим контролем.

Для управления этими рисками необходимы четкие рекомендации и ограничения для применения и преднамеренного изменения поведения.

Несоответствие организационным ценностям

Когда ИИ принимает решения, которые не соответствуют ценностям или этическим стандартам вашей организации, это может противоречить культуре вашей компании. Например, если ваша компания отдает приоритет разнообразию и инклюзивности, но решения ИИ о найме уменьшают разнообразие, это напрямую подрывает эти основные ценности.

Когда ИИ противоречит ценностям компании, он может нанести вред внутреннему моральному духу, нарушить корпоративную культуру и создать путаницу в отношении того, за что выступает организация. Это также может привести к этическим проблемам, которые могут повлиять на доверие сотрудников и кандидатов к компании.

Репутационный ущерб

Если ИИ используется бесчувственно или ненадлежащим образом, это может привести к негативной реакции в прессе и общественной реакции. Например, использование ИИ для управления массовыми увольнениями без контроля со стороны человека может показаться холодным или обезличенным, что нанесет ущерб имиджу компании.

Испорченная репутация может повлиять на доверие сотрудников, привлечение кандидатов, лояльность клиентов и общую эффективность бизнеса. Плохая реклама о том, как использовался ИИ, может повлиять на публичный имидж компании и потенциально привести к потере бизнеса или юридическим проблемам.

Чрезмерная зависимость от автоматизации

Чрезмерная зависимость от ИИ для выполнения задач управления персоналом без участия людей может привести к обезличенным или ошибочным решениям. ИИ может упускать важные контекстные или эмоциональные нюансы, критически важные в кадровых ситуациях, такие как разрешение конфликтов или жалобы сотрудников.
Решения в области управления персоналом часто требуют эмпатии, эмоционального интеллекта и человеческого суждения — качеств, которых не хватает ИИ. Чрезмерная зависимость от ИИ может заставить сотрудников чувствовать себя недооцененными или непонятыми, что приведет к неудовлетворенности или текучести кадров. Это также может привести к принятию неправильных решений, когда ИИ неправильно интерпретирует сложные ситуации.
Действия для HR
  • Определите этические принципы: Четко обозначьте ценности компании и убедитесь, что инструменты ИИ запрограммированы и отслеживаются в соответствии с этими ценностями.
  • Контроль со стороны человека: Всегда включайте анализ решений на основе ИИ, чтобы убедиться, что они соответствуют этическим и культурным стандартам компании.
  • Регулярные этические аудиты: Периодически проверяйте результаты работы ИИ, чтобы убедиться, что они не противоречат миссии, видению или ценностям компании.
  • Используйте ИИ вдумчиво: Применяйте ИИ в тех областях, где он может помочь людям, но не используйте его для принятия сложных решений (например, увольнений) без участия человека.
  • Коммуникация и прозрачность: Будьте открыты с сотрудниками и общественностью в отношении того, как используется ИИ, и убедитесь, что решения решительно доводятся до сведения общественности.
  • PR и правовые гарантии: Тесно сотрудничайте с PR и юридическими командами, чтобы убедиться, что использование ИИ соответствует стратегии компании, ориентированной на общественность, и этическим обязанностям.
  • Баланс между искусственным интеллектом и человеческим фактором: Используйте ИИ для выполнения рутинных задач (например, проверки резюме), но убедитесь, что люди принимают решения, требующие сочувствия или сложных суждений (например, оценка эффективности работы сотрудников или дисциплинарные взыскания).
  • Регулярный контроль: Постоянно анализируйте решения, принятые на основе ИИ, чтобы выявить ошибки или области, в которых ИИ может не принимать правильных решений.
  • Тренинг для HR-команд: Обучите сотрудников отдела кадров тому, как эффективно использовать искусственный интеллект в качестве инструмента, чтобы они понимали, где вмешательство человека необходимо.
  • Внедрение технологии структурированного искусственного интеллекта: Убедитесь, что внедрение инструментов ИИ поддерживается с помощью управления изменениями и повышения квалификации, чтобы обеспечить изменение поведения при внедрении.
3. Риски, связанные с соблюдением нормативных требований

В последние годы были разработаны различные законы, регулирующие использование ИИ. Эти законы обычно устанавливают условия для его ответственного использования, а также обязательства по регулированию и отчетности.

Компании, использующие ИИ для найма персонала или оценки производительности, должны обеспечить соблюдение требований прозрачности, управления рисками и управления данными, а несоблюдение может привести к значительным штрафам. Риски, связанные с соблюдением нормативных требований в области искусственного интеллекта, связаны с законодательными и нормативными стандартами, особенно в отношении защиты данных и трудового законодательства.

Эти риски часто связаны с:

  • Нарушением конфиденциальности данных
  • Дискриминацией и соблюдением трудового законодательства;
  • Требованиями к аудиту и управлению документацией.

При использовании ИИ в HR крайне важно соблюдать как местные, так и международные нормы, чтобы избежать нарушений, которые могут привести к юридическим штрафам или санкциям. Эти риски можно отслеживать и контролировать, обеспечивая соответствие политик и практик ИИ законодательным требованиям.

Нарушение конфиденциальности данных

Системы искусственного интеллекта часто обрабатывают конфиденциальные персональные данные, такие как информация о сотрудниках или кандидатах. Это увеличивает риск утечки данных или несоблюдения законов о защите данных, таких как Общий регламент по защите данных (GDPR), который устанавливает строгие правила сбора, хранения и использования персональных данных.

Нарушение законов о конфиденциальности данных может привести к серьезным штрафам, судебным искам и ущербу репутации организации. Это также может подорвать доверие между сотрудниками, кандидатами и организацией, что затруднит привлечение и удержание талантов.

Дискриминация и соблюдение трудового законодательства

Системы ИИ, которые принимают решения о найме или оценке эффективности, рискуют получить дискриминационные результаты (например, предпочтение одной группы перед другой по признаку расы, пола или возраста). Это может привести к юридическим проблемам, включая судебные иски или действия регулирующих органов против организации.

Дискриминация при приеме на работу или трудоустройстве также может привести к значительным финансовым штрафам, репутационному ущербу и токсичной культуре на рабочем месте. Это также может препятствовать усилиям организации по продвижению разнообразия и инклюзивности.

Требования к аудиту и документации

В некоторых штатах или регионах законы могут требовать от компаний документирования того, как работают их системы ИИ и как принимаются решения. Это включает в себя возможность объяснять решения ИИ, чтобы гарантировать, что они принимаются справедливо и законно.

Несоблюдение надлежащей документации и аудита может привести к несоблюдению правовых норм, что приведет к штрафам и судебным разбирательствам. Это также может препятствовать прозрачности и подотчетности внутри организации, затрудняя защиту решений, принимаемых системами ИИ.
Действия для HR
  • Реализуйте политики защиты данных: Установите четкие политики обработки конфиденциальных данных и убедитесь, что все сотрудники обучены этим политикам.
  • Минимизация данных: Собирайте и используйте только те данные, которые абсолютно необходимы для приложений ИИ, сводя к минимуму риск заражения.
  • Регулярные аудиты и мониторинг: Проводите аудит методов обработки данных для обеспечения соответствия законам и выявления потенциальных уязвимостей.
  • Используйте шифрование и меры безопасности: Применяйте надежные меры безопасности для защиты конфиденциальных данных, включая шифрование, безопасный контроль доступа и регулярную оценку безопасности.
  • Проверка соблюдения законодательства: Сотрудничайте с экспертами в области права, чтобы обеспечить соответствие процессов на основе ИИ всем применимым законам и нормативным актам о труде.
  • Настройте алгоритмы: Модифицируйте алгоритмы, чтобы свести к минимуму предвзятость и убедиться, что они разработаны для достижения справедливых результатов.
  • Ведение комплексного учета: Ведите подробную документацию о том, как используются системы искусственного интеллекта, включая источники данных, процессы принятия решений и любые изменения, внесенные в алгоритмы.
  • Регулярные проверки соответствия: Проводите регулярные проверки, чтобы убедиться, что документация соответствует требованиям законодательства и передовым практикам.
  • Установите четкие протоколы: Создание процедур мониторинга и отчетности по системам ИИ для обеспечения подотчетности.
  • Повышение квалификации HR: Повысьте квалификацию отдела кадров в отношении важности документации и соответствия, чтобы каждый понимал свою роль в поддержании стандартов.

Осведомленность о рисках, связанных с использованием ИИ, является первым основополагающим шагом в управлении рисками и обеспечении ответственного внедрения. Для систематического управления рисками необходимо разработать четко определенный процесс, в котором будут изложены различные шаги по выявлению, снижению, мониторингу и аудиту рисков.

Кроме того, надежная и всеобъемлющая система управления рисками ИИ обеспечивает учет соответствующих рисков и согласование действий всех заинтересованных сторон с всеобъемлющей стратегией управления рисками.
Построив проактивную систему управления рисками, HR менеджер может эффективно защитить и компанию, и ее сотрудников от потенциальных ловушек. В курсе Управление HR рисками вы узнаете, как снизить риски, справиться с проблемами управления персоналом и обеспечить соответствие мировым стандартам, таким как ISO 31000.