「生成AI(人工知能)を導入したけれど、どんな仕事を任せればよいのか分からない」「費用対効果を算出するにはどうしたらいい?」……そんな悩みに答えるのが2024年12月刊『AIに任せる技術 業務別「共生」戦略』(日本経済新聞出版)です。本書は営業やR&D、人事など8部署50業務を徹底分析し、活用方法から最新事例、想定されるリスク、費用対効果の測定方法まで幅広く解説しています。そんな本書から一部を抜粋します。4回目は、「人事でAIを活用する具体的な方法」について。
評価業務でどうAIを活用すればよいのか
人事部の仕事の中で最も重要であり、組織や社員全体に大きな影響を与えるのが「評価」に関する業務です。
評価対象となるのは個々人のノルマ達成率や、売上額といった実績評価だけではありません。採用はもちろん、異動や昇格の判断、ボーナスの査定、研修の達成度評価まで、ありとあらゆる場面で「評価」する作業が存在します。適切な評価は従業員のモチベーションを高め、組織を活性化させる重要な要素になりますが、評価を誤れば、社内の不信を招き、優秀な人材が離職してしまうこともあるでしょう。会社全体の浮沈を左右する非常に重要な業務です。
では、この重要な評価業務にAIをどう活用すればよいのでしょうか。また活用する際はどんなことに気を付ければよいのでしょうか。
人事評価・採用における2通りの活用方法
評価業務におけるAIの「補完的役割」としては、2通りの活用方法が考えられます。1つは「評価の基準づくり」をAIに委ねるという手法です。
例えば、採用したい人材のスキルや能力については人事部の担当者が定義した上で、実際にどのような試験を実施し、どういった基準で評価すべきかという仕組みづくりの一部をAIに任せることが考えられるでしょう。
もう1つの活用方法は、AIを「評価者のバイアス排除」に使うという考え方です。
採用面接を例に考えてみましょう。ある企業で2次面接の面接官を務めるFさんは入社15年目の課長職です。過去3年間で、男女50人ずつ計100人の面接を担当し、60人を通過させてきました。
通過者60人のうち、男性が50人以上を占めていたとしたら、Fさんの選考には性別によるバイアスがかかっていると考えてよいのではないでしょうか。
あるいは、通過者にFさんが卒業した大学の後輩にあたる人が際立って多いといったこともあるかもしれません。AIを使えば、こうした評価者の主観や好みによる偏りを検知し、Fさん自身にフィードバックしたり、人事部の採用担当者にアラートしたりすることが可能です。
離職するリスクを事前に検知して防ぐには
離職防止対策を考える際は、施策一つひとつの良しあしを考えるよりも、まず離職を検討している社員や、離職者が増えている職場を早期に特定し、先手先手で介入していくことが重要です。こうした「離職リスク」の特定において役立つのが、AIが得意とする異常検出機能です。
異常検出機能とは、データセット内で通常とは異なるパターンを特定するために使用される技術を指します。データの正常なパターンを学習し、その知識を基に、新たに入力されたデータが正常な範囲に収まるか、あるいはその範囲を逸脱する「異常パターン」であるかを判断する仕組みです。これを会社に対する社員の満足度調査(エンゲージメントスコア)の評価に応用すれば、「離職の可能性がある人」として特定することができます。もう少し詳しく解説します。
正常なパターンを学習させるためには、一定量のデータを必要としますが、過去10年以上にわたって従業員の満足度調査を実施している企業であれば、全体のデータからすでに離職した人のデータを排除することで、自社にとどまった人たち(離職しなかった人たち)だけのデータセットを作ることができます。この人たちの回答結果を「正」とすることで、そこから逸脱した意見や声を異常なパターンとしてピックアップすることが可能になるのです。
離職届を出す半年前、あるいは数カ月前にでも、こうした情報を検知できれば、その社員に個別にヒアリングをしたり、勤務状況を調査したりすることで、それぞれの事情や要望に見合った対応策を検討する時間的余裕が確保できるようになります。
AIの活用本らしくない、やや観念的な話になりますが、社員の離職検討は「業務の改善を提案しても話を聞いてもらえない」「問題を訴えても耳を貸してもらえない」といった組織に対する不信感から始まるケースが少なくありません。離職防止対策を考える上では、AIを使って少しでも早くリスクを検知し、真摯に対応する姿勢を示すことが最も重要だと考えられます。
AIを使う前に注意しておくべき2つのこと
評価に関係する業務では、最終的な判断をAIに任せることは大きな危険性をはらんでおり、そのリスクはすでに様々な場面で指摘されています。EU(欧州連合)では、個人情報保護について定められた法律の中で、採用活動におけるAIの活用について、企業側に説明責任を果たすよう求めるルールが定められています。
AIを使って候補者を絞り込むことは不可能ではありませんが、現時点では相応のリスクが伴うことを十分認識しておく必要があります。
もう1つ、採用や評価に関わる業務において意識すべきことがあります。それは「AIは人の鏡である」ということです。AIは無から有を生み出すことはありません。人が与えたデータを基にパターンを学習し、それにならって結果を出力するのがAIの基本原理です。したがって、AIが出力した結果が極端に偏っていたり、大きな誤りがあったりする場合には、もともと人間側が与えたデータに原因がある可能性もあります。
現在在籍している社員のデータを基にして、生成AIによる役職・候補者マッチングシステムを作ったケースを想定してみましょう。生成AIがレコメンドする候補者が特定の属性に偏っているとすれば、それは生成AIの回答精度ではなく、今の会社の組織構成に問題があるのかもしれません。まずは自社の状況を正視し、問題点を探るきっかけとするのがスマートなAI活用方法でしょう。
アバナード株式会社編/日本経済新聞出版/2420円(税込み)