AI人事って、聞いたことがあるでしょうか? 人事のつまらない仕事をAI(人工知能)にやらせて、効率化を図るというのはいいのですが。今日ご紹介するのは、人事評価に関することをAI(人工知能)の力を借りてやる、というちょっと心配なネタです。
人の評価に、AI(人工知能)がどのように関わっているのか、現状と未来を見ていきましょう。こんばんは、元オタク少年のshigeです。
NHK クローズアップ現代
人事・転職ここまで!? AIがあなたを点数化
2019年10月29日(火)
https://www.nhk.or.jp/gendai/articles/4339/index.html
https://www.nhk.or.jp/gendai/articles/4346/index.html
ある日突然、転職スカウトのメールが届くかも!? LAPRAS(ラプラス)の事例
最初に登場したのは、ENECHANGEに転職した室谷さん
室谷さんは、かなりスキルレベルが高いソフトエンジニアのようです。その室谷さんを見つけたのは、LAPRAS(ラプラス)が運営するAI(人工知能)システム
LAPRAS(ラプラス)
https://lapras.com/
SNSやブログで公開している情報をつなぎあわせ、その人の人格やスキルを見える化。140万人の人材データベースを構築しているとか。
全国の労働力人口(就業者数)は6751万人、ということですから(出典:https://www.stat.go.jp/data/roudou/sokuhou/tsuki/index.html)、全体の2%をデータベース化していることになります。実際に優秀で転職に向く層はかなり限られるので、この数字はかなり大きいと思います。100万人を超えれば、それだけで商品価値としてアピールできそうです。
ま、心配しなくても、こういう会社は需要もあるでしょうから、どんどん伸びていくでしょうね。
LAPRAS(ラプラス)は、SNSや専門サイトの情報を収集して、人材スキルをスコア化
室谷さん、ソフト開発の専門サイトで、多くの発言をしています。LAPRAS(ラプラス)のAIシステムは、こうした公開の書き込みを収集・分析。ソフト開発であれば、言語や分野のスキルレベルを数値化、スコア評価していきます。投稿へのいいねの数、誰がいいねしたかによって重みづけしている、とか。
まあ、素人より、プロとして認められている人から、いいねをもらった方が嬉しいですからね。Googleのサイト評価と同じ原理です。
ある日突然、転職レコメンド、スカウトのメールが届く、というのは宝くじがあたった感じでしょうか。でも、優秀な人は、今も昔も、よくオファーが来るとか。shigeは残念ながら、一度も経験がありません。もっと弾けないとダメですかね。
ネット上の書き込みから、人格まで評価する、ソルナ(SOLUNA)の事例
次に登場したのは、ネット上の書き込みから、その人の人格を評価するという、システム。ちょっと危ない感じで紹介されてますが、社会を下から支える、縁の下の力持ち的な存在。ネット風評被害の「治療」と「予防」を事業として行っています。
ソルナ(SOLUNA)
https://www.soluna.co.jp/
SNSなどに投稿された発言を収集。個人ごとに、攻撃性、自己顕示欲、影響力、社会性、ネットリテラシーなどの項目ごとに数値評価して企業に提供しています。勝手に調査するわけではなく、企業から提供された履歴書などを元に、対象者の同意を得た上で調査しているそうです。
このあたりは建前。本人は、会社から調査するよ、と言われてダメとは言えない。ダメなんて言ったら、その時点でマークされますから。社員の立場は弱いです。私だったら、自分のSNS投稿を調べられるなんて聞いた時点で、終わった気がします。さぶ~~
ネガティブワード・リストが700語もあり、これにひっかかると、ネガティブな点数がついちゃう。暴言ももちろんNGですね。普段から、品のいい発言を心がけましょう。
裏アカウント(裏アカ)も暴く最新システム、ソルナ(SOLUNA)
ちょっと衝撃的だったのが、色々な情報をつないで、裏アカウントも暴いてしまうということ。友達関係をつないでいくことで、わかっちゃうんだとか。
まあ、分かるかもしれないけど。そこまでするか!?という感じですね。
AI人事の課題・デメリット、結局は使い方しだいでは?
紹介したのがAI(人工知能)かというと、微妙な感じ。特徴抽出を自動化している点はAIっぽいけどね。大量データを紐づけて処理しているのは確かだけど、ルールは人間が決めてる感じ。
問題として指摘しているのは、情報の正確性。AI(人工知能)が出した数値を鵜呑みにするのではなく、あくまで参考として見る必要があります。重要な判断をするときは、必ず裏付け情報を取るとか、本人に確認するとか、必要ですよね。
AI(人工知能)はドライな判断をするのに、人間は認知バイアスに左右される
皮肉なのは、AI(人工知能)のドライなのに、人間はウエットなこと。そもそもAIは意思もないし、本当の意味での判断もできません。単に数値で、こっちの方が大きいですよ、と示すだけ。そこに意味付けするのは人間の役割です。
そして、人間は思いっきり認知バイアスに左右される。一度見た情報は、それが本当かどうか、よくわからなくても影響しつづける。参考情報ですよ、と言われても、ダメダメな評価が出ていたら、やっぱりリスク回避したい気持ちが働いて、その人物を避けちゃうんじゃないかな。
裏アカ情報もAI(人工知能)が間違えて出すこともありえる。裏付け調査もせず、疑ってしまうのは危険です。結局、情報をどう扱うかは、人間しだいなんですよね。
リクナビの「内定辞退率」販売問題
リクナビが企業に提供して問題になったサービスに「内定辞退率」のデータがあります。個人ごとに「内定辞退率」をAI(人工知能)が計算して、企業に提供するサービス。問題発覚後、サービス廃止に追い込まれました。
サービスの着眼点としてはユニークで素晴らしいと思いますが、それを見た人事担当者がどう判断するか、影響力まで想像が及ばなかったことが問題です。
人間は感情に流される。そして、人事の人は、明らかにリスク回避思考。人が悪いんじゃなくて、立場がそうさせているんです。だから、システムで守る必要がある。人事にもAI(人工知能)やデータ分析がわかる人をまぜる必要がありますね。人事だけじゃないか。すべての職種にサイエンスを!
ちょっと難しい話になりました。トレンドとしては、AI(人工知能)を使う機会はどんどん増えます。避けては通れないので、うまく使いましょうね。
ではでは