2018.08.13 A.I.

社員メール、AIがみてる 単語や文脈から不正発見

日本企業の間で、人工知能(AI)で従業員の業務用メールを解析し、談合や汚職などの不正を早期発見するシステムを導入する動きが広がっている。不正を示唆する単語や文章を自動的に感知でき、人間がいちいちチェックするよりも効率的だ。ただ従業員のプライバシー侵害のおそれを指摘する声もあり、導入時には従業員への十分な説明などが求められそうだ。

「同業者からのメールは内部監査部門が内容をチェック。AIの活用も検討する」。リニア中央新幹線の建設工事を巡る談合事件を踏まえ、大林組が5月に発表した再発防止策。企業のコンプライアンス(法令順守)担当者らの注目を浴びたのが、最新技術を活用する徹底したメール監視方針だった。

大林組はAI活用について「あくまで検討段階」として詳細は明らかにしない。だがデータ処理サービスのケーエル・ディスカバリ(東京・千代田)は「従業員のメールをチェックするAIシステムは急速に普及している」と話す。社内文書の電子化が進んだ米国で10年ほど前から広がり、日本でもここ数年増えたという。AIシステムを開発するフロンテオは2014年以降、矢崎総業や東洋ゴム工業など約20社に納入した。

フロンテオによると、仕組みはこうだ。企業が設定した「談合」「営業秘密漏洩」「汚職」など警戒する不正内容に関連するサンプルメールや文書を数十通程度、AIに読み込ませる。判断基準を学習させたうえでシステムを企業サーバーにつなげ、社内や取引先との業務用メールをひとつひとつ分析。不正に関連する疑いをゼロから1万の間で数値化するという。

一定以上の数値を示したメールを専用フォルダーにまとめ、コンプラ担当者が改めて内容をチェック。そこで怪しいと判断されれば本格的な内部調査に回される。

AIは不正に関与しそうな単語を拾うだけでなく、文脈も判断材料にする。例えば談合を警戒している場合、営業担当者が他社と交わしたメールでは、単に「飲みましょう」としたものより、「久々ですね」や「個室をとります」などを含んだものを、より怪しいとみなす。AIは「定期的に内密な話をしていそうだ」と分析するからだ。

AIシステムを利用した社内調査に携わった経験を持つ、井上朗弁護士は「膨大な資料を掘り起こす作業の多くを省け、弁護士は関係者のヒアリングに集中できた。効率的だった」と振り返る。

もっともAIによるチェックも万能ではない。

「完全にAIをすり抜けた」。日本ガイシの関係者は苦い表情を浮かべる。海外での価格カルテル問題を踏まえ、14年にAIシステムを導入。だが18年、新たに品質検査不正が発覚した。端緒はメールチェックとは別の関係者の聞き取り調査。AIは数年間、従業員のメールを読み続けていたが、この不正には気づけなかったことになる。

井上氏も「AIシステムには弱点もある」と指摘する。課題の一つは導入や運用コストの高さだ。「500人規模の会社で年間数千万円から1億円が相場」(システムに詳しい弁護士)。コストを抑えるため、チェック項目を「カルテル」など特定の不正に絞る企業もあるが、対象外の不正への死角ができてしまう。対象が社内サーバーを経たメールに限られるため、外部の私用メールや音声通話は追えない。

従業員のプライバシーに関する懸念もある。複数の裁判例は、企業が不正行為の疑いのある従業員のメールを無断で読むことは、会社の正当な業務の範囲内であるとし「問題なし」と認めている。

だが板倉陽一郎弁護士は「いずれも20年近く前の事例。全メールを即時に分析できる現在の技術は想定されておらず、今後AIでの徹底監視はプライバシー侵害を指摘される可能性もある」と説明。そのうえで「チェックの目的や内容を会社が従業員や労働組合に説明し、合意を得ることも大切だ」と助言する。

 

記事引用元:日本経済新聞