世界150か国、2000万人のサービス産業労働者を代表するUNIは9月1日、アルゴリズム管理がどのように仕事に使われるべきか、労働者の意見を聞くよう要求するキャンペーンを開始した。
UNI専門職・監督職委員会(P&M)は、世界中の職場において使用が増えつつあるこれらのツールが、倫理的に使われるよう要求する加盟組織の団体交渉を支援していく。
アルゴリズム管理は、単純なソフトウェアで従業員の労働時間を追跡したり履歴書をキーワード解析したりすることから、機械学習やその他の人工知能を活用した、店内の顧客の足取り予測や、シフトパターンの割り振り、労働者への任務の割り振り、誰を採用し昇進させ配転すべきかを決める、もっと複雑なツールに至るまで幅広く使われる。これらは集積された莫大なデータに基づいている。
「アルゴリズムを利用したツールで効率性を改善することはできるが、甚大なリスクも課されることになる。特に、監視が強化され、データが収集され、仕事から人間性が奪われ、 職場の差別が悪化する恐れがある」と、クリスティ・ホフマンUNI書記長は述べた。「COVID-19のパンデミックの間、遠隔勤務が急増し、使用者はスタッフを監視するためこれらのツールの使用を加速した。組合は、アルゴリズムが使われる際には、労働者との交渉を経て、透明性をもって、差別することなく使われるように働きかけなければならない。」
アルゴリズム管理は、採用、業績管理、様々な状況における日々の職場の意思決定等に、最もよく使われている。例えば、アマゾンの倉庫労働者が装着する触感フィードバックデバイスは、品物をより効率的に取れるよう、振動で腕を正しい棚へ導くものだが、この種の過剰な効率性は労働者に極度のストレスを与える。常にプレッシャーを感じ、人間の自主性が奪われる。自分の手足の動きや、どの大きさの箱を選ぶか、封をするのにどのくらいの長さのテープを切ればいいかを決めることすら信用されていないと感じ、自分が単なる機械のように思えてくる。
コールセンター経営者は、アルゴリズムツールを使って、従業員が顧客に積極的な態度を取り続けるよう、言葉遣いや声の調子を監視する。例えば、CogitoやVoci等のプログラムは、音声分析AIを使い、労働者に、早口でしゃべり過ぎるとか、疲れたような声をしているとか、共感力が足りないとか、リアルタイムでフィードバックを与える。労働者は、各々について収集された大量のデータに加え、これらのプログラムによって仕事上のストレスが倍加すると不満を述べている。あたかもアルゴリズムツールに、労働者はどのような感情を持つべきかまで命令されているようだ。
更に悪いことに、この種のプログラムは、女性、地方訛りのある従業員、少数派の人種・民族の言葉や表現を誤解する傾向が強いと、労働者は報告している。アルゴリズムに組み込まれた偏見によって、彼らの成績は不正に評価されることが多く、人間の管理者によって修正されることができない。
「アルゴリズムによって決定がなされたからといって、使用者は結果への責任と関係がなくなるというわけではない」と、アレックス・ホグバックUNI専門職・監督職委員会担当局長は主張する。「どのような新しい技術であっても、我々はこれらのツールができるだけ公平に使われるようにしようとしている。そうすれば、労使双方に利があるからだ。」
UNIは、アルゴリズムが適切に設計され実行されれば、人的資源における偏見を減らすのに役立つだろうと指摘する。例えば、採用担当マネジャーの偏見は意思決定に情報を提供すると研究では示されている。その一例が、ある米国の実験で、黒人らしい名前の求職者は、アングロサクソンの名前を持つ似たような履歴書の求職者に比べ、50%少ない面接の申し出を受けたと示されたことだ。よく考慮されたアルゴリズムのアプローチなら、面接プロセス全体の偏見を減らし、差別を受けるかもしれない候補者に、より公平な機会を与えるのに役立つはずだ。 UNIは、組合が使用者との「アルゴリズム使用協定」交渉に目標設定すべきだと確信している。その協定とは、アルゴリズム管理の倫理的な使用に関する主要な要求を含むものである。例えば、どのようなツールが使われているかを知る権利、どのようなデータがなぜ収集されているかの情報、これらのツールを通じて労働者に関して集められたデータにアクセスする権利等である。更にUNIは、これらのツールを人間が指揮するアプローチと、差別のない結果を確保するための監査を主張する。要求のリストと、交渉のガイドライン(英語)を参考にしてほしい。