2017年8月12日に米国バージニア州シャーロッツビルで起きたデモ同士の衝突。この衝突を巡るトランプ大統領の対応が著名企業の経営者たちに波紋を呼んだ。
Reuters/Joshua Roberts
2017年8月12日に米バージニア州のシャーロッツビルで人種差別的なデモとそれに対抗するデモの衝突が起き、暴動の中で女性1人が突入した車にはねられ亡くなった。このデモに対してトランプ米大統領が人種差別的な行為に明示的な批判を行わなかったことを受け、インテルやアンダーアーマーなど、アメリカの著名企業の経営者達は大統領の対応を批判すると共に、大統領の助言機関からの辞任を表明した。
実際には経営者達が辞任する前に、助言機関は解散が表明されたようだが、迷走を続けてきたホワイトハウスにはまたもや大きな打撃となった。アメリカで多様な人種を雇用し、各国で事業展開を行う企業の経営者としては、たとえ大統領に任命された機関のメンバーであることにメリットを感じても、人種差別的な事態は看過することはできなかったのだろう。
多様な従業員が働く中で適格な判断を下せるか
翻って我が国の経営者に同様のことが起きたら、企業トップは即座に態度を決めることができるだろうか?
例えば従業員が人種差別的なデモに参加していたら? 異性を差別するような内容を社内で発信したら? 実際にグーグルでは、「男性と女性は生まれつき能力が違うため、エンジニアやマネジメント職に女性が少ないのは差別ではない」といった内容の文書を社内で公開した従業員が解雇され、大きな論争を呼んだ。
従来、企業規模がさほど大きくなくとも海外で事業を展開している日本企業は多く、従業員にも外国籍の人間は多い。国内の製造業の工場で働く従業員はもとより、高度なソフトウエア・エンジニアなど日本語を解せなくとも日本国内で働く人間も増えてきている。多様な文化的背景を持った従業員が働く職場環境で、マネジメント層は先述のような問題に対して適格な判断を下せるのだろうか?
これはマネジメント層が1人の人間として表現の自由の尊重なども鑑みた上で判断することである。そして、どんな意思決定を行っても多少の批判は受けることを理解した上で、「自分はこうすべきだと思う」と決められることである。
「弁護士に相談しています」は説明にならない
近年、ビジネスパーソンの間で哲学、宗教、歴史等に関する「教養」の必要性が唱えられ、そうしたリベラルアーツ的な教養に関する書籍も売れており、「教養」がビジネスに役立つか役立たないかといった論争も聞かれる。
差別問題のように、ビジネスの現場では深く「正しいこと」を考え、意思決定する必要がある倫理的な問題が突然起こることがある。
最終的な意思決定を行う企業トップにとっては、事業戦略以外にも頭を悩ませることが多い困難な時代かも知れない。
企業トップの仕事は目の前に起きたことに対して、正しいと信じる何かを決めることである。「コンプライアンス重視」といった言葉に代表される決まったルールや、法規制を遵守することの方が容易である。また、不祥事が起きると経営者が「弁護士に相談し、法的に問題が無いというコメントをいただいております」と述べることがあるが、その「弁護士」はロースクール出たてのケータイ弁護士かも知れず、コメントは「いいんじゃね」の可能性も否めない。
極論すれば法的な正当性は裁判で判決が出るまではわからず、不祥事も法律論が争われているというより、経営者の道義的センスが問われている場合の方が多い。
人間が理解できないものを使っていいのか
経営者たちはAIなどの新技術によって生じた倫理的課題への対応に迫られている。
Shutterstock/Zapp2Photo
一方で近未来に広がる問いは黒か白か、すぐに答えの出ないものが多い。例えば人工知能(AI)のような破壊的技術が経営の現場に入ってきた際に経営者が考えておくべきことは何だろうか。
AIによって自動運転される車が人間を轢いたら責任の所在はどこか?という基礎的な問いに始まり、事故の際にAIが経済的コストのより低い方にハンドルを切るように設計されていても良いのか?事故を起こしても安く済むように、AIが人間や車に「値段」を付けながら走行することは許されるのか?など、応用問題はいくらでもある。
足下ではAIによって経営の意思決定や工場の管理をした際に、どこで人間が介在すべきなのか、いわゆる「Man in the loop」問題について経営者は自社の方針を決めなければならない。
膨大なデータの機械学習によってつくられた学習済みモデルであるAIは、もはや人間が内部を観察し理解することはできない。「人間の理解できないものを使って良いか否か」という問いには早急に答える必要がある。
例えば「人間よりマシンの方が間違いがない、なぜ人間を介在させるのか?」という主張もあり得よう。こうした状況は本質的な経営倫理を問われる。
教養ブームのなかで娯楽的に見えた哲学が、突然に目前の倫理問題を解くツールになってきている。
AI以外でもバイオテクノロジーにおけるゲノム編集で、例えば人為的に新しい病原菌をつくる是非などは問題となり得るだろう。戦略面から言えば、AIやゲノム編集のような新しい分野で業界の倫理的側面を牽引する「モラルリーダー」を創り出し、自国及び自社に有利な制度設計を行うことは非常に有為な施策である。
教養は意思決定のための「実務」
国際政治などの「教養」はビジネスパーソンにとって必須の素養となってきている。
撮影:今村拓馬
破壊的技術の外に目を向ければ、安全保障上の緊張が続く日本の周辺地域がある。
戦後70年以上、平和の中で経済活動を行ってきた日本においても、この環境が続く保証はない。
ある国際政治学者が「経営者に安全保障や国際関係論についてレクチャーしても、日米関係しか思い浮かばない」と苦笑していたが、安全保障の一般的な概念は「脅威の不在・脅威からの自由」であり、「行為主体が、獲得した価値を、それを剥脱しようとする脅威から、独自あるいは他者との協力によって守る」ことである。
もし経営者が安全保障について語る場面があれば、そこが起点となる。
ビジネスの中でも有事の際に従業員、顧客、資産の安全、サプライチェーンの確保など、守るべきものは多い。平時の時から備えるべきである。
ビジネスにおけるカントリーリスクの精査や地域的な事業ポートフォリオの分散のためには、国際政治の知見は「教養」ではなく意思決定のための「実務」である。
例えば国際的取引を行うビジネスにおいて、政府の発表している経済制裁措置や対象者を認識しておくことは日常業務だろう。では、経済制裁措置は行われていないが、人権侵害を行っている独裁的軍事政権に対して日本企業が技術供与を行うことの是非を決めるのは倫理問題かも知れない。
昨今、話題のデュアルユース(民間と軍事間の技術転用)問題においても、企業がステークホルダーに説明責任を果たす場面が来るだろう。例えば思考実験的ではあるが、地雷除去技術に民間技術を使うのは軍事利用か平和利用か? ではそれが日本と非友好的な第三国に提供されることは是か非か? など、ここでも本質的な内容が問われる。
経営者、そしてビジネスパーソンにとっても、多文化での職場環境、AIのような新技術、そして国際政治の知見など、意識高い系の趣味的教養やアカデミアの領域とされたものが経営者、マネジメント層の必修科目となりつつあるのが現在なのだ。事件が起きてから「そういうことは勉強不足でして、てへ」と言う企業トップを見たくないものである。
(本文は筆者の個人的見解であり、筆者の所属する組織・団体の公式な見解ではないことを予めご了承ください。)