〒186-0002
東京都国立市東2-21-3

TEL : 042-843-0268

製品進化とマネジメント風景 第61話 AIの進化と倫理マネジメント

データが日々大量に生成される今日、機械学習、深層機械学習の両方を含むAIの活用は、年々増大していくと思われます。メリットが大きくてデメリットが無視できる事業領域では、その利用は順調に増大していくでしょう。一方で、AIを利用した結果、希にではあるものの、大きなデメリットが発生する事業領域というものもあります。そのような事業領域では注意が必要です。

AIはデータによって学習して賢くなりますが、もし学習用データに偏りがあれば偏った判断を行うようになるため、それが倫理的な問題を引き起こす場合があります。これは非常に難しい問題です。なぜなら、人は誰でも何らかの点で偏っているように、どのようなデータにも必ず何らかの偏りがあると考えられるからです。

倫理が問題となりそうな具体例を2つほど挙げてみましょう。

第1は、陸海空における自動運転の事業領域です。陸の自動運転については、乗用車の自動運転が話題に上がる場合が多いですが、トラック運転手の人手不足が深刻であるため、こちらの需要の方が高そうです。実際、米国と中国が陸上輸送の完全自動運転の実証研究が実施中であり、近々、サービスが開始されると言われています。

自動運転は、事故の発生を減らすでしょうが、ゼロにすることは出来ないでしょう。その結果、何らかの事故責任が発生し、それには法律と倫理が絡んできます。事故による損害状況に基づいた罰則は法律で定めるとしても、事故を回避する際のAI判断ロジックはプログラミングの問題であり、倫理が関与します。AIの学習方法によっては、特定の人だけを優先して守り、それ以外の人は犠牲にしても構わないという判断ロジックを内蔵しているかもしれないからです。

海の輸送、空の輸送でも同様です。例えば空の無人輸送において墜落せざるを得ない状況に陥った時の判断を考えてみてください。人間のパイロットならば、おそらく自分を犠牲にしてでも、地上の人的被害を最小に抑える行動をする場合が多いと思います。では、AIは人と同じような判断ができるのでしょうか。それは、誰がどういうデータを用い、どう学習させているかに依存します。AIが操縦者である自動運転では、事故を回避する際の判断ロジックを形成する学習データが倫理を問われる要素になるということです。

第2は、自動査定の事業領域です。融資の自動査定は確実に広がりつつあります。私が使用している会計ソフトにも組み込まれているようです。貸しても安全だと判断している場合には自動査定は確かに効率的です。しかし、リスクがあると判断され、機械的に融資を拒否されたとしたら、納得できない人も多いのではないでしょうか?

同じ自動査定でも、新人採用や定期の人事評価になると話はもっとシビアになります。AIの出した結果が、なぜ、その結果になったかをキチンと説明してもらわないと心情的に納得できない場合が多いからです。実際、日本IBMではその種の問題が発生し、労組がAIによる人事評価の査定に対して問題提起をしています。自動査定にも倫理的問題が潜んでいると言えます。

第3は、自動化による人間の仕事の置き換えです。工場の自動化、事務作業の自動化、受付の自動化、質問回答の自動化などがその候補です。どれも人間がする仕事を減らす方向に進んでいます。人手不足のソリューションとしては有効ですが、一歩間違うと経済格差を助長する微妙な問題を内在しています。また、受付や質問回答の自動化でも、学習するデータによって倫理的に不適切な回答をして炎上する場合があるので要注意です。実際、マイクロソフトのチャットボットTayは、十分な準備をしたにも関わらず、リリース後、すぐに発言内容を不適切にさせるような組織的な攻撃に曝され、サービス中止に追い込まれました。

AIを適用した製品、サービスは日々、続々と市場投入されるようになっており、その倫理問題について真面目に考えざるを得ない状況になってきました。そこで各国とも倫理原則を提出しました。EUは脱炭素において世界の流れをリードしましたが、AI倫理においても世界をリードしつつあります。原則に留まらず、一歩進んで規則化にも動き始めたからです。では次に、AI倫理に関する世界の動向を見ていきます。

世界的にAI倫理として重視されている項目として以下の9つが挙げられます。すなわち、①人間の尊重、②多様性、③持続可能性、④人間判断の介在、⑤安全性・セキュリティ、⑥プライバシーの尊重、⑦公平性、⑧透明性、⑨アカウンタビリティです。

「人間の尊重」はいわゆる基本的人権の尊重です。人間がAIに支配されるのではないかという不安や反感を和らげるためにも、この原則は必須でしょう。これは「人間判断の介在」と関連があります。そもそもAIは自動化を促進するためのツールであり、人間判断の介在を減らすことが目的なので、明らかに相反関係にあります。人間の尊重に反する可能性がある場合は人間判断が介在すべきということになると思います。では、どこに境界線があるのか? これを具体化しない限り、人々の不安と反感を和らげることは難しいでしょう。

「多様性」と「公平性」は、「人間の尊重」の1つの具体化と考えられますが、相互に関連している項目であり、意図しない差別を生じさせないための原則と考えられます。しかしAIが自然にこれらを学習するとは考えにくく、人間による学習が不可欠です。そこで、冒頭に述べた学習データにおける偏りが課題となってきます。偏りの無いデータとは何かを具体的に定義していかないと、この原則は掛け声倒れになるでしょう。

現在のAIは、まだ、人間のような総合判断する能力を持ちません。一方、限定した目的を解決する能力は、明らかに人間を凌駕し始めました。AIにインプットする目的次第で人間の益にも害にもなるわけです。よって、「持続可能性」の原則が入れられていることは理にかなっています。同時に「人間判断の介在」とも関係が深い所です。

「安全性・セキュリティ」は分離して設定されている場合もありますが、どちらにしても「人間の尊重」の1つの具体化です。人間の住む場所を無人で動き回る自動運転ビークルが増えることを想定すると、まず、安全。セキュリティはセットで考慮する必要があります。特にセキュリティは、技術格差が顕在化する部分であり、技術を良い目的で使う者と悪用する者がせめぎ合う場所であり、AIを事業化する場合に避けては通ることができない部分です。

「プライバシーの尊重」も「人間の尊重」の具体化の1つですが、一番困るのは、AIにプライバシー情報が書き換えられることでしょう。これは法律による重い罰則の適用が必須な領域です。一方で、プライバシー情報の収集と活用に対する規制は難題です。

情報収集を完全に抑えることは不可能です。なぜなら、人が誰かとコミュニケーションをすれば、その中には必ずプライベート情報の断片が含まれており、その情報は様々な形で拡散していくものだからです。情報の収集は止められないので、それらのビジネス活用する際に、どこまでを許容できるかについて具体例を挙げ、議論して合意点を見つけていくしかなさそうです。

最後に「透明性」と「アカウンタビリティ」です。前者は後者の中に含まれると考えます。透明性は、どのようなデータが学習に用いられたか、その記録があるか、要すればデータを提供できるか等が問われます。一方、アカウンタビリティは、将来起こりうる事象に関するもの(未来の説明責任)と、起こってしまった事象に対するもの(過去の説明責任)の2つに分類できます。

事故が発生した場合には、製造物責任法などが適用され、過去の説明責任が求められます。製造物責任法はハードウェアを含む製品が対象です。よって、センサ、コンピュータ、ソフトウェアを含む製品システム全体の責任は問われます。しかし、現在のAIは一種のソフトウェアと解釈でき、製造法責任法ではソフトウェアは対象外なので責任を問えるかは微妙です。

未来の説明責任の代表例は金融取引です。ポイントは、事前に起こりうるリスクや適用限界を十分説明し尽くしたかどうかが問われます。AIの作り手と受け手の間には大きな技術格差が存在する場合が多いので、作り手は受け手に丁寧な説明をすることが求められるということです。証券会社から、何らかの証券を購入する場合、担当者が説明したかどうか、買手は説明内容を理解したかの記録を取りますが、AIの場合も同様な手続きをしなければならないことになるのでしょう。

以上から、AIを社会実装した事業を行う場合、事業内容によっては倫理問題を避けて通れないことが分かると思います。しかし、人間は長い歴史を通して倫理を議論したにもかかわらず、未だに1つの規範に統合されたとは言えない状況であり、悩ましい問題です。とは言え、悩んでばかりもいても先に進めないので、世界の倫理思想をいくつかに分類し、それを理解して対応策を考えていくことになるでしょう。

倫理思想は、一般的な分類では「功利主義」、「自由平等主義」、「自由至上主義」および「共同体主義」の4つに分けられています。この分類にも問題がないわけではないことを先に述べておきます。また、個々の考え方についての説明についても、何らかの偏りはあるかもしれませんので、その点はご容赦ください。

まず、「功利主義」は利己主義ではありません。共同体の集団的な価値の最大化を目指した考え方です。多数決を重視する民主主義はこの1つの形と考えられます。そのため、個人の権利ではなく、あくまでも集団の利害を優先させるため、個人が犠牲になる場合が生じます。都市の水資源供給のためにダムが建設され、村が1つ水没するなどが例として挙げられます。

次の「自由平等主義」は基本的人権の尊重を第1に掲げます。人類中心主義であるため、地球全体の生態系で考えると独善的な場合が出てきます。例えば、動物実験の扱いや死刑の扱いなどにおいて主張が色濃く出てきます。この考えを優先する国では、死刑は廃止される傾向があります。

「自由至上主義」は、個人の所有物を自由にできる権利に重点を置いています。経済格差は是として認め、累進課税に反対します。また、自分の所有物であれば、臓器であっても売る自由を主張する人達もいます。このように極端な傾向を持つ人達も含まれるため、リバタリアンと呼ばれています。

「共同体主義」は、反自由至上主義から生まれてきた考え方です。各コミュニティには伝統的な共通善があり、基本的人権というグローバル基準を守りつつ、ローカルな伝統的道徳と組み合わせることにより、秩序を保とうという考え方です。多様性を支持する考え方でもあります。

AI推進派は、倫理的考察に基づいて規制をしすぎるとテクノロジーの発展が阻害されるから控えた方が良いという主張をします。この話を聞くと、原爆開発のリーダーの1人であったフォン・ノイマンの主張を思い出します。

フォン・ノイマンは倫理に触れる2つの発言をしています。1つは「科学的に可能だと分かっていることは、やり遂げなければならない。それがどんなに恐ろしいことだとしても」です。もう1つは原爆開発の場で罪悪感に悩まされている物理学者ファインマンに対して、「我々が今生きている世界に責任を持つ必要はない」と語ったとされます。この2つの発言は「科学至上主義」とでもいう考え方であり、AI開発にこの考え方が適用されてはいけないと考えます。

倫理は規則と異なり、守らなくても罰せられません。倫理に反した企業が罰せられずに大きな利益を獲得していたら、それを横目に見た多くの企業が追随することを防ぐのは非常に困難です。世界には、自由至上主義や科学至上主義が存在していることを考えると、自由平等主義的なEUが2021年にAIに対して規則を課すという先手を打ったのは当然の対応だったと解釈できます。

さて、日本はどうするのでしょうか? 例えば自動運転で事故が発生して人命が失われた時、民事罰は企業が何らかの形で責任を負うことになるのでしょうが、刑事罰は個人が責任を問われます。誰が責任を問われるのでしょうか? 

この種の問題は航空機分野では以前から議論され、経営マネジメントと専門技術の間における責任分担が進んでいます。人命を失う事故が発生したとき、その調査の結果、特定の技術が原因で事故が発生したことが判明した場合には、技術審査の責任者(技術の専門家)が刑事責任を負うという仕組みです。一方で、技術が未熟であり技術審査が不合格にもかかわらず経営者が事業化を進めたならば、それは経営者の責任となります。

倫理が重要な時代においては経営者と技術者の間での責任分担が必要です。当社は、経営と技術の責任分担を明確化するマネジメントの仕組みのエキスパートです。悩んだ時にはご相談ください。