「AI(人工知能)」という言葉をよく耳にするようになりました。人と会話できるAI、将棋の相手ができるAI、絵を描けるAIなど、AIはできることをどんどん広げて私たちの社会に浸透してきました。さらにAIは、例えば個人の趣味や好みに合わせたお勧め情報の提供、将来かかりそうな病気の発症を防ぐための発症確率予測や体質的特徴の分析というような個人に合わせたサービスにも使われ始めています。それだけでなく、例えば人事採用で企業に適切な人材を選ぶという効率的・合理的な意思決定にも力を発揮します。このように、AIの導入により、さまざまなメリットが期待されていますが、今まで人間が行ってきた判断をAIが行った場合、その判断を私たち人間は納得して受け入れることができるでしょうか。また私たちは、大切な選択をAIの判断に任せてもよいのでしょうか。

このようなテーマについて考えるために、トークセッションを開催しました。本記事では、トークセッションの内容を、ゲストスピーカーの発言の一部を抜粋・要約したうえで報告します。(報告記事執筆:科学コミュニケーター 渡邉吉康)

トークセッションの概要

「AIに評価される時代がやってきた―そのとき、あなたはどうする?」

2020年7月10日(金) ニコニコ生放送

ゲストスピーカー

 本橋洋介氏

 山本龍彦氏

 江間有沙氏

本橋洋介氏 日本電気株式会社(NEC) AI・アナリティクス事業部 シニアデータアナリスト。知識科学・機械学習・データマイニング技術の研究開発に従事されています。
山本龍彦氏 慶應義塾大学法科大学院教授。急速な情報技術の発達がもたらす問題に関して、憲法を切り口に研究に取り組まれています。
江間有沙氏 東京大学未来ビジョン研究センター特任講師。人工知能やロボットを含む科学技術と社会の関係について研究されています。

 前半のレクチャーパートでは、そもそもAIとは何かから始まり、AIがもたらしうる未来と課題に関して本橋氏、山本氏よりお話いただき、後半のディスカッションパートでは江間氏の司会で、AIがもたらしうる課題にどのように向き合っていくべきか、AIの「説明可能性」と「公平性」という2つのキーワードを軸にお話を進めていただきました。

AI(人工知能)とは?

 そもそもAIとは何でしょうか? 明確な定義はありませんが、平たく言えば人間の知的活動をコンピューター化した技術で行うものです。具体的には、規則を学習する、物体を認識し理解する、将来の事象を予測し推論する、計画を立てて最適化するといったことを行いますが、人間が見たり聞いたり考えたり行動することをソフトウェアで代替したらおおむねAIであるというざっくりした認識です。AIという概念は1950年代からすでにありましたが、2010年代に入ってAI自身がデータからルールを自動的に発見する手法が発達することにより新たなブームが起こっています。

 AIの学習手法である「機械学習」では、データから傾向を学習して未知の事象を「予測」したり、データの特徴を判別して「分類」したりしますが、その判断基準となる特徴をあらかじめ決めておく必要があり、その特徴の選び方が判断の精度に大きく影響します。例えば、人間の赤ちゃんは「猫」が猫であると認識する際に、猫の鳴き声、耳の形、顔の形などの特徴自体を自分で学習して認識していきますが、同様のことは、従来の機械学習では不可能でした。しかし、2010年代に機械学習をさらに発展させた「ディープラーニング(深層学習)」が登場・普及して状況が一変します。ディープラーニングは、自ら特徴を見つけたあとに、その特徴を判断基準として学習していくことができます。

 このディープラーニングの登場によって、AIを利用できる場面が飛躍的に増えました。例えば、画像認識の分野ではディープラーニングが使われ、人間が識別するのと同じような精度で画像を認識することができるようになりました。実際に、自動運転などの分野で応用されています。一方で、結果が導かれる過程で複雑な処理がされることにより、結果について理由を説明することが難しくなってきました。加えて、AIが行う「予測する」および「分類する」という性質自体が、人間社会や私たちの権利に弊害をもたらしうる可能性も指摘されるようになってきました。

AIの特性が人権や社会に影響を及ぼす?

AIの結果が導かれる過程がブラックボックスであることで生じる問題

 AIによって導かれた結果について、技術的にその理由の説明が難しい場合に、どうしてその結果になったかを人間が解釈できないという点が憲法学的に問題となりえます。またAIによる結果の理由がわからないと、その評価に委縮してしまって個人の行動が制約されるという問題も生じます。

 ここでは、「信用スコア」を例に考えてみます。信用スコアとは、さまざまな個人データ(購買履歴や支払い能力など)をもとに個人の社会的な信用力・信用度合いを点数化したもので、海外では導入・活用が進みつつあります。このような信用スコア、すなわち個人の信用度が高い人ほど優遇されるシステムで、仮に個人の信用度の評価がAIによってなされ、かつ本人の評価に本来使うべきではない情報が混入して信用スコアに影響を与えたらどうなるでしょうか。どうしてスコアが下がってしまったのか検証が困難なまま、信用度が低いと評価されてしまうかもしれません。

 日本国憲法第31条によると、行政機関が個人に不利益を与えるような場合には、その理由を述べ、相手の言い分を聞かなければならないことになっています。ところが、AIによる評価では、その理由がブラックボックス化されるため、自分が不利益を被った理由を知ることができないのです。そのため、本人から異議を申し立てる機会も確保されず、信用スコアを上げる手立てがわからないまま、その状態から抜け出せなくなってしまいます。

 さらにどの情報が信用スコアに影響するかがわからないと、不安から信用スコアに負の影響を与えそうな行動を差し控えるようになります。このような心理的な圧力によって、個人の行動の自由を享受できないことが問題とされます。そしてみんなが同様に萎縮してしまうと、社会の多様性や活力の損失につながってしまいます。

AIの評価を過信してしまう人間の性質に起因する問題

人間がAIの評価を疑おうとせずに信用してしまうところも問題につながります。AIがある人について評価するとき、その人と似た性質をもつ集団からその人の特徴を確率的に予測して評価します。つまりAIの評価は確率的な予測であり、100%正しい評価を行うことはできません。また、プライバシーの問題などから集めるデータが限られているにも関わらず、人間はそういうテータ的限界については捨象してしまいがちです。そして、利用する側である人間には、AIによる評価を100%正しいと信じ込んでしまう性質があります。

 日本国憲法の第13条では個人の尊重について記述されており、かけがえのない個人を尊重し、個人の事情を配慮することが定められています。ところが、「この集団に属しているから、あなたはこういう人だ」と決めつけてしまうことは、個人を尊重するという大事な考え方を忘れてしまうことになってしまいます。

AIの公平性に関する問題

 AIが、いわゆる「公平」な評価をしているかどうかも議論すべきポイントです。学習するデータ自体に偏りがあれば、導かれる結果も偏ってしまい、偏った評価につながります。例えば、会社の採用プロセスでAIを導入していて、その会社へ以前応募し採用されている人に共通した特徴がある場合、その特徴から外れている応募者は、採用・不採用を判別するスコアが低くなる可能性が高くなってしまいます。また、その評価の理由が生まれもった属性などの自分では変えられないものであるとしたら、それは個人の尊重という考え方に反する考え方です。

 一方で、不公平な評価を避けるために学習する個人情報の特徴の数を減らしたり、データやアルゴリズムに手を加えたりすると、AIの予測の精度が下がったり、「逆差別」を生じさせる可能性もあります。

 以上のような話から、AIによって未来の可能性が広がる部分がある反面、社会的に気を付けるべき点があることがわかりました。このようなAI技術と私たちはどのように付き合っていけばよいでしょうか。そこで、科学技術と社会の関係について研究されている江間氏の知見も交えて、「説明可能性」および「公平性」をキーワードとしてディスカッションを行いました。

説明可能性: AIによる結果の解釈が難しかったら?

 AIの下した評価や判断の根拠がわからないという課題に対して、近年AIの判断の根拠を示す「Explainable AI(説明可能なAI)」が開発されています。そもそも「説明可能」とはどういうことでしょうか。根拠がわからず解釈できない結果を、社会としてどうとらえればよいのでしょうか?

本橋氏「Explainable AI(説明可能なAI)で「説明をする」というのは、出力結果がどのデータに依存して変化しているのかを統計的に示すことで、それを説明可能性とよんでいます。」

江間氏「AIが何を優先して解析したかということが、人間には解釈できないものだとお手上げなので、例えば人間にとってわかりやすい要因を優先すればよいように思います。受け入れがたい要因が優先されていたらどうしたらよいのでしょうか。」

本橋氏「説明をシンプルにしたり、万人が理解できるような説明をしたりすることと、AIの予測精度はトレードオフの関係にあります。AIが見つけた要因を人間が直感的に受け入れられない場合の対策としては、その要因を除外する方法があります。ただしその分精度が悪くなることもあり、用途によって使い分けることになります。」

江間氏「どうしても不利益を受ける人が出てしまうとしたら、社会システムで拾っていく必要があるか思います。何か有益な方法はあるでしょうか。」

山本氏「EUのGDPR(一般データ保護規則)の第22条では、AIによる判断のみで、個人にとって重要な決定をすることを原則禁止しています。本人の明示的な同意があって例外的に決定された場合にも、のちに異議を申し立てるプロセスを準備しなければならないとある。こうした救済の手続きを用意することが有効な処方箋の一つといえます。AIによる判断で不利益を被った際に、AI開発者、利用する企業、業界団体、政府等のさまざまなステークホルダーがどういう役割を果たすべきかに関しては、これから議論される段階です。企業としては、そもそもAIとはどういうものなのかを理解すること、そしてAIを作る側と使う側のコミュニケーションを深めていくことがますます重要になります。以上の観点から、異議申し立てがあった際に企業には答える責任があるため、共同して相談窓口を作る等の取り組みが重要です。」

 このように、AIによる判断が不当だと感じ判断理由の説明を求める際には、説明可能AIのような技術的な解決策だけではなく、社会全体の仕組みの構築が重要といえます。

公平性: 「公平」といえるのはどんなとき?

 前半の山本氏の話で、AIによる判断が「公平でない」という問題提起がありました。そもそも「公平」とはどういうことでしょうか。

江間氏「『公平性』と『フェアネス』それから『バイアス』という言葉も出ていました。技術と法律のそれぞれの立場で、これらはどう使われるのでしょうか。」

本橋氏「そもそも、昔起こったことを学習し模倣することが機械学習の行うことであり、統計的な差が出てきてしまう(「統計的差別」が生じてしまう)のはAIの性質上やむを得ないことです。その一方で、例えば本来は半々の結果を出力すべきデータを扱っている場合に、AIの結果がそうなっていないときに、結果を5:5に調整することは可能です。この調整は、「人間が考える公平性」です。公平性は人間の倫理観や歴史観に基づいて作られた概念ですが、AIはデータに基づいて統計的に作られるものであり、一致しない概念です。人間が公平性を決めていて、AIがそれと異なるのであれば、AIに反映させていけばよいのかなと、私は考えます。」

山本氏「AIは無邪気です。これまで社会に根強く存在してきた差別を、人間は完全に解消できませんでした。AIが悪いのではなく、AIはその構造を可視化しているだけにすぎません。その可視化された差別にどう対処するかを考えるのが人間の仕事です。あるべき社会の姿について議論しAIに反映させていくことが、今後大事になってきます。」

江間氏「逆に考えれば、AIは今まで見えなかったことの鏡となって、社会を変えるきっかけになると思います。AIの公平性の是正で、技術的にできることがあるというお話も伺いましたが、では公平とは何かいうと難しいことです。技術や法律だけでなく社会心理学、歴史学などさまざまな分野の人の協力を得て考えていくべきことと感じました。」

 ここで江間氏から、視聴者のコメントを受けて、「AIによる判断は信用できないけど人間なら信用できる」という感覚はどう考えればよいのか、AIに対する信頼が醸成されれば解消されるのか、そうでないのか、という問題提起がありました。

本橋氏「『責任』がよい言葉だと思います。例えば仮に採用の場において人間が判断を下したら、その人が責任をもって判断したと思えるし、納得できないなら理由を問いただすことができます。採用側も訴訟のリスクなどを考え、気合を入れて判断しています。それに対してAIからはそういうものを感じることができません。人は意思決定にエネルギーを割いていて、そのエネルギーを感じることができるか否かが、受容性に関係しているのではないかと思いました。」

山本氏「要は腹が切れるかどうか、人間は間違ったら腹を切れる。だから責任をもって判断をしているのだろうと信頼を寄せられる。AIはそのような責任を負えません。人間の判断を信用するというのは、そういうところから来ているのだと思います。しかし、面白いことに、私のゼミ生に、就活で、AIと人間のどちらに判断されたいか聞いてみたところ半々でした。人間の方がバイアスを有するという意見もありました。確かに、AIは、人間がもっている偏見を見つめ直す材料を提供できます。AIは多様なポイントを考慮できるので、それを使って人間とコラボレーションするのがよりフェアなのかなと思います。」

 視聴者から、今まで出たような話をどこかに届けることはできないかというご意見をいただきました。今後のAIと社会の関係について、さまざまな立場の方々が議論していくことが重要だとわかりましたが、このような議論の現状はどうなっているでしょうか。

本橋氏「民間企業としては、開発したAIが世の中に受け入れられることが大事です。逆にいえば、世の中の人々の意見をいただきながら、世の中に受け入れられるAIがどんなものなのか知りながら開発するよう、日々考えています。」

山本氏「AI社会をどうしていくべきかは主権者である国民の皆さんが決めることで、開かれた場で国民を巻き込んで議論を行っていくことがより一層求められます。政府は2019年3月に『人間中心のAI社会原則』を出しさらにAIの利活用ガイドラインも出していますが、このような動きがあること自体、あまり国民には知られていません。そのようなことを国民に周知し、国民的な議論を活発化させるべきだと思います。」

江間氏「私の専門である科学技術社会論は、科学技術と社会の関係についてさまざまな人との議論の場をどう設計するか、それを政策にどうつなげていくかを考えている学問です。AIと社会との関係は、すでに各分野で個別に議論される段階まで来ています。AIに対して嫌厭意識をもつのではなく、AIが使われているサービスを利用する際に、背後に公平でないものが動いているかもしれないという疑いの意識をもち、どうすればよいのかを考えたりニュースに気を配ったりすることが、議論に参加する最初のきっかけになると思います。」

 さまざまな立場の方がそれぞれにチャンネルをつくることで、AIについて考える機会が増えていくことが大事だと感じました。

一人ひとりに求められるものは?

 AIを使う人、作る人などAIに関わる人は増えていくと思いますが、それぞれの立場の人たちにどのようなリテラシー(知識や利用能力)が求められるでしょうか。

本橋氏「技術者には、AIのアルゴリズムの中に技術者の倫理感を勝手に入れないように意識すること、そしてその一方で、統計的な挙動や判断の限界について正しく説明するという責任があると考えています。」

山本氏「法律家も、データサイエンスやAI技術に精通していなければいけない時代になってきたと思います。文理の垣根を越えて学問領域が融合していくことが今後いっそう求められるでしょう。」

 江間氏にはサービスプロバイダーについて伺いました。

江間氏「AI開発に従事しているわけではないけど、利用者にサービスを提供するサービスプロバイダーは、中間的な立場ですが、利用者の要望に対応できることが大事になってくると思います。AIの技術的な部分だけではなく、法律や社会、人々の認知のことまで幅広く知ることも大事になってきます。」

 ではユーザーである私たちに必要なことはどんなことでしょうか。

本橋氏「AIは過去のデータを再現して確率的な判断を行っているにすぎません。その限界を知ることも大事で、AIが出した判断が100%正しいと思わないという感覚をもつことが大事だと思います。」

山本氏「今の状況だと個人としてできることはあまりありません。企業がAIを使用していることや使用の目的などを透明化するのが大事で、それを促すインセンティブを政府が設計することが、まず必要だと思います。」

江間氏「AIの技術や利活用に関して、使わずに毛嫌いするのではなく、まずは実験的に使ってみて、感じたことを自分の中でどのように消化できるか考えてみてもよいのではないかと思います。そしてそこで感じたメリット・デメリットを技術者や法律家へフィードバックし、よい方向に修正していくことが大事だと思います。」

 江間氏からは、以下のような問題提起がありました。

江間氏「『AIが○○する』というAIを擬人化して主語にするような言い回しは、AIへの怖さを増してしまうので、AIはあくまでも道具であって、使い方次第だということを意識した方が良いと思います。」

 私たちの生活の中では、AIの技術がすでに浸透しつつあり、否が応でもAIによって評価・判断される状況がこれから増えてくると予想されます。その際に、AIに関する正しい認識をもち、極度に恐れないこと、そしてさまざまな立場の人たちと議論を重ねていくことがさらに重要になるでしょう。

企画・ファシリテーション

トークセッションを終えて

渡邉吉康

今回のトークセッションは、新型コロナウイルス感染症の影響で、急遽オンラインで実施する運びとなりましたが、結果的により多くの方々に参加(視聴)していただく機会となり、かつ建設的なコメントを多くいただけたことは、大きな励みとなりました。
山本先生のお話の中で出てきた「AIは無邪気」という言葉が印象に残っています。AIが問題を引き起こすというよりもむしろ、今までの人間の社会の課題を逆にAIが教えてくれていると捉えることもできると思いました。AIが提示する問題を解決するために、これからどんなことをすべきか、少しでも多くの方に考えていただけるきっかけになることを願うと同時に、私自身、科学コミュニケーターとして何ができるのか、さまざまな方々とお話ししながら、これからも考えていきたいと思います。