CCI FUTURE IMPACT Forum for SDGs

各専門家からみた現在の状況とこれからの持続可能な社会について、
CCI FUTURE IMPACT Forum座長の大澤真幸氏と
あらゆる分野の専門家からなるメンバーの対談をお届けしてまいります。

今回は、Part1 Part2に引き続き、
江間 有沙氏と大澤 真幸氏のスペシャル対談のPart3をお届けします。



【第7回】コロナ禍における人工知能と社会の関係からみた現状と持続可能な社会とは
江間 有沙氏 × 大澤 真幸氏

Part3(全4回)
AIの予想と判断 ―人は人間をどこまで信じるのか、AIをどこまで信じるのか―


-大澤氏:
普段から気になっていた問題なので伺いたいのですが、AIの予想というのは人間の想像力を超えているのです。


-江間氏:
発想の仕方が若干違うのですよね。


-大澤氏:
AIが予想したことを人間化するといいますか、先程のお話にもあったように人間は理由が欲しいし物語になっていないと納得しません。ではAIに対してはどうすればよいのか。
Alpha Goのお話をされましたが、人間は、将棋や囲碁に対してですら「何故この手なのか」と思うわけです。それでもこれは将棋や囲碁の範囲なので何とか理屈を考えて、「なるほど、これが良い手なのだ」とかろうじて思うことはできます。しかし将棋や囲碁でさえもAIの打った手について、世界トップクラスのプロでもなかなかその理由を納得することは難しい。
ましてや、もっと一般的な判断をAIがやるようになったら、どうなるのだろうと。
将棋や囲碁に関しては、もはやAIのほうが強いわけですから、単に強ければ良いということならAIに聞いた方が早い。でも、AI同士で将棋を指しても面白くないので、ちゃんと藤井聡太さんにやってもらいましょうということになるわけです。
しかし、例えば、感染症対策で何をすべきか判断するときにAIを活用した場合、AIはなぜか「何処どこの湖を埋めなさい」という思いもかけないこと言ってくる可能性があります。人間には、どう考えても湖を埋めることと感染症との関係はよくわからない。


-江間氏:
バタフライ・エフェクトみたいな話ですね。


-大澤氏:
そう。バタフライ効果のようにものすごく迂遠で複雑な因果関係がある感じです。
やがて人間は自分の判断よりもAIの方が少なくともプロバビリティ的に良いと感じるようになると思うのです。人間は色々なことについて、予想されていない時にも、予想できないようなことに対しても、いちいち判断をしています。そして大抵間違えるわけです。AIも間違えるとは思いますが、人はやがて間違え率が人間よりも少ないようだと気がつきます。ところがAIの予想は課題へ対応した答えなのに、その理由が全然わからない。物語になっていないのですね。その時に我々はどちらに行くのだろうか。これから人間としてどのように選んでいけばいいのかと思うわけです。

つまり、単に失敗率を下げるというのであればAIに任せた方が良いかもしれないと皆が思い始めるでしょうが、他方でAIが言っていることは理屈をつけようとしても、理屈や理由はわからないということもあるわけです。将棋や囲碁の範囲でさえ分からないのですから、まして全人類のことについてとなると一層不明です。

例えば「これからCO2の濃度を少しでも下げるためにはどうしたら良いのか?」という問いに、AIから「東京の東村山市の人口を減らすために強制移住を求める」という答えが出てきたとします。「人類の為にCO2を減らすには、東村山市に住むあなたは移住した方が良い」と言われても何故それが良いのかは誰も説明することができない。

こういうときどうすべきなのか。納得できなくても、失敗率が低いとされているAIの答えに従った方がいいのか、それともいくら成功率が若干高いといわれても理由を理解できないAIの答えには従わない方がよいのか。今の段階では笑い話のようですが、いつかはそういうことが早晩、事実上の問題になってくる。

つまり今までは人間の判断が地球の中で一番確実だと思っていた。歴史を遡れば、昔は神様に聞いた方が良いと思っていたが、どうやら神様もあてにならないらしいと思うようになり、人間が決めるのが一番だということで民主的な決定手続きを確立してきたわけです。そしてやがて再び正しい判断というのが脱人間化する。それが21世紀後半の問題だと思います。

その時に我々はどうするのが良いのかということ。政治的な決定とAIという問題を考えると、とても気になるところです。この辺りはいかがでしょうか?


-江間氏:
その段階へ行くまで、どのくらい時間がかかるのか、意外にその時はすぐに来るのか。場合によっては占いでいいものもあると思うので、意外といけちゃう分野がある一方で、そこはやっぱりいけないという分野に分かれ、一概に全てがそうなるとは言えないと思うというのが一点目です。
ある意味でデータによるのだと思います。
AIは過去の予測、過去のデータに基づく予測しかできないので、まったく突発的な新しいことや現象の少ないこと、突発的なことに関しての予測は殆どできません。
ですからそのような過去のデータがない分野に関しての解決策をAIが提示することは無理だと使う側が知っておかなくてはなりません。全部AIに聞けばいいのだと思っていても、現象が少ないものや一過性のものは分かりませんとしか言いようがないわけです。
シミュレーションは出来るけれども「こうです」ということは言えない。確率を示すことは出来ても「こうしたらよい」ということは言えない。
更にインタフェースの伝え方一つで随分違うと思います。そこはとても気をつけなければならないと思っています。過去のデータに基づいての判断しかできないということは、今の社会に存在する価値観を肯定して次に繋げていくということです。

大澤先生が先程イノベーションとおっしゃいましたが、SDGs等について考えると、例えば環境問題にゴールが設定され、それに向けて私たちの行動を変えてゆかなければいけない。今のまま続けていたらお終いだから人間の知恵を活かして行動や考え方を変えなければいけない。場合によっては今までの価値観を捨てなければいけない。
しかし、AIにはそういう提案はできません。可能性の一つとして「人類が滅びれば問題は解決する」という答えも含めて提示はできるかもしれませんが、判断する確度や精度は期待できません。機械にできることは機械にやらせ、では人間にできることは何なのかということの棲み分けを誤らないことがとても大事になってくるというのが、大澤先生のお話を聞いて重要だと思った二点目です。

三点目は少し違うかもしれませんが、何か問題解決の際に「AI様の言う通り」という風になり得るかもしれないという件ですが、我々が今まで判断をする時には多数決によるのか、独裁でやるのかというようにいろいろな方法を取ってきました。もしかしたらAIもそのうちの一つの選択肢になるかもしれません。データに基づいて結論を下すというやり方が加わったと考えてもいいかもしれませんね。

ただ、そのデータの全部は今の我々の偏見も含めた過去に基づいているものですが、ある意味、多数決という直接投票で行うのではない間接民主主義的なものが直接民主主義的なものにいける亜種かもしれない。

今はデータが目立っているだけで、データは主役ではなく、対象となる全ての人の行動や意見をデータとして吸い上げて判断する、という究極の直接民主主義の世界のようなものを可能にするツールと捉えることができるかもしれません。そうなると意外にどの政治形態を取るのかという話の延長かもしれないというように思いました。


-大澤氏:
ニック・ボストロムという哲学者がいますが、彼が言ってるのは「気がつくとAIに人間が支配される世界になっているのではないか」ということです。この場合、ある意味で結局は人間がAIを信頼してしまうことにあるのだと思うのです。

人間は間違えます。よく考えると完璧な答えなどたいていの重要な問題にはないので、人間は100パーセント間違えると言っても過言ではない。そもそも間違えないのならAIに聞くことはないのです。どちらかというと人間は間違いの連続なのです。
それに対して、AIも間違えはしますが、その率が人間より低くて、大抵のことはそこそこいい線をいっている……と人は感じるようになります。AIについては、仮に間違えてもそこそこ当たっていた、という印象をもつ。だからその間違い率がちょっとでもAIの方が少なければ、100%の正解なんて出してくれなくてもいいのです。例えば人間は7割間違えるが、AIだと6割の間違いで済むということであれば、AIにコミットする理由が出てきてしまうのですね。

私たちがAIにコミットし始めて、ニック・ボストロムが言うように気がついたら世界で一番偉いのはAIです、AIこそが神ですという世界になったら悲劇的ですけど、江間さんはニック・ボストロムについてどう思われますか?


-江間氏:
彼の言っていることは面白いし、警鐘を鳴らすという観点ではすごく大きな役割を果たしていると思います。
しかし同時に、大澤先生がおっしゃったとおり、人間も間違えるし、機械も間違える。機械は人間が間違えたものを学んで、人間を鏡として学習してきている。結局誰が教師データを作るのかとか、どういう価値観を教えるのかということを考えると、AIが全てを担うような世の中を是とする人がどの位出てくるのかという疑問が湧いてきます。ユートピア小説を模したディストピア小説なのかディストピア小説っぽいユートピア小説なのかわかりませんが、敢えてセンセーショナルに書くことによって、「そういうふうにならないようにしましょうね」ということを伝えるのを目的としているような気もするのです。

今、別の人達と共同研究のテーマにしたいと考えていることがあります。日本では意外に無人化や自動化などに対する抵抗感がない、というかやりたがるところあるような気がします。それに比べて欧米ではどちらかというと、Human in the Loopというように、最終的にはやはり人間が判断するべきだという考えが強いと思うのです。ある意味で人間至上主義ではありませんが、ヒューマンセントリックのところがあります。神の代理人としての人間が通常を全て管理していることが大事だと。
だからこそ、子どもの人権とか動物保護とか環境問題とか、人間が守らなければならないものに関する意識が高いと思うのですが、そういうことを考えた時に、意外にも「ニック・ボストロムの話っていいじゃない」という研究者が日本人の中にもいたりして、「そうか、そういうふうに読む人もいるのだ」と思ったりします。
「機械(AI)が全部やってくれるのの何が悪いの。幸せならばいいじゃないか」と。
日常生活には煩わしいことが多いじゃないですか。その中で些細なことから世界中のいろいろなことまで、機械がやってくれるのならそれでいいという人が増えてくるのであれば、ああいう社会はディストピアではなくむしろユートピアとして読まれてしまうのかもしれないと思ったことがあります。

ボストロムは「ああいうのは嫌だよね」とみんなに思って欲しいから書いているのではないかと思いつつ、「あれもいいじゃない」と言われてしまったら、どういうことになるのだろうと。


-大澤氏:
ニック・ボストロムが言っているのがディストピアではなくユートピアだと思う人だっているかもしれないということですね。逆にね。


-江間氏:
現実にいらっしゃいます。


次回 Part4は、
「AIとどう付き合うのか ―AIへの期待と不安-」
についてお届けします。


【対談者 プロフィール】


大澤 真幸氏
社会学者
CCI FUTURE IMPACT Forum座長

千葉大学文学部助教授、京都大学大学院人間・環境学研究科教授を歴任。
1990年代より、理論社会学の立場から現代社会の変容を総合的に分析し、論じてきた。著書に『ナショナリズムの由来』(講談社、毎日出版文化賞)、『不可能性の時代』(岩波新書)、『量子の社会哲学』(講談社)、『ふしぎなキリスト教』(橋爪大三郎との共著、中央公論新書大賞)、『自由という牢獄』(岩波書店、河合隼雄学芸賞)、『日本史のなぞ』(朝日新書)など著書多数。個人思想誌『大澤真幸THINKING「O」』(左右社)主宰。現在、『群像』(講談社)誌上では、世界史の論理構造を解明する評論「〈世界史〉の哲学」を、『本』(講談社)誌上では、動物社会との比較の中で「人間」の本質を考察する「社会性の起原」を、それぞれ連載中。


江間 有沙氏
東京大学未来ビジョン研究センター特任講師
東京大学大学院総合文化研究科博士課程修了。博士(学術)。
CCI FUTURE IMPACT Forumメンバー

京都大学白眉センター特定助教、東京大学教養学部附属教養教育高度化機構科学技術インタープリター養成部門特任講師を経て、2018年4月より東京大学政策ビジョン研究センター特任講師。2017年1月より国立研究開発法人理化学研究所革新知能統合研究センター客員研究員。専門は科学技術社会論(STS)。人工知能学会倫理委員会委員。
人工知能と社会の関係について考えるAIR ( Acceptable Intelligence with Responsibility) の発足メンバーの一人として社会と技術の垣根を越えた議論を行っている。