目次を入れたことがなかったので、今回は入れてみました。まあそんなことはどうでもいいのだが、前回の記事では、前置きが長くなりすぎて全く本題に入れなかったので、本記事では真面目に本題を書いていこうと思う。
前回の記事をざっと説明すれば、僕の仕事先の近くで、自転車に乗った小学生くらいの女の子が転倒し、それをみんなで協力して助けたという話だった。
これは、僕の近くで女の子が転倒し、その事実を認識してしまった瞬間、僕に、「放ってはいけない」、「助けなければいけない」という、『~しなければいけない』という義務にも似た「責任」が発生したということで、その「責任」ゆえ、僕にあのような行動をとらせたのだと思う。
この「責任」という概念は、人間特有のものだと思われる。
学習する論理(ディープラーニング)と、正当化の論理
一年前だか二年前だかに、ニコ生で不定期に放送している番組、「言いたいことをいう生放送」(誰かがYouTube上にあげているので現在も観ることができる)のとある部分で、東浩紀、津田大介、茂木健一郎が「AI(人工知能)」について話し合う一幕があった。
そこでは東浩紀がまず、論理について話しを始めている。
「論理というのは、なにかを学んでいく論理と、正当化の論理があって、その二つは違う」
つまり、「なにかを学んでいく」論理というのは、「学習・生成する」論理のことで、AIの技術でいうところの、「ディープラーニング*1」がそれに該当する。
他方、「正当化」の論理というのは、「後付け」の論理のことで、これは、人間になにかを「教える」、または、「説明する」際に必要になる、人間社会特有の論理である。
東は、前者の生成・学習する論理(ディープラーニング)は、公的な重要な場面では使用できないのではないか、と問題視する。
例えば、翻訳に使用する場合。
YouTubeの字幕レベルなら問題ないだろうが、これが、首相のスピーチの翻訳などの重要な場面でのレベルでは難しいだろうと。
なぜなら、AIに、「なぜこのような翻訳をしたのか」と問うてみても、人間が納得できるような答えは返ってこないからだ。
返ってくるとしたら、「なんとなくこうなった」、「学習していったらこうなった」となるのだろう。
そんな適当な、無根拠な答えの翻訳を、重要な場面で果たして人間は使用することができるだろうか。
したがって、この時必要になるのは、教える・説明する際の論理、つまり後付けの、正当化の論理ということになる。*2
ここで重要なのは、今考えられているのは、人間が中心となっている、人間社会での場合である。
これが、人間がAIに社会を任せ、AI中心の社会ならば、ディープラーニングの論理で構わないだろう。
だが、人間中心の社会となると、人間が納得する社会でなければならない。
そのためには、人間を納得させる論理、すなわち、後付けの、正当化の論理が必要となるわけである。
つまり、自分達が人間である以上、AIの限界というのは、人間の限界であるともいえるのだ。
したがって、自分達が人間である以上、人間中心の社会で使用する、または、人間が人間であることを守りたいと思う社会でのAIは、今後、人間を納得させるAI(人間のロジックに合うAI)が必要になり、そして、AIは人間を納得させられるのか、という問題も今後重要になってくるということだ。
「責任」という概念
以上のような話を東達がしていると、視聴者から、「人間はそんなに真面(まとも)なのか」というコメントが流れた。
つまり、人間も、ディープラーニング同様、学習の論理をただ積み上げていくだけで、後付けの論理など言わないのではないか。または、人間だってディープラーニング同様、そう信用できる代物ではないのではないか、ということだ。
これに東はこう返す。
「人間には責任という概念がある」
つまり、人間はなにかを求められたら、それに「答えなければならない」という、人間特有の概念、責任がある。
その責任のおかげにより、後付けの、正当化の論理を言うことができるわけだ。
だから、仮に誰かがなにかを求められ、そのことについて言及せずに逃走などしたら、そいつは信用できない、というレッテルを貼られるのは当然だろうということだ。
だから「責任」というのは重要な概念なのである。
そして、この社会をAIに任せるのではなく、人間が統治する社会、人間が人間であることを守りたい社会においては、この「責任」が重要になるのであり、また、そのような社会の中でAIを利用するにしても、では、どうやったらAIに責任をとらせることができるのか、が、とても重要な問題となって立ち現れてくる。
その分かりやすい例として、津田大介が自動運転車の例を出す。
もし事故が起きた場合、誰が責任をとるのか。
これが自動運転ではなく、普通に人間が運転していて、そして事故を起こした場合は、そこに在席していた人間に、「便宜的」に責任をとらせる。
だが、AIの場合は、どうすれば責任をとったことになるのだろうか。
これに加えて、茂木健一郎の発言も興味深かった。
「AIは死なない。究極、責任をとるということは死ぬこと」
これに追随する形で東が、「死なない」ということは、「個体性がない」ことと同義で、AIは個体性がないので、責任をとらせることが難しいという旨のことを言っていた。
統計的に見て、人間が運転するのと、AIにより自動運転走行するのでは、AIの方が事故率が少なくなるのでオールオーケー。という話ではなく、事故が起きた場合、誰に責任をとらせるのか、どこに責任の所在があるのか、そのような議論を進めないまま、ただ効率を優先してAIの技術を発展させても、それは難しいだろうと、だからこそ責任が重要なのだと、東は説いている。
「責任」はフィクション
そして、その責任の重要性に関して、補足する形でもう一つ東は述べる。
「ある種、責任というのはフィクションである」、と。
例えば、車で事故を起こした場合、ほんとのところ、その運転者の不注意なのか、車自体のミスなのか判然とせず曖昧な場合がある。ただ、曖昧のまま放置しておくことはできない。それがまかり通れば、社会は崩壊する。だから、上記でも書いたが、「便宜上」、そこに居合わせた人間に責任をとらせるのである。
この、「便宜上」というのはいわゆるフィクションであり、もっと言ってしまえば「嘘」である。
だが、このフィクション(嘘)の概念がないと、無秩序になり、社会は崩壊する。
このフィクション(嘘)こそが重要であり、フィクション(嘘)だからこそ、重要である。
この構造を多くの日本人は知らないのではないか、そのことも問題だと、東は指摘している。
また、建前と本音の話にもなった。
「建前はこう言っているけれども、本音は実はこうなんだ」、というのがあるが、それも実はおかしな話であり、本音はこうなんだ、と言い出したら、いや本音は・・・いや本音は・・・いや本音は・・・とどこまでも続いてしまい、本音が曖昧なものになってしまう。
だからこの場合、建前の段階こそ、真実なのであり、重要であるのだと、これまた東は言っている。
この、フィクション(嘘)が重要だという話は、先述した、「正当化、後付けの論理」と共通している。言ってしまえば、「正当化、後付けの論理」も、フィクション(嘘)なのである。
なぜならば、本来、人間がなにかができるようになるには、学習・生成(ディープラーニング)の論理が必要になるのであり、その後、それを人に教えたり説明したりする際、後付け的に、正当化(嘘)の論理を「でっちあげる」ことをするのだ。
しかし、その「でっちあげる」論理こそ、人間を納得させるために必要なのであり、そしてそれは、責任(フィクション)も然り、社会の秩序を保つためにはとても重要な概念なのである。
ニコ生の話は大体こんな感じであった。
僕が前回の記事でなぜあんなに長ったらしい記事を書いたのかといえば、もう大体察しはつくと思うが、僕の認識内で事故が起こり、僕がそれを無視してしまったら、僕はAIと同じになってしまうのではないか、「責任」という概念がある人間社会で、僕は人間として生きる資格はないのではないか、というのは極論で、そんなことはその時は露ほどにも思っていなかったが、でもあそこで僕が無視していたら、その後、絶対僕は後悔していただろうし、その後僕は僕自身のことを信用できないクソ野郎と自責の念に駆られていたに違いない。
いや、それもどうか怪しいところではある。なんだんかんだ、前に進むためにはなかったことにしよう、とか思ってしまうかもしれない。
いずれにせよ、僕はなにかに気づいて、やらなければならない、という気持ちに駆られたら、そう行動に移すようにしている。まあ、ただただ後悔したくないだけなのだが。
とにかく、上のニコ生の話は面白かったので書いてみました。
今回はこの辺で終わります。
ありがとうございました。
*1:ディープラーニング(深層学習)とは・・・従来のAI技術、例えば「機械学習」などでは、大量のデータを解析する際、AIに「この特徴に着目せよ」と開発者が指示しておくことで、AIがその指示箇所に着目し、自らそこに法則性を見出し、解析していくという、そのようなプロセスを辿るのが「機械学習」であった。
それに比べてディープラーニング(深層学習)は、人間の神経細胞を真似て作った「ニューラルネットワーク」というものにより、より強固な解析が可能となった。
機械学習が、開発者の「指示したものに着目する」のに対し、ディープラーニングは「AI自身が着目点を見つけ」、学習し向上していく技術である。
これにより可能になるのは、言語での表現が困難な指示も、AI自ら着目点を見出すので、より解析の幅が広がり、様々な可能性が期待できる。
上記で説明したことは、ほぼ以下の記事から参照したので、もっと詳しく知りたい方は、とても分かりやすく書いてあるのでぜひ読んでみてください。
*2:補足説明すると、ディープラーニングの論理というのは、なにかを学ぶ、「学習する」ということ。「学習」とは、なにかが身につくということでもあり、その「身についている最中」は、自覚的ではなく、身につき終わってから、身についたと感じる。
ということは、学習の論理とは、どこかの地点である飛躍が行われていることになる。つまり、ある論理から、次の論理にジャンプしているということだ。
このジャンプを論理的に語ることはできないので、後付けの、正当化の論理が必要となるのである。