AIは説明してくれないとは言うが?

雑記

AIを実社会で生かすためにはブラックボックスの問題があり、AIは説明ができない。詳しくはこの記事で自分なりに書いてある。

404 File Not Found

確かに現代社会では説明責任というものが付きまとい、実用性の面からディープラーニング(以下DLと訳す)を使うことはできないと講義では習った。そして、ホワイトボックス化していくために、精度を少し下げていくつかのルールで表し、人間でも分類の理由が分かるようにするという研究をしていると大学の先生は言っていた。

しかし、私はそれに疑問を持った。何十年も先を見据えると、精度を下げてまでホワイトボックス化する必要性がないような気がする。これらのことを考察していく。

 

世界は効率と引き換えに因果の理解をあきらめる

データの増大は一つ厄介な歪みを引き起こす。我々は世界で「何が」起きているかをこれまで以上に理解できるようになるが、「なぜか」はこれまでほど分からなくなる。
(2050年の技術 英「エコノミスト」誌は予測する)から引用

この文がこれからのAIのブラックボックス性を表している。社会は効率性を得ることができるが、システムの背後にある因果関係が理解できなくなってしまう。それはAIが想定するパターンが膨大かつ曖昧で、人間の理解を超えてしまうからだ。

だが、それでも人間の知能では叩き出せない高精度を出すことができる。そもそも人間が理解できない範囲でAIが高精度な結果を出力してくれたのに、それを人間の理解の中に押し込める必要があるのだろうか。現に日本メーカーはAIを実用化するために、説明できるAIを求めているらしいが。

ただ、人間が因果関係を理解できる範囲でものを考えなければならないということ自体がこれから先の未来では変わっていくのではないかと私は思う。

2050年までに世界は、効率性と引き換えに因果関係の理解をあきらめることに慣れていくだろう。ちょうど社会が啓蒙時代の終わりに、目で観察できること(太陽が地球の周りをまわっているなど)では自然現象を説明できないという事実を受け入れたのと同じように。データの前に人類は謙虚にならざるを得ない。
(2050年の技術 英「エコノミスト」誌は予測する)から引用

 

人類知能の補集合

落合陽一氏が提唱する未来の世界では、コンピュータの重要な役割の一つが「人類知能の補集合」になるということを著書デジタルネイチャーで挙げていた。人間の外側に不可知の領域をすべて把握しているコンピュータが外郭のように存在し、判断の補助をしてくれるというものだ。

 これまでの、法律、経営、政治そして医療も人間の限定的な処理能力の内側で学習して判断しなければならかったが、何十年も先のDLの発展性を考えると人間の知能の外側に出るということも考えなければいけないものだと私も考えている。

人間が因果を理解できないが効率的な社会とはどのようなものなのか。それがいつ頃到来するのかはまだわからないから何とも言えないが、ブラックボックス化が問題になるのは社会制度が人間の知能の中でおさまる間の話になるだろう。

 

コメント

タイトルとURLをコピーしました