AIのブラックボックス問題

AIのブラックボックス問題について考える。例えば、囲碁や将棋のAIとAIを無限に対局させて辿り着く解は過程も含めて人間の理解能力を遥かに凌駕することになる。規則のあるゲームに限らず、汎用性AIが広く活躍することになるのは確実である。解答も理解不可能であって、その過程さえ理解不可能になった場合、人間はこれをどう判断したらいいのだろうか?問題は複雑そうにみえて単純かもしれない。つまり結論だけを取りだすのである。単純とは、人の理解を抜きにするのは危険という思考の常識を諦めれば済むことだから。理解不可能だが結論はできあがっている状況がこれからも増えるに違いない。状況とはこのようなもの。「なんでこうなるのだか分からない。でもここに答えがある。間違っているのか正しいのかも分からない…」。AIの思考の過程を明らかにしようとしたってすぐに限界がくる筈なので無駄な労力になるだけ。だから結論だけをどう料理するかに専心すればいい。当面はAIに人間が理解できる問題を入力して理解不可能な出力が結論となる。この一連の思考過程の中で最後の結末だけを道具として使用するようになるのが望ましい。未知を仮に既知として処理する作業は一般的になっている。同じくAIの解を仮に理解できたものとして、素直にAIによる解として有効利用する。つまりわからないけれど使う。慣れの問題であってブラックボックスに慣れるまで一悶着が起きるだけの話。理解や同意なしに物事を前に進めるのにはまだ抵抗があるだろうが、AIのディープラーニングは、こうした人知が及ばなくても留まらずに前に進むべき人間の運命の必然を予感させる。我々の眼前の世界は、理解不可能が溢れかえった海のような場にあって、手に持った機械がどのように動いているか知らないのに自由に操っているのとまったく同じことを知性の領域でする。

0コメント

  • 1000 / 1000