![]() |
2019.07.28 Sunday
XAI
こないだの日経を見ていたら、XAIという文字があった。
これは何かというと、Explainable AIのこと。 AIは何かを学んで賢くなっていくが、その結果を見ただけでは、どういう判断でその結果を出したのかわからない。 それを説明可能にするということだ。 AIを使うことに逡巡する企業の大きな理由は、AIが答えを出した「理由がわからない」ということ。 後付けで人間が考えても、なぜぞうなるのかわからない、ということだろう。 AIの将棋でも、従来なら考えられないような棋譜になるものがあるらしい。 定石ではなく、AIが作り出した新手だ。 AIは従来の対戦や自らちょっとチューニングを変えたAI同士で対戦し、それを編み出す。 しかし、あくまでAIはコードで書かれたプログラムだから、なぜその手を指したのかは聞くことはできない。 「勝つ」という目的があるだけだ。 将棋の場合は明確な目的があって、勝てばいいのだから思考過程はブラックボックスでもかまわない。 しかし、企業でAIを取り入れるところは、将棋のようにはいかないと思う。 いろんなケースがあって、その中からどれを選ぶかという場合など、判断理由は大事だ。 決定者には責任があるから困る。 AIは失敗したときの責任を取ってくれない。 そもそも、責任という概念がわからない。 結局、最後は人間が判断しないといけないのだ。 だから、経営に関することなど、AIを参考意見で聞く程度にしかならないのだろう。 突拍子もない意見をAIが出したときに、理由もわからずそれを採用する、というのには十分勇気がいる。 人間の脳を模して、考えさせているのに、理由がわからないというのもなあ。 人間自身だって、結局は理由をつけていても、こじつけの場合も多い。 人間のつけた理由は、よく考えたら理由になっていない、というようなこともあり得る。 直感を信じるというような人もいる。 所詮結果オーライなのだ。 しかし、それでも人間が判断したら、その決定について責任が発生する。 そういう仕組で、おおかたの世の中は成り立っている。 さらに、世の中の出来事は、起こってしまったらもう時間は戻れない。 いくら過去の事象を学習して、この時はきっとこうした方がよかったなどと実績を積んでも、実際にはそれが正しいかどうかはわからない。 やってみることができないからだ。 それに、大多数の人間はAIほど賢くない。 だからこそポピュリズムなどということが起こる。 AIと人間の関係は難しい。 |
![]() |