考えたこと2

2024.9.24から、今までhttp:で始まっていたリンクが、https:に変わります。申し訳ありませんが、リンクが見られないときは、httpsに変えてみてください。
CALENDAR
<< April 2025 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 >>
+RECENT COMMENTS
+CATEGORIES
+ARCHIVES
+PROFILE
+OTHERS
XAI
こないだの日経を見ていたら、XAIという文字があった。
これは何かというと、Explainable AIのこと。
AIは何かを学んで賢くなっていくが、その結果を見ただけでは、どういう判断でその結果を出したのかわからない。
それを説明可能にするということだ。

AIを使うことに逡巡する企業の大きな理由は、AIが答えを出した「理由がわからない」ということ。
後付けで人間が考えても、なぜぞうなるのかわからない、ということだろう。

AIの将棋でも、従来なら考えられないような棋譜になるものがあるらしい。
定石ではなく、AIが作り出した新手だ。
AIは従来の対戦や自らちょっとチューニングを変えたAI同士で対戦し、それを編み出す。
しかし、あくまでAIはコードで書かれたプログラムだから、なぜその手を指したのかは聞くことはできない。
「勝つ」という目的があるだけだ。
将棋の場合は明確な目的があって、勝てばいいのだから思考過程はブラックボックスでもかまわない。

しかし、企業でAIを取り入れるところは、将棋のようにはいかないと思う。
いろんなケースがあって、その中からどれを選ぶかという場合など、判断理由は大事だ。
決定者には責任があるから困る。
AIは失敗したときの責任を取ってくれない。
そもそも、責任という概念がわからない。

結局、最後は人間が判断しないといけないのだ。
だから、経営に関することなど、AIを参考意見で聞く程度にしかならないのだろう。
突拍子もない意見をAIが出したときに、理由もわからずそれを採用する、というのには十分勇気がいる。

人間の脳を模して、考えさせているのに、理由がわからないというのもなあ。

人間自身だって、結局は理由をつけていても、こじつけの場合も多い。
人間のつけた理由は、よく考えたら理由になっていない、というようなこともあり得る。
直感を信じるというような人もいる。
所詮結果オーライなのだ。

しかし、それでも人間が判断したら、その決定について責任が発生する。
そういう仕組で、おおかたの世の中は成り立っている。

さらに、世の中の出来事は、起こってしまったらもう時間は戻れない。
いくら過去の事象を学習して、この時はきっとこうした方がよかったなどと実績を積んでも、実際にはそれが正しいかどうかはわからない。
やってみることができないからだ。

それに、大多数の人間はAIほど賢くない。
だからこそポピュリズムなどということが起こる。

AIと人間の関係は難しい。



| | 考えたこと | 01:13 | comments(0) | trackbacks(0) |

コメント
コメントする









この記事のトラックバックURL
http://hdsnght1957kgkt.blog.bai.ne.jp/trackback/237650
トラックバック