説明可能なAI

単なる機械学習では、特徴量を決めるのは人間だ

一方、機械学習の一つであるディープラーニングにおいて、特徴量を決めるのはコンピュータ
コンピュータが機械学習で特徴量を決めるということは、評価関数そのものが人間にとってブラックボックスになることを意味する
すなわち、入力・出力データやその中間層のデータなどを見てもコンピュータがどういう特徴を抽出しているのかは人間には分からない
こういったAIが判断する分野については、企業などの説明責任をどうするかがポイントとなる
例えば、ディープラーニングを活用した金融商品で損失を出した時に、企業が顧客に対して、AIが何に基づいて判断したのかディープラーニングなので分かりません、と言ったら説明責任を果たしていないことになる

ディープラーニングといった新しい技術を社会に実装していくときには、倫理などが必要となる
技術ドリブンの側面だけではなく、社会にどう受け止められるのか、そのときに必要となるのは何か、という視点からも世の中・企業を見ていくと面白い

f:id:AmazingMasa:20181216232544j:plain

説明責任を求めるAI