「機関紙連合通信社」は労働組合や市民団体の新聞編集向けに記事を配信しています

    AIは労働者を幸せにするのか(11)/ブラックボックス化する危険

     「AIによる判断を可視化する必要がある」――人工知能学会では複数の研究者からこうした声が出されている。

     トップ棋士を破ったAI「アルファ碁」の打った手の中には、プロ棋士でさえ「なぜ、あそこに打ったのか分からない」ものがあったという。つまり、AIの判断がブラックボックス化しつつあるということ。「可視化」発言の背景にはそのことへの危惧がある。

     「AIが出した結論の理由が人間に理解できないケースがあるが、AIを道具として使っている以上、事故を起こせば責任は使用者にある」「AIが選択する行動(意思決定)を、使う側の人間が説明できるようにしておくことが重要」

     こうした研究者の提起は、AIを利用する全ての個人・団体が肝に銘じるべき段階にきている。

     

    ●AIと人の目は別物

     

     例えば、ディープラーニングで精度が飛躍的に上がったといわれる画像認識。これには大きな穴があるといわれている。人工知能学会の山田誠二会長は「AIは人間と違うところを見ている。ある画像を判断させた場合、ほぼ100パーセント間違うケースがある」と指摘する。

     人の目には砂嵐のような画像ノイズにしか見えない絵を特定の数字だと判断したり、動物と判断したりすることがあるのだ。しかも、なぜAIがそう判断したのかを追跡することは困難とされている。

     政府のロードマップでは、AIによる診断支援や手術ロボットの実現が目玉の一つになっている。しかし、AIの間違った診断で人の命が失われる医療事故が発生しないのか。昨年、米テスラ自動車が自動運転のテスト中に起した事故も、衝突したトレーラーを車だと認識できなかったことから発生したと言われている。