Data Analysis

データ分析について語ります。

AIを工程の制御に活用することの功罪、あなたは責任を取れるでしょうか?

自動運転で事故を起こしたら、誰の責任か

考えたことありますか?(以下、人とでてきたら「人や会社」と読み換えましょう)

自動運転のソフトを作った人、それに学習させたデータを取得した人・学習させた人、そのシステムを承認した人、車を作った人、それを買った人、運転した人、事故の相手、使用時の追加学習データを入れた人(運用時に追加で学習する場合。過去の運転者とか周囲の運転者など)もしくはサイバー攻撃で乗っ取った人(その行為があればですが)。

普通の事故なら運転していた人が責任を負いますね。自動運転ではどうでしょうか?

レベル4の自動運転については、専門家から「現行法が規定する自動車とは別物」と判断されており、要は現行法でドライバに責任を負わせることは困難、とされています。とはいえ、そのうち国が法整備を進めるはずなので、そのうち責任範囲はしっかり決まってくるでしょう。

工程でAIで制御補正していたらトラブル発生、誰が対処し、誰の責任か

同じことが言えますね。AIモデルを作った人、モデルを動かすシステムの担当者、モデルやシステムのメンテナ(AIモデルは設備のメンテナンスと同様、メンテナンスが必須です)、AIシステムの承認者・品管のモデル承認者(モデルが追加の学習やメンテ等で変更された場合にどうするか、も重要)、出荷検査した人、受入検査した人、製品作った人、製品買った人、製品使った人。さて、どうなるでしょうか?

"AI制御を使わないほうがいい"というメッセージではないです、使うならちゃんと備えましょうということ。トラブルが大量の不良品や市場クレームだったら大変です。その時どうにかしろと言われても相当つらいです。特に深層学習の場合は最悪手の打ちようがないかもしれません。導入までにしっかりと体制を整え,、危険予知・緊急対応を決め、リスクマネージメントを行って、トラブルに備えましょう。もちろんセキュリティ対策も必要です。いざ現場で何か発生したら、AIを導入した人は少なからず何らかの対応を求められるでしょう。自分を守るためにもしっかりやっときましょう。

AIによる予想によって工程をメンテする・不具合を予知対処する(間違えても、暴走しても人が無視すれば済む)、機械学習で問題原因を特定し従来型の工程改善につなげ源流改善を行う、などは、AIが工程に介入するわけではありません。安心してどんどん進められますね。