医療と人工知能の未来を語り合う会(12/5)①

15068867_10207178287647985_7479402238569013559_o

12月5日にデジタルハリウッド大学院を会場として、遠隔医療と人工知能をテーマとした講演会が開催された。

医療における人工知能はもう珍しい物ではなくなってきている。胸のレントゲンから異常所見をコンピュータが自動でピックアップするようなシステムがでてきている。また、実証実験段階ではあるが、脳のMRIの動脈瘤を見つけるアルゴリズムが出てきている。

そんな中で、人工知能を医療に応用していく上で、どんなことを考えていく必要があるかについて、法律の観点、テクノロジーの観点、医療現場の観点からそれぞれ講演とディスカッションが行われた。

 

まず、神戸でベンチャー企業を支援するSTORIA法律事務所の柿沼先生が講演された。以下は、柿沼先生の講演の論旨をまとめたものである。

AIの分野における議論はまだ明確なものが無い状況である。その為、本講演の内容は、確定した事実や法解釈ではなく、柿沼先生個人の意見が多分に含まれているということであった。今後も議論の余地があることを踏まえて読んで頂きたい。

<講演内容>

・AIは作るフェーズと使うフェーズの問題に分けられる

AIには「作る」と「使う」という2つのフェーズがあり、人工知能の基礎の部分について触れた上で、それぞれの問題について取り上げていく。

まずは「作る」の問題。例えば、「論文データを用いてAIを作成出来るか?」や、「患者様のデータを利用してAIを作成出来るか?」といった問題が挙げられる。例えば、AIの判断モデルを作る時に予め生データや学習用データを使ってモデルを作るが、その際にデータの複製などが行われる。データの複製は無許諾で出来るのか?また、医療において患者様のデータを利用する場面も考えられるが、どのような処理をすれば適法にAIを作ることが出来るのかが問題となる。

次に「使う」フェーズでの問題。例えば、診察AIが提示した診察方法にミスがあった場合、診察AIが癌を見落とした場合にどう対応すればよいかといった問題がある。

深層学習がAIの新たな道を開いた(出典:pixabey)

深層学習がAIの新たな道を開いた(出典:pixabey)

 

・そもそもAIとはなにか?

AIは特に定義があるわけではないが、ここでは「人間の知的能力の一部または全部をコンピュータで代替するもの」と考えればよい。具体的には、人間の活動のうち、外からの情報をうけて、何らかの認識、予測、翻訳、レコメンドをする部分を人工知能で補う。何らかの情報を処理して結果を出力するプロセスを、コンピュータで代替するのが人工知能の基本的な発想である。

AIも、簡単に言えば人間と同じような判断をする判断モデルのことであり、情報を入れると、人間と同じように認識、予測、翻訳をする。その為には、適切な判断モデルを作らなければならない。作る方法において、何段階かある。

AIの判断モデルには3段階あるという。第1段階は、人間自身がアルゴリズム・プログラムを作る人工知能。心電図を予測するAIの場合、人間の心電図の波形を全部アルゴリズムに組んで、人間がプログラムを手入力で記述している。これは、全て人間が一から特徴を機械に教えて、判断モデルを作らなければいけない。人間が分からないプログラムは書きようが無いし、一からプログラムを書くので労力がいる。

第2段階は、機械学習を取り入れた人工知能。この段階では、人間が全て記述しなくても、判断モデルをプログラムが自動的に修正していく。人間が正解データを予め教えておき、機械学習のモデルを作る。そこから得られた出力結果を実際の正解データと対比させて修正を加えていく。結果の出力と修正を繰り返していくことで、自動的に判断モデルが作られる。

第3段階はディープラーニングを取り入れた人工知能。画像のどの特徴量に着目すればよいかも人工知能が判断してくれる。これまでの機械学習は1年かけて1%エラー率が下がると言う地道な世界であったが、ディープラーニングによって、ブレークスルーがあり、より精度の高い人工知能が作られるようになった。ではどんなことに応用されるのか?

画像認識AIを作るときを例に挙げる。まずデータを沢山収集し、生データの集合に正解のラベルをつけることで、学習用のデータに整形する。この学習データについて、ある判断モデルを用いて分類させることで、分類結果の評価をする。評価が良くなるようにプログラムが判断モデルを自動的に修正していく。最終的な判断モデルが出来上がる。作るのには時間がかかるが、使うフェーズでは時間がかからない。

AIの正体はこうした学習の結果済みのモデルである。学習済みのモデルとは、ネットワークの構造と各リンクの重みづけを表したものであり、外見上は、膨大な数値の列である。

 

(出典:pixabey)

データを扱う際、個人情報の扱いは重要だ(出典:pixabey)

・作るフェーズの問題点

医療現場においても、AIを用いた診断や治療方法の選択が行われるようになってきた。

人工知能(AI)を活用した統合的がん医療システム 開発プロジェクト開始(国立がん研究センター 2016年11月29日)

人工知能 病名突き止め患者の命救う 国内初か(NHK かぶんブログ 2016年8月4日)

これらのAIの作成に関しては、大量のデータの存在が必要になる。扱うデータの種類を確認する必要がある。

AIを作成していく上で、考えるべきデータの種類にはいくつかある。

誰かが著作権を有しているデータ・・・例:画像(写真など)・文章(論文など)
個人情報
誰も権利を有していないデータ・・・例:工場のロボット動作に関するデータ

③のデータは利用する際に権利に関する手続きは特に必要ないが、のデータでは権利を侵害しないように事前に何らかの手続きが必要である。法的裏付けが無い限り、そのままでは活用出来ない。

AI作成に際して利用されるデータとして、医学論文・文献と、患者様の診療データが必要である。おおまかに前者は①、後者は②のデータと分類出来る。

①のデータの扱い方については、著作権法47条の7(条文のまとめサイト(法庫.com)はこちら)に記載があり、AIの作成の際には大いに利用できると思われる。日本はデータの取扱いに厳しいが、著作権47条の7の条文は大きな助けになる。電子計算機による情報解析を行うことを目的とする場合には、無許諾で著作物のコピー・改変が出来るということである。

ここでいう情報解析とは、多数の著作物その他の大量の情報から、当該情報を構成する言語、音、映像その他の要素に係る情報を抽出し、比較、分類その他の統計的な解析を行うことである。ただし、情報解析を行う者の用に供するために作成されたデータベースの著作物についてはコピーが出来ないとしている。

海外では、外部のアプリケーションとAPIで連携出来る医用画像のデータベースが存在する。(出典:TCIA)

海外では、外部のアプリケーションとAPIで連携出来る医用画像のデータベースが存在する。(出典:TCIA)

 

AIを作成するにあたり、データを集める作業が発生する。データを集める=コピーするということである。本来、著作権のある論文などは許諾を得なければ利用出来ない。しかし、47条の7の条文(「電子計算機による情報解析~」のくだり)がある為に、AIの作成の為に個別の許諾がなくともデータを集めることが出来るはずだ。データを使える形に処理をして、データセットを作る場合も同様の理由で行えるだろう。

②のデータ、個人情報の場合は、匿名化すればよい。個人情報の処理方法は、様々なガイドラインがある。個人情報保護法の医療分野のガイドラインもあり、匿名化の方法も書いてある。

医療・介護関係事業者における個人情報の適切な取扱いのためのガイドライン(平成22年9月17日改正 厚生労働省)

氏名や生年月日などを抹消すれば、匿名化することが出来るが、個人と対応した情報をリスト化したファイルなどが別に存在していると、完全に匿名化出来ていないことになる。また、特別な症例ケースなどで個人を完全に匿名化出来ていない場合には、何らかの別の処理が必要になる。

 

(出典:pixabey)

AIの判断は、最終的に誰の責任?(出典:pixabey)

 

・使うフェーズの問題点

もし、医師がAIを活用していながら、疾患を見落としてしまった場合は、誰が責任をとるのか、という問題が発生する。

AIの学習済みモデルは、巨大な数値の羅列になっており、学習済みモデル(AI)の内部でどのようなことが行われているのかは、人間には分からない。

人間は何らかの判断のプロセスがあり、言語化出来ることが多いだろうが、AIの学習モデルでは判断が難しい。

因みに自動運転のAIでも同様のことが言える。自動運転にもレベルがあり、判断も運転も完全に機械が行うAIの場合は、人間に責任は無い。

しかし、完全な自動診療は今のところありえない。投薬や注射など人が介在する部分が必ず残るだろう。その場合、AIで一部の判断を自動化しても、何らかの形で人間の責任は残ると考えられる。

そもそも、医療過誤とは、求められる医療水準に達していない行為のこと。診療のガイドラインに沿った治療、診察を行えていない場合は、医師による医療過誤ということになるだろう。

では、AIの場合はどうだろうか?

通常の医療機器であれば、常識的にこれはおかしいという数値・方針が表示された場合、その数値・方針に従った場合、医師は「過失あり」と見なされる。

しかし、AIのミスは、通常の医療機器が故障して誤って数値を表示してしまった場合とは異なる。もしAIの場合、「常識的にこれはおかしい」という数値・方針が表示された場合でも、AlphaGOの場合のようにAIの答えが「定石でなくても正しい」可能性がある。その為、AIの指示に従った場合、医師は「過失なし」とされる可能性がある。この場合の責任は誰に回って来るのかは、検討する必要がある。

この「使う」フェーズは、今後更に医療AIが普及してから問題になるだろう。

 

Follow me!

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

CAPTCHA