ホーム> 政策について> 審議会・研究会等> 厚生科学課が実施する検討会等> 保健医療分野AI開発加速コンソーシアム> 第3回 保健医療分野AI開発加速コンソーシアム 議事録

第3回 保健医療分野AI開発加速コンソーシアム 議事録
 
○ 日時 平成30年11月22日(木) 14:00~16:00
 
○ 場所 中央合同庁舎第5号館 厚生労働省 省議室(9階)

○ 出席者(50音順)
(構成員)◎北野構成員、田辺構成員、豊田構成員、羽鳥構成員、保科構成員、堀川構成員、間野構成員、宮田構成員、山本構成員(◎は座長)
(代理人)市川構成員代理(辻井構成員の代理出席)、井本構成員代理(末松構成員の代理出席)、小島構成員代理(山内構成員の代理出席)、近藤構成員代理(米田構成員の代理出席)、齊藤構成員代理(西川構成員の代理出席)
(オブザーバー)飯村室長、岡企画官、葛西技術参与、田中参事官、西川課長、信朝政府CIO補佐官、原参事官
 
○ 議題
 (1)開会
 (2)議事
   [1]Road Blockに関する考え方について
     ((4)データ転送・標準化/匿名化、(5)クラウドでの計算/データストレージ、
      (6)臨床での検証、(8)商用展開/アップデート、(9)その他)
   [2]各Road Blockに対する迅速に対応すべき事項(案)
     ((1)IRB、(2)Informed consent、(3)アノテーション/ラベリング、
      (7)PMDA審査/薬事承認)
   [3]次世代医療基盤法について
   [4]その他
 (3)閉会
 
○ 配付資料
資料1 AI活用を前提としたヘルスケアプラットフォーム(保科構成員提出資料)
資料2 AIの利活用促進とセキュリティ(田辺構成員提出資料)
資料3 現場での導入に向けた課題(山内構成員提出資料)
資料4 各Road Blockに対する迅速に対応すべき事項(案)
資料5 次世代医療基盤法について(健康・医療戦略室提出資料)
 
参考資料1 保健医療分野AI開発加速コンソーシアム 開催要領
参考資料2 第3回コンソーシアムでの論点
参考資料3 Road Blockに対する構成員からのご意見
参考資料4 保健医療分野AI開発加速コンソーシアム 議論の進め方(案)
 
○ 議事
(事務局)定刻になりましたので、「第3回保健医療分野AI開発加速コンソーシアム」を開催させていただきます。私は、10月15日付けで厚生科学課に着任いたしました、医療イノベーション企画官の江浪と申します。よろしくお願いいたします。皆様方におかれましては、ご多忙のもかかわらずご出席いただきまして誠にありがとうございます。まず初めに、事務局より構成員の出欠についてご報告をいたします。
本日は、松尾構成員、渡部構成員より欠席との連絡をいただいております。本日ご欠席の構成員の代理出席でご出席いただいている方でございますが、国立研究開発法人医薬基盤・健康・栄養研究所 理事長の米田副座長の代理として近藤所長。
(近藤構成員)近藤でございます。よろしくお願いします。
(事務局)国立研究開発法人日本医療研究開発機構 理事長の末松構成員の代理として、臨床研究・治験基盤事業部 井本部長。
(井本構成員)井本でございます。よろしくお願いします。
(事務局)国立研究開発法人産業技術総合研究所 人工知能研究センター 研究センター長の辻井構成員の代理として、市川副センター長。
(市川構成員)市川でございます。
(事務局)Preferred Networks代表取締役社長、最高経営責任者の西川構成員の代理として、ビジネス開発部門の齊藤様。
(齊藤構成員)齊藤でございます。
(事務局)聖路加国際病院 副院長の山内構成員の代理として、呼吸器外科・ロボット手術センター小島様にご出席いただいております。
(小島構成員)小島でございます。
(事務局)また、本日はオブザーバーとして、関係省庁等から多くの方にご出席をいただいております。内閣官房健康・医療戦略室 田中参事官。内閣官房情報通信技術総合戦略室 信朝政府CIO補佐官。個人情報保護委員会事務局 岡企画官、経済産業省 商務・サービスグループ ヘルスケア産業課の西川課長、文部科学省 研究振興局の原参事官、総務省 情報流通振興課 情報流通高度化推進室の飯村室長、厚生労働省データヘルス改革推進本部プロジェクトチームの葛西技術参与にご出席いただいております。
その他の事務局及び関係部局等からの出席者の方につきましては「事務局等出席者一覧」に記載のとおりですので、個々のご紹介は割愛させていただきます。
カメラ頭撮りはここまでとさせていただきますので、ご協力のほうをよろしくお願いいたします。それでは、以後の議事進行につきましては座長にお願いします。
(北野座長)議事に入りますが、まず、資料の確認を事務局のほうからお願いします。
(事務局)資料の確認を私のほうからさせていただきます。本日はペーパーレスにて実施をさせていただきますこと、ご了承のほどよろしくお願いいたします。
資料につきましては、議事次第、資料1~5、参考資料1~4、また、過去2回分の資料に関しまして、お手元にございますタブレットに格納しております。タブレットの操作方法につきましては、「タブレット操作説明書」をご確認いただければと思います。ご不明な点がございましたら、職員が参りますので挙手でお知らせいただければと思います。
また、参考資料2をご覧いただきたいと思います。これは、第1回コンソーシアムにおきまして北野座長からご提出いただきましたRoad Blockの図を、事務局において一部改変したものでございますけれども、赤枠で囲っている領域、論点の4、5、6、8、9が、本日新たにご議論いただく論点でございます。また、参考資料3は、これらの論点に対しまして第1回会議後に構成員からいただきましたご意見をまとめたものになっておりまのすで、適宜ご参照いただければと思います。よろしくお願いいたします。
(北野座長)議事に入ります。今日は3名の方にご資料を提出いただきまして、その議論をしていきたいと思いますが、これは今までのRoad Blockの中でわりと上流のところです。IRB、インフォームドコンセント、キュレーションのところをやってきましたけれども、その次にどうなっていくかという部分でやっていきます。
最初1時間は3名の方々のご発表と質疑応答をしまして、後半、今までのことをサマリーしてどういうアクションをしていくかというところを、事務局のほうと先生方のご意見を個別にお伺いしてまとめていきますのでその話に入って、最後、また自由討議をしていきたいと思います。次世代基盤法の説明も後半でいただこうと思います。
まず、資料1のご説明をお願いしたいと思います。
(保科構成員)アクセンチュアの保科でございます。私からは資料1を使ってRoad Blockの(4)データ転送匿名化、(5)クラウドでの計算、データストレージ、(6)臨床での検証、(8)商用展開アップデートに関わるお話をさせていただこうと思います。これらのお話は医療プラットフォーム全体に関わるお話なのかなと思っていますので、まず最初にどういった世界観が今後必要とされるのか、そういったものを踏まえながらお話しさせていただきたいと思います。
○日常生活に浸透する医療サービスの現実
まず1ページ目に、日常生活に浸透する医療サービスの実現という絵を描かせていただいています。これまでの会合では、主に画像診断のような領域を中心に議論されてきたかと思うんですけれども、こういった画像診断はもちろんのこと、先々のことを考えると、日常生活から得られる様々なライフログ、それはウエアラブルだけでなく、食生活のデータとか、様々なデータを分析してAIで処理していくことになっていくのかなと思っております。
ここでは病気を治すということのみならず、様々な健康管理に役立つサービスについても、いわゆるサービスを提供するプレーヤーから、多種多様なデータを集めてサービスが出てくると想定しています。なので、こういったプラットフォームを考える時には、そういったことを踏まえながら仕組みを考えていくというのが重要なのかなと考えております。
○統合的な医療プラットフォームの必要性
その時にどういったプレーヤーがいるのかというお話ですけれども、病院の医師の皆さん、患者さんはもちろんのこと、製薬企業とか、患者さんを支える家族の皆さんもそうですし、行政、様々なサービスを提供するサービス事業者、それぞれの期待に応えるような仕組みが必要なのかなと。それぞれの期待に応えることもそうですし、それぞれのプレーヤーが提供できる役割もある。そういった世界観を視野に入れながら、AIの基盤を考えていかなくてはいけないと思っております。
○ヘルスケアプラットフォームで検証すべきこと、必要なデータ
具体的な価値創出という意味ではどういったものが必要になるのかというところで、いわゆる病院内で保有するデータ。プラス、病院外のデータを組み合わせることによって生み出される価値、あるいはサービスというものがあるのかなと思っています。こういったところが、まさに今回の論点4のデータ転送標準化・匿名化に関わってくるところなのかなと考えています。
○異業種からの新規参入
今お話ししたように、多様なデータを使って新たな医療サービスを提供するという意味では、既に異業種からの新規参入が進んでいると思っていまして、デジタル界の巨人であるアップル、グーグルはもちろん、ヘルスケア領域にかなり本気で参入を進めていますし、デジタル界の巨人だけでなく、様々な医療スタートアップが次々と生まれているのが現状だというふうに認識しています。こういったプレーヤーはもはや無視できない存在だと思っていて、こういったプレーヤーが参入してくるというところも踏まえながら、そのプラットフォームを考えていく必要があるのかなと思っております。
○病院と企業におけるパートナーシップの重要性
今いろんなプレーヤーのお話をしましたけれども、様々なデータを、潜在的な患者さんも含めて、患者の役に立つ多様なサービスを、しかも、スピード感を持って生み出していくという意味では、デジタルのエコシステムというのが重要なのかなと考えています。デジタルのエコシステムは、スピーディーで安価な開発をしていくことができる環境が必要だと思うんですけれども、一方で、医療の領域なので、スピードだけを追求してはいけないというのはもちろんで、セキュリティとプライバシーの担保というのが非常に重要なのかなと考えております。
○病院と企業をつなぐプラットフォーム
その時に、いわゆる病院や企業がつながってサービス開発できるようなプラットフォームが重要で、医療機関の大規模なシステムは、まだレガシーテクノロジーで構築されているケースが多いとは思いますけれども、どんどん、よりデジタル化というか、マイクロサービス、APIのような外部インタフェースを使いながらサービスを組み合わせて進化していくことが、今後より進んでいくだろうと思っています。
その時にポイントとなるのが、まさにRoad Blockで挙げられている論点4番のデータ転送、標準化、セキュリティだというふうに考えております。データ転送に関しましては、先ほどお話ししたようにウエアラブルデータをはじめとする病院外のデータの連係が重要になるだろう。その仕組みについては、日本だけでなく、アメリカ、イギリスで、そういった親和性はかなり検討されていますし、この資料でも書かせていただいてますけれども、HL7、FHIRといった仕組みが、アメリカ、イギリスでかなり導入が進んできていますけれども、こういったものも参考にするべきものなのかなと考えております。
あと、標準化という意味では多種多様なデータソースをすべて標準化していくのは難しいところもあるのかなと思いますが、一方で、多様なデータから、いわゆるクレンジングの手間を最小限に抑えつつ、医療に関する予測、例えば死亡に関する予想だとか、入院期間、患者の再入院の可能性みたいなものを出していくという事例も出てきているので、そういった意味ではFHIRなども利用しつつ、多様なデータを解析する手法を確立されているところもあるので、無理やり標準化することはしないほうがいいとは思いますけれども、適度な標準化は進めるべきかなと思っています。
あと、病院と、そのほかサービス提供の会社をつなぐプラットフォームという意味では、API、Application Programing Interfaceもかなり重要だと思うので、ここは医療に限らず様々なマネージメントツールが、今、デジタルの世界で普及してきていますので、そういったものは活用していくべきだろうと思っております。
セキュリティ匿名化に関しましては、改ざんを防ぐという意味でブロックチェーン技術も重要だと思いますし、何よりセキュリティを保護したまま分析するというところでは、PPDM、いわゆる暗合したものでのデータ活用の技術も検討していかなくてはいけないのかなと思います。
○インフラアーキテクチャ最適化(1/2)
処理をするハードウエア環境のほうに話を進めたいと思います。論点5は、まさにクラウドでの計算、データストレージというお話です。クラウドという意味では、拡張性とか最新技術の導入の容易さ、あとは、その時々の利用量に合わせてコストを使っていくということを考えると、専用サーバだけではなくて、クラウド環境というのは避けて通れないのかなと思っております。
その時に、クラウドのみならず、エッジAIの活用と書かせていただいていますが、エッジ処理、いわゆる手元にある機械の処理が必要になってくるんだろうなと考えています。というのは、クラウドというとどうしてもネットワーク越しになりますけれども、ネットワーク越しのやり取りで発生するボトルネックというのは必ず出てくると思いますし、セキュリティ要件を厳密な意味で完全に満たせるのは、エッジ処理というケースもあるのかなと。
あと、AI処理で扱う画像の話が出てきていますけれども、解像度の高い動画もどんどん扱うようになってくると思いますが、その時に全部クラウドに上げられるのかどうかという話もあるのかなと考えております。
○インフラアーキテクチャ最適化(2/2)
インフラアーキテクチャの2枚目になりますが、ここは使い分けなのかなと思っています。ネットワーク先にあるクラウド、既存のシステム環境を含むミドル、そして、機械側に組み込まれるエッジという組み合わせを考えた場合に、多様なデータ、大量なデータから学習するというところはクラウド環境になるだろうし、秘匿性が極めて高い情報の取り扱い、クラウド環境へ送るデータの選別とか前処理というのはミドル領域であるだろうし、あとは、例えば手術をサポートする機械みたいなリアルタイム性を要求するようなものは、エッジでの処理になっていくのかと考えております。
○AIシステムの検証
AIシステムそのものの話に進めたいと思います。AIシステムを定着していくのはいくつかポイントがあるのかなと思っていまして、4点書かせていただいています。
まず1つは、「ガードレールを設置する」と書かせていただいていますが、例えば医療行為の参考情報、診断の支援は、AIで何か判断をサポートしていくのはいいけれども、医療行為そのものはNGといった、どこまでがOKでどこからがNGなのか境界をしっかり決める。それを周知することが重要なのかなと考えています。
その時に、2つ目の「人間によるチェックポイントを設ける」と書かせていただいていますが、医療分野で真っ先にAIを活用していくのは診断支援の分野なのかなと思います。その時に、最終判断する人間が結果を正しく解釈できるのかどうかというのが、アルゴリズムそのものの正確性と同様に重要だと思っていて、医療現場においては、おそらく診断のところはかなり短い時間、場合によっては瞬時の判断が多く要求されると思うので、いわゆる視覚的なアウトプットが非常に重要なのかなと感じています。
3つ目に「倫理的クラッシャブルゾーンを最小限にする」と書かせていただいていますが、AIを使ったとしても、最後、責任は人間が負うという形になるのかなと思っています。その時に、その影響をいかに最小限にするかが重要なのかなと思っていまして、いくつか要素があると思っているんですけど、いわゆるAIが何か示唆を出したとしても、人間がAIに異を唱える能力、これはおかしいんじゃないかというふうにきちんと考え、判断することが人間には要求されるであろうし、アルゴリズムそのものが何か示唆を出すとは思うんですけれども、そのアルゴリズムにも説明責任はついてくるだろう。そういったものを考えて設計しないといけないだろうなと思っています。あと、AIのそもそも評価をする仕組みも考えていかなくてはいけないし、何より、今お話ししたものを継続的にモニタリングしていく仕組みを考えていかなくてはいけないんだろうなと感じています。
4つ目は、見方が違う、「倫理的心理的問題を検討する」と書かせていただいていますが、AIに異を唱える能力が人間には必要になるだろうとお話しさせていただいた一方で、AIをきちんと活用していくには人間がAIを信頼することも重要なのかなと。その時に、きちんと人間がAIの結果を上書きできる、最終決定するのは人間であるというプロセスがあることによって初めて、AIと人間の信頼関係というと言いすぎかもしれないですけど、そういったものが生まれてくるのかなと考えています。今お話しした観点というのは、こういったシステムを考える時に、最初の段階からしっかり考えなくてはいけないポイントなのかなと考えております。
○AIシステムの運用にあたって 学習データの重要性
最後に、AIシステムの運用、商用展開アップデートというところで、AIシステムの運用ということを考えた場合に、AIのシステムなので、学習し続けて精度を向上させることが重要である一方で、それは裏を返すなら、学習に使ったデータ次第で正しい結果も生み出すし、誤ったアウトプットを出すこともあるということが、非常に重要なポイントなのかなと考えています。
その時に、これまで議論に出てきておりますけれども、信頼性の高いデータを効率よく収集する仕組みが必要だし、品質の低いデータの影響をいかに抑えるのかというのも重要かなと思っています。これに関しては、いわゆるアルゴリズムに詳しいだけではなくて、不正確なデータによるリスクをきちんと見極めて、必要な対策を指揮する専門家の知識が必要なのかなと。すなわちデータサイエンスだけではなくて、セキュリティの知識も必要になってくるだろう。なので、こういった知識を併せ持った人の育成と参画が必要ということで、2つ目の資料のところで、田辺さんの発表資料を事前に拝見させていただいたら、そこにつながるようなお話なのかなと考えております。
(北野座長)ありがとうございます。非常に示唆に富んだお話をいただきました。ありがとうございます。引き続き、田辺さんの方から資料2の説明をいただきます。3名の方に説明いただいて、それから50分ぐらい議論を取っていますので、それでお願いします。
(田辺構成員)私のほうからも同様に、Road Blockの4についてご説明をさせていただきます。データ移送と匿名化ということで、今、保科先生からいろいろご説明いただいた中で、私から、僭越ながらもうちょっと細かい話というか、私は今、お隣にいるAMEDさんと一緒に研究のほうでも多少医療のビッグデータ分析に関わっていまして、現場で起きているお話に基づいてお話をさせていただきたいと思っております。
【AIの利活用促進とセキュリティ(セキュアにAIを利用するために)~Road Block(4) 他~】
医療関係は機微な情報を扱うので、セキュアな環境を用意したほうがいいというのは重要ではあるんですけれども、その一方で、いきすぎによって利便性の低下を招くという意味では、それはそれであまりよろしくないことでもあるので、バランスを取っていったほうがいいよねと。そのバランスを取る時に何が脅威になるのかということを正しく理解をして、その脅威に対して対策を打つことが有用ではないかと考えて、資料を取りまとめております。
○人工知能に関する誤解 何が“脅威”になるのか?
人工知能という、いわゆるバズワードというか、流行り言葉として、活字として「人工知能」「AI」というのを目にしない日がないぐらい、よく見るものではあるんですけれども、一方で、機械が出した結論にそのまま人が従って良いのかというご懸念ですとか、私がお話を伺った中では、深層学習のような、ブラックボックスの状態のものが導き出した結論に従って、医療従事者の方が結論を出されるのは非常に不安であると。こういった技術を使うのは時期尚早なのではないかというご意見もあるんですけれども、今まさに保科さんからお話があったとおり、AIに対して本当のところ何が脅威なんだろうと。人工知能を使うことが脅威なのか、それともデータ自体が誤っているということのほうが脅威になるのか、どの観点から見て何が脅威になるのかということは、明確にしなければいけないと考えた次第でございます。
数年前に「AI」という言葉と同じく、情報システムの世界で、流行り言葉で「クラウド」という言葉が出てきた時も、いろんな解釈がございまして、当時は、単に自分の会社のシステムを外部のデータセンターに預けて、その外部のデータセンターにあるシステムに自分の端末からアクセスするだけでもクラウドサービスというような誤解があったりもしましたけれども、それに対して、米国の国立標準技術研究所、NISTというところが、クラウドというのはこういうものです。クラウドのサービスにはこういう種類がありますという明確な定義を出されました。
AIについても、例えば深層学習ってどういうものですよとか、機械学習ってどういうものですよとか、教師ありの学習、教師なしの学習、強化学習というのはこういうものですよと。なので、決してガラガラポンで人間が全く想定しないものが出てくるわけではなくて、アルゴリズムという論理式があって、それに従って結論が出されているものですので、学習の仕組み自体が怖いというよりは、学習のデータであったり、学習のさせ方を注意して見ていかなければいけない。
品質を確保するようなイメージで、人間がきちんとモニターしなければいけないんじゃないかという観点もございますので、まずは一般的に国民の皆様ですとか、こういった技術にあまり明るくない方でも、これは安心して使えるものなんだ、逆にこういうところは注意して見ていかなければいけないということをまずご理解いただく上では、1つ定義としてAIはというようなお話ですとか、こういう学習というのはどういうふうに行われていますということが明示されるべきではないか。それによって脅威というものを正しく理解していただいて、使う方に安心して見ていただければなということでございます。
○人工知能の学習方法
2ページ目は学習の種類について書かせていただいているものですので、お時間のある時にぜひご覧ください。
○情報セキュリティ対策の方向性
引き続きまして、セキュリティ対策ということで、これはAIからちょっと外れるかもしれませんが、医療のビッグデータを使うという全体像の中から見た情報セキュリティ対策ということで、1つお話させていただきたいと思います。
これまで情報セキュリティといいますと、標的型攻撃といわれる、外部から何か悪い人が入ってきて情報を盗んでいったり、システムに何か障害を与えたりというような、外から何かが入ってきて影響を与えるということを脅威として捉えて、今でも病院さんなんかでは、こういう手法を採られているところが多いのかなと思いますけれども、外部につながるシステムと病院内のシステムのネットワークを完全に分離して、院内のネットワークは内部で独立したものになっていると。こういう状態にすることで、外からの侵入を防ぐという対策を取っていらっしゃるところが中心だったと思います。
○情報セキュリティ対策の方向性
残念ながら、もうそろそろこの手法も、先を見て別の手段に切り替えていったほうがいいかなというところもございます。昨今、ソーシャルエンジニアリングといわれるSNSを使ったり、著名な先生方ですと、お名前やお役職が既にインターネットに出てしまっているような状態で、そういう個人情報がある程度外に出始めている状態ですと、今まで明らかに悪い人ですという形でメールが送られてきたものが、怪しいということを検知できないような内容のメールが送られてきて、まんまと組織の中に入っていってしまうというような手口が確立されてきておりまして、玄関先を見張るだけでは足りなくなってきているという側面がございます。
これに対して、警備の手を緩めるということを言いたいわけではないですけれども、中に入ってきてしまうことを前提にセキュリティ対策をしていかなければいけない。内部で発生する事故に対しても何か手を打たなければいけないという形で、今、徐々にそちらの方にシフトしてきております。
CSIRTという言葉がございまして、これはComputer Security Incident Response Teamという、何かセキュリティの問題があった時にぱっと編成されて、その対処に当たる専門のチームなんですけれども、今、政府機関でもCSIRTという体制を構築して、当然何か起きないようにするのも大事なんですが、起きてしまったあとどうするか、この対処を考えようというふうな対応の仕方に、ちょっとずつ軸足が動いてきています。
医療の世界でもお使いになると思うんですけれども、トリアージという言葉がありますが、セキュリティの世界でも何か異常が起きた時にトリアージの手順をあらかじめ決めておきまして、こういう状態になったらまず誰に連絡をするのか、もしくは、この機械をどう設定を直すのかとか、そのような手順を決めておく。当然何か起こらないほうがいいですけれども、起きてしまった時にどうするというような対策を考える。
これもセキュリティ対策上は非常に有用というか、逆にこういうことが考えられていないと、そろそろまずい状態になっている。万が一を起こさないということも必要ですが、万が一起きてしまったらどうしようかなというところまで、ぜひ考えておいた方がよろしいかと思います。
○セキュリティ対策に係るガイドラインへの期待
次にセキュリティ対策ということで、今申し上げたCSIRT。対策をする手順や体制を整えましょうというもの以外にも、追加で補足させていただきたいことがございますので、こちらの紙にまとめております。
今年の5月にGDPRというものが発行されました。その数年前から準備をされていて、メディアも賑わせましたが、諸外国においてもGDPR、それから、米国のHIPAA、HITECHなどにおいても、有事の際に必ず何が起きたか報告しましょうということが義務化されています。
その時にありがちなのが、何が起きたのか現場で把握するのに非常に時間を要してしまうということがありますが、これに対しても緊急対応、その時何が起きていたのかという情報を日々収集しておいて、リアルタイムでログを収集して、日々何が起きているか、その時点で何があったかということを解析しておく。これも、万が一に備えるという意味では重要な対策になってきます。
また、保科先生のほうからもお話がありましたけれども、クラウドの利活用は今後どうしても必要になってくると思います。今、基本的に、政府機関などにおいてクラウドを使っていいという状態にはなっておりませんで、今年やっとクラウドデフォルトということで、クラウドを前提にしたシステム構築を今後は検討してくださいという方針が出ましたが、これから2020年目途にクラウドをどういうふうに使えば良いかというガイドラインも出るということで、これから始まるところではあるんですけれども、これを医療の現場でも参考にされてはどうかと思います。
米国でもFedRAMPなど、クラウド業者さんの認定制度もございます。それを参考にされると思いますけれども、日本でもクラウド業者さんに対して、この業者さんは安心ですよという認定を与えるようなところが今後整備されていって、クラウド自体も脅威として捉えるというよりは、脅威を正しく把握して、認定制度を持っている人についてはリスクもヘッジされているということで、活用を促進していく形になっていくと良いのかなと思います。
シンガポールでも、確か医療機関で150万件という大規模な、首相のデータも漏れたという事故がございました。あれも今、私のほうでもモニターしているんですけれども、実際に管理者権限が奪取された、盗まれたという事象がございました。それは外部の委託先業者さんだったような報告も見たんですけれども、これは正確な情報か定かではございませんが、仮にクラウドなど、外部委託事業者さんの環境を使って万が一何かあったような時に、きちんと交渉の上、双方どちらに責任があるというのを明確にした上で、ペナルティーなども含んだ上でサービスレベルを検討する。これによって、国民の皆様にも何かあった時にきちんと保証してもらえるというようなイメージを持っていただくことも、重要になってくると思います。
セキュリティに対する観点でいいますと、セキュリティ対策にお金にいとめをつけないという状態で、いくらでも投資しようと思えばできる。また、攻撃自体が日々進歩していますので、ある意味いたちごっこでキリがない世界ではありますが、この時にどうやって、いいところで適切な対応をしていくかということで重要になってくるのが、リスクアセスメントをきちんとするということです。
家の中に泥棒に入れないように当然家に鍵もかけますけれども、持っていかれても諦めがつくようなものから、これは困るなというものは大事にしまっておく。分からないところにしまう。これは情報セキュリティも同じで、本当に捕られちゃ困りますというものは大事に保管する。そこには、ある意味お金をかけてでも対策をするということを皆様で判断する。リスクアセスメントという言い方をしますけれども、これが非常に重要です。何でもかんでも、言葉は悪いですけれども、いろいろリリースされる製品を次々導入すればいいのかというと、そういうことでもございませんので、情報資産に対して適切に、適度にセキュリティ対策を打っていくということが非常に重要になります。
あと、こちらはAIコンソーシアムなのでAIという観点でいいますと、セキュリティ対策の世界でもAIはどんどん活用されています。これによって、今までは24時間365日たくさんの人が監視をして、3交代ぐらいで日々見ているわけですけれども、その負荷を軽減するために人工知能の活用も進んでおります。
特に今回のこのような医療情報を扱う大きな基盤を作って、皆様に日々活用してもらうということになりますと、当然、安心・安全を届けるためにもそういった監視態勢というのは必要ですが、それこそ、いつまでも保険料でたくさんの人を雇うということもなかなか難しいと思いますので、こういうところにAIを使うのも1つ方策ではないかなと思います。
セキュリティ対策について、当然もう既に医療情報を取り扱うためのガイドラインが出ておりますけれども、私が拝見した中ですと、CSIRTを編成するとか、万が一に備えるという観点で、もう少し補足があるとより良いのかなということで、今日このような紙をご用意した次第でございます。
○プライバシーの保護とデータの加工
最後にプライバシー保護とデータの加工ということで、医療情報の加工について、匿名性を高める、どなたか分からないような状態に一般化するという手法がございます。個人情報保護委員会さんとか、様々なガイドラインが出ておりますけれども、匿名性に関する議論は結構進んでいるのかなと見受けられますが、データの保護という観点でもう少し広めに見るのであれば、多様性、近似性という観点からも、加工を進めるというのも必要になってくるかなということでございます。
ただ、私もあまりここの分野に関して詳しいほうではないですけれども、データの種類とか、希少病のデータを扱う場合はあまり匿名化してしまってもあれだし、逆に匿名化しないとすぐ分かっちゃうよねという観点もあるということで、研究命題、何を証明しようとして、どういうデータを使っているかによって、やり方とか進度も違ってくると思いますので、ある程度の標準化は進めていく必要があると思いますが、完全にこのとおりにやれば安心ですというようなガイドライン化は、ちょっと難しいのかなと。
一方で、研究テーマに合わせてこういうふうにした方がいいですよということで、日々改定していく。誰かがガイドラインをモニターされて、こういうケースだったらこうしたほうがいいというようにブラッシュアップしていく。もしくは維持メンテナンスをするような組織があると、現場の意向に沿った形にガイドラインが担保されていくのかなと考えた次第でございます。
これはよけいな心配かもしれませんが、匿名加工した時に、それこそAIを使って何か悪さしようとした時に、もしかしたら暴露されてしまう。AIを使って何かのデータと組み合わせて突合した時に、個人が何かの拍子に出てきてしまう。どなたかということが透けて見えてしまうことがないように、加工したデータは本当にそれで十分なのか、十分加工されているのかということを検証するような、そういった観点でデータの信頼性を高めるというのも、今後必要になってくるのかなと考えております。
このような観点で、場合によっては今あるガイドラインなども少しずつブラッシュアップしていくことで、あくまでも安心・安全を届けるという意味では、セキュアにAIを使っていただくという意味で、いろいろなガイドラインなど、今後補足するのか、新規に作るのかという観点が必要になってくるかなと思います。
(北野座長)ありがとうございました。引き続き、山内構成員の提出資料でございますが、本日は代理で小島さんのほうからご発表いただければと思います。よろしくお願いします。
(小島構成員)まず、山内のほうから欠席のお詫びを伝えてくださいということだったので、お伝えいたします。前半、代理としての提出資料に基づいてお話をさせていただき、後半、前回まで参加しておりませんので、資料を見させていただいて私見を述べさせていただければと思っております。
山内の資料、文字ばかりで大変恐縮なんですけれども、基本的には、何よりもAIが臨床現場で使われるようになった時に、患者さんに何かあった時に、どうするかということはちゃんと考えて皆さん動きましょうねというところから入っております。それに引き続く話として、医師の責任問題が必ずやついてくると思うので、そのへんをどういうふうに担保していくのか。
それから、ここから生まれてくる知財等が商用ベースで使われるということであれば、その収益構造を持っておられるステークホルダーの方にはそれなりの、当然医療機器や薬と同じなようなリスクを持っていただかないといけませんねといったところを詰めてこいという話でしたが、どうやら第4回の議題として挙げていただいているようですので、その部分はそれでいいかなと思っております。それ以外で今回の論議論点にあります(6)、(8)、臨床での研修、商用アップデートに関係しそうなところをピックアップしてお伝えいたします。
○仮想症例1
仮想症例として山内が挙げているかと思うんですけれども、仮想症例1の肺がんの検診を受けていたけれども見落としがあった方ということに関しては、信頼性と責任問題をどういうふうに担保していくのかということです。大腸がんのケースが上がっていたかと思いますが、大腸がんの内視鏡のAIは人間よりも見落としが少ないということを精度担保して市場に上げようとしておられると思いますけれども、そのレベルのものが出てきたとしても、見落とした場合にどうなっていくのかというあたりは、一度議論していただいたらいいのではないかと思います。
先ほどクラウドの話が出てましたけれども、最先端のものに対する世間の過信みたいなものがありまして、AIで見てたから大丈夫だと患者さんが思い込んでしまうのではないか。それから、認められた、何らかのオーソライズされたAIもあると思いますし、民間ベースでAIを使ってあなたの健康を診断していますといったものがどんどん出てくると思います。そういったものとの区別をどういう形でつけていくのかということを、はっかりさせていかないといけないのではないかなと素人ながらに思っています。
患者さんの中では、処方薬と特保の健康ドリンクとで、ドリンクのほうがいいと思っている方はおられますので、宣伝の効果は圧倒的に大きいということは知っておいていただいたほうがいいのではないかと思います。ウェブのベースなり何なりに、様々な情報提供をどんどんしているところのもののほうが、下手をすると信用度が上がってしまいかねないというところで、患者さんないし国民全体への教育的なこと。
それから、医者の中にも、山内の資料を読むと誤解がいっぱい入っているような気がしますけれども、様々な不理解というのが残っていますので、そういったものを、これは1つのケーススタディとして、こういう時はこう解釈するんだよといったようなことを、もっともっと現場へ落としていかないと、実際の現場では大混乱が起きると思っております。それが仮想症例の1。その負担に耐えれる現場は、今のところ難しいと思います。
○仮想症例2
仮想症例2は、更新とかそれに関わる費用に関してなので、(8)商用展開アップデートに関わってくると思いますけれども、例えば2024年に診断を受けたと。ところが、それは2018年バージョンのAIでしたといったようなことが起こった時、アップデートの責任はどうなっていくのか。それは誰が気づかなければいけないのかといったような、初歩的な話で恐縮なんですけれども、また、それをすべて維持していくということを、病院がやるのか、国がやるのか。医療のインフラとして国が支えていかれるのか。先ほど、クラウドの費用の問題もありましたけれども、保険診療としてそれが成り立っていくのかといったような事柄は、非常に気になるところだと思います。CTや高度医療機器の更新だけでも病院としては大変な負担になっておりますので、これをやっていけるのか。
○仮想症例3
仮想症例3はやや誤解が入っているかもしれませんけれども、AIと人間との役割分担。ロボットが勝手に手術をやっていて血管を傷つけた。なぜか肺がんになっているのは、私の担当分野なのでちょっとドキドキしているんですけれども、私はロボット手術センターでダヴィンチの担当をしていますけれども、患者さんにお話しすると、ロボットが出てきて勝手に手術してくれると思っている方もおられるんですね。最近ドラマとかであったので、だいぶ誤解は減りましたし、人間が操作している機械ですということを分かってはくださっているんですけれども、AIにもおそらく同じような誤解が生じるのではないかと懸念している次第です。雑多な話で申し訳ありません。難しいお話の中で息休めと思っていただければ。
ここからは代理としての立場を離れまして私見を述べさせていただきますが、先ほどありましたような、保険診療というのが相当行き詰まり感を見せている中で、そういったものが抱えている現場の問題、医師の働き方とか、最近いろんなことが外から言われておりますけれども、そういった事柄を解決していくようなところまでAIで踏み込めないのかなというのが正直なところではありますが、もちろんAIというのはあくまでテクノロジーですので、そこまでのことは期待はできないと思うんですけれども、メディカルIDで病院間のデータをつなぐこととか、電子カルテをもっと共有化していくといったことと合わせて、より良い形に着地点を見出していただけるといいのではないか。もちろん考えておられて、動いておられると思うんですけれども、そういった事柄をより強く意識したいと思います。
特に現場への負担になりそうなものとして、データ収集の際、それから、実証段階で患者さんに入って行く場合のオプトアウト、それから、説明の書類。これが、個々の病院が作るような事態を起こすと、現場で何を書けばよくて、何がだめみたいなことが必ずや起こりますので、そういったもののオプトアウトに関して、あるいは、これは国策といっていいのかどうか分かりませんが、こういったデータ収集をやりますよと。
病理学会、それから、放射線学会がやるとなると、ほとんど国全部の病院が関与することになると思いますので、この説明書を患者さんに渡しておきさえすればいいですよといったぐらいのところまで踏み込んでやらないと現場はついてこれないと思いますし、それが実証になって、さらにあなたの何かで試しますよと。D2Dの話であれば、ダブルチェック、トリプルチェックが入りますけれども、そうでない場合には直接患者さんと向き合いながら何かをやるようなものの同意を取る時には、きちんと統一されたフォーマットでのインフォームドコンセントが望ましいのではないかと考えています。
それから、先ほど座長とも少しお話をしたんですけれども、今回AIのここの優先課題に挙がっている学会がらみの案件は、おそらく大規模データベース事業と一括りにしてしまっていいのではないかと思います。簡単に言うと、2、3年この領域を放っておくと、海外のAIの企業に全部持っていかれて、海外からAIを買わないといけない。なので、必死でやりましょうということを考えた学会の先生方が、一致団結しておられるというのが現状ではないかと思います。
それがなされた2、3年先のその先を考えていくぐらいのことをやっていかないと、全部出し抜かれるんじゃないかなというのが率直なところで、ここがまず固まってからそこはやりますと座長はおっしゃっておられたので、ちょっと安心はしておりますが、この間ニュースで流れた、中国では問診をタブレットか何かに入れておくと、自動販売機のところに行って、お医者さんがポチッと押すとお薬も買って帰れる。オンラインAI無人クリニックみたいなもの、もうニュースでご覧になったと思いますが、それが実際に街角へ登場しているような状態です。ソフトバンクが2割か3割、株を持っておられますから、日本へ導入することだって十分ありえるんじゃないか。
今回議論にあまり挙がっていない中では、オンラインの診断ですとか問診、それから、オンライン化されたセカンドオピニオン。今、患者さんが自分でデータを持っていますので、それをどこかのAIで、うちは診断やってますというところがあれば、そこへ預ければ診断書をもらうことはおそらく可能になる。現実にオンラインのセカンドオピニオンサービスというのは立ち上がっています。あまり言っちゃいけないのかもしれないですけれども。
それから、病院の中では患者さんのバイタルサインが自動的に収集されるようになって、それをAIで解析して、看護師さんとか救急の担当者にアラートを飛ばす仕組みというのも走っていますけれども、そういったものは非常に緊急度が高いといいますか、同じように急いでやっていかないと、どんどんそういう領域は進むんじゃないかというのが私の感想であります。
といったような感じで代理の範疇を越えた発言になりますけれども、ご検討に挙げていただければと思っております。以上です。
(北野座長)ありがとうございました。これからディスカッションに入りたいと思うんですが、ランダムにやるとわけが分からなくなるので、おのおのの資料の1、2、3に関係することに、確認の質問とかコメントを5分ぐらいずつやって、それから、幅広のディスカッションをしていきたい。まず資料1に関して。
(羽鳥構成員)保科さんにお伺いしたいんですけれども、僕も大変感動しました。7ページ目、エッジAIの活用ということですが、これから5.0になって、通信速度がものすごく上がると。通信速度の面でエッジAIは必要なんでしょうか。それとも、通信速度のことは別にして、手元で処理したほうが圧倒的に良い、それから、セキュリティが保たれるからいいのでしょうかということが1つ。
もう1つ、9ページ目の右下、倫理的心理的問題を検討ということで、これもとても大事なことだと思うんですけど、例えばの話、パイロットさんが、飛行機がぶつかりそうだと。でも、パイロットさんが自分の判断でやったらおそらくぶつかるだろうということで、人の判断ではなく、AIか機械で自動的に、北向きの飛行機は下に潜るとか、南向きは上に上がるとか、強制的に決めているところがいくつかあると思うんですけれども、臨床の場でも緊急の場という時に、もしかしたら、人がパニクっている時の判断よりも、AIの判断のほうがいいことだってありうると思うんですけれども、そういう面も想定されているのか、そのへんをお聞きしたいと思います。
僕自身としては、AIが診療の場で、例えば右端で電子カルテをたたきながら、患者さんとは目を離さずに、だけど、左の端のほうにはAIが医師と患者さんの会話、あるいは問診票、あるいはそばに看護師さんの所作から見て、いろんな診断とか示唆をしてくれる状況になるんじゃないかと思っているので、決して否定的には見ていないんですけども、最初の2点をおっしゃっていただければ。
(保科構成員)私見にはなるんですが、通信速度に関しては、確かに5Gとか新しい通信が出てくると、いわゆるエッジじゃなくてクラウドに飛ばす。それで処理できることはあると思うんですが、ご指摘いただいたように、そこに関しては、まず院内で全部通信ネットワークを担保できるのかというお話もあると思いますし、あと、通信だけの問題ではなくて、ほかの観点もいくつか書かせていただいていますけれども、セキュリティ的に全部クラウドに飛ばしていくのかというお話もありますし、いわゆる通信速度が担保されても、大量のデータを全部クラウドに持っていくのか。セキュリティ、通信の速度、データ容量、そこを複合的に判断していくのかなと。もちろんご指摘いただいたように、通信速度がクリアされれば、エッジでやる必要がないというものは今後出てくるとは思っています。
(羽鳥構成員)出す・出さないは別にして、出す・出さないを手元で考えるよりは、全部上げたほうが楽で、そこから、公開するかしないかは別という、そういう判断のほうが楽かなと思ったのでお聞きしました。
(保科構成員)そういう意味では、間にミドルと書かせていただいたのは、そもそもどこまで上げるのか、上げないのかという判断が途中で必要になるだろうというところで、ミドルというレイヤも必要になってくる。これは実際、ほかの領域では使ってるケースが多いですけれども、あるのかなと思っています。
続いて、倫理的なところで、パイロットのお話をいただいたのは非常に分かりやすい例だと思うんですけれども、これも完全に私の私見ですけれども、いわゆる緊急事態に人の判断でなく機械に任せるケース、それはあるのかなと思っています。ただ、重要なのは、その時に機械に判断を任せるかどうかというのを人間が判断しているところが重要なのかなと思うんですね。人間の判断なくして機械が勝手に判断するというのは絶対あってはいけなくて、一方で、ここは機械に判断を任せるしかないと人間が判断するというケースだったら、ありえるかなと思っています。
(羽鳥構成員)さっきのパイロットの事例は、人間が判断する、判断しないはないですよね。(保科構成員)でも、その時に、いわゆるオートパイロットに切り替えるかどうかというのは人間が判断しているんだと思うんですね。
(羽鳥構成員)うーん、そうですかね。
(北野座長)パイロットのやつは、TCASというシステムで常時オンです。どちら側が高度を上げるか、どちら側が高度を下げるか、プロトコルで決まっているので、人間のオフはできないです。あのシステムは。
今のところ補足すると、エッジとクラウドのところのイシューですが、クラウドに全部上げてエッジサイドに何もないと、通信は常に安定的にあるかどうかとか、クラウドが安定的にあるかどうか保証の限りではないので、通信が遮断されたクラウドが不安定になった時に何もできなくなるわけです。だから、ある程度ローカルでできる能力がないと、病院システムが動かないというリスクがある。
そこをどういうふうに、ディペンダブルシステムとしての設計をどういうふうに考えるかというのがもう1個あって、通信の場合はバンドウィドゥスというか、どのくらいのデータを送れるかと、行って帰ってくるまでが何ミリセカンドで行けるかどうか、レイテンシーのこの2つを考えないといけないわけです。
例えば、手術をロボットのリモートでやる時に、非常に早く反応しなければいけないものをレイテンシーが遅いやつでやると全然話にならないので、そういうのはエッジサイドで全部やらざるをえない。それに連動する画像認識システムであるとか、アドバイスシステムというのは、クラウドに上げるとオンタイムに出ないかもしれない。それはエッジサイドに持ってくることになるでしょうし、そこはシステムアーキテクチャの設計をちゃんとやるということになるんじゃないかなと思います。補足でした。
ほかに、資料1に関してご質問とかございますでしょうか。
(市川構成員)分かりやすい説明ありがとうございます。まず初めに、プラットフォームが医療の分野、あるいは個々のAIライフログも含めて形のデータを取ってきて、それをプラットフォーム化していろんなことに使えるようにしようというのは大賛成なんですけれど、それとAIとの関係をどう整理するかというのがあるのかなと思っています。
というのは、データはいろんなところがあって、いろんなデータ集めた方がいいよねというのは分かるんですけれど、ポイントは、何のためにデータプラットフォームを作るのかということを考えないといけない。例えばよくあるのは、ライフログはその例ですけれども、ある人が投薬履歴とか手術の履歴とか健康のために働いたというところを集めると、その人の行動はこんな感じだよねというのは分かるんですが、その場合は、人というところでIDをつけて、それを紐付けて取れるようにしていくことが必要になってくると思うんですけど、それとAIというのはどういう関係を要するのか。
ご案内のとおり、AIでやろうとすると、かなりデータの品質が保証されていないと、少なくとも現時点では違うメーカーで取ったデータとある違う人が入れたデータが、完全に標準化されていてもちゃんとノイズを取って使えるか。それくらいの精度なのでAIに使えるのかどうかという話はある。
どこまでの、何のAIを使おうとしてやっているのか。あるいはAIまではいかなくても、いろんな人のライフログを集めるといけるというふうなところをまず決めて、次に、そのためにどういうアーキテクチャを組んでいくのかという議論になってきて、その際、セキュリティもあるというところを踏まえると、全部クラウドにいくのか、あるいはIDで紐づける場合に全部1か所に集めていいのか、IDを外した上で分散管理をしたほうがいいのかという、そこらへんの全体のアーキテクチャを決めていかないといけないという話が出てくるとか、その上で、エッジとかの話もその中でたぶん出てくる話だし、クラウドAIとエッジAIといっても、まだ何となくバズワード的な気もするけど、具体的に何を指しているのかというのは、今後議論していく必要がある論点なのかなと思います。
もう1つ、AIシステムの検証のところはもっともだと思ってまして、問題は、これを解決するために今後どうすればいいかということなんですが、ご参考までに言うと、我々産総研として、今後のAI技術の研究開発をやろうと思っていて、その中でここにご指摘されているのは、そもそも今のAI技術、あるいは機械学習の技術の根本的な問題であって、今後これを解決していくために次のAI技術を開発しなければいけない。
これは医療の分野だけではなくて、例えば製造業の方がAIを使用して品質がどうなっているのか、自動運転でやるのか。皆様同じような問題を抱えているので、技術として具体的にどう判断を人間が把握できるようにするのか。その際に、人間の知見、あるいは人間と共同するというようなメカニズムを今後どう作っていくのか。技術的な課題だけではないと思うんですけれど、そういったところをやっていかないといけないと我々は思っているんですけれども、それ以外のこともあればご指摘いただければなと思っています。2点、よろしくお願いします。
(保科構成員)なかなか難しい質問ですけれども、最初のご質問に関しては、AIはあくまでアルゴリズムであって、どう使うのかというのが重要なのかなと思っています。データという意味では、AIのアルゴリズムがどうのというより、データを誰がどう管理して、データのアクセス権みたいなお話もありましたけど、どうアクセス権を与えて、認証をどう与えるのかというところの方が重要なのかなと思っています。あとは、AIはあくまでデータを使ってどういうアウトプットを出すのかというところなので、目的がより重要なのかなと。アルゴリズムよりは目的なのかなと思っています。
あと、いわゆる人とAIの切り分けみたいなところは、こういったところが重要だろうなというところを、9ページ目に、かなり概念レベルで恐縮なんですけれども、書かせていただきましたが、いわゆる大きな指針、こういうことを考えなくちゃいけないよねというレベルでしか書けていないので、ここをまさに具体化していくというのが、こういった場で必要になるのかなと思っているポイントです。
(堀川構成員)非常に良い資料を拝見させていただきました。どうもありがとうございます。私もAIシステムの検証の件につきまして、まさに市川構成員代理と同じ意見を持っていまして、結局AIが出した結果が、人が介在して時間がかかる成果であっても正確であると。でも、AIが出した成果が、人が出した成果とクレディビリティーがどの程度あるのか、AIを開発してそれを活用していくのは非常に重要だと思っています。
今の技術水準であればクレディビリティーは足らないかもしれないけれども、将来、何年かかればそれが達成できるのかということが非常に重要かなと思っていますので、そのようなことも技術的に解決しうるのであれば、AIの活用というのは医療現場でも進んでいくのかなと思います。
(北野座長)ありがとうございます。あとでまた自由討議に戻ってきますけど、資料2に関してご質問等ございますでしょうか。
(羽鳥構成員)6ページ目、プライバシーの保護、データの加工はとても大事だと思いますけれども、匿名性はいま十分できているだろう。だけど、2番目、3番目については別の方法が必要なのかということだと思います。僕も今、厚労省の難病対策・小児慢性疾患の、いわゆる数の非常に少ない疾患の委員会に出ているんですけれども、そこでも、新薬を作るためにはすべての患者さんに登録してもらって、すべての患者さんの情報、日本中でも100人しかいないような疾患もあるわけですから、それでないとメーカーさんも薬が作れないということもあると思うので、そういう場合にどうやって保護してあげられるのか。
例えば先ほど、一生懸命匿名性をやっても、AIを使ったら元のデータが暴露できるという話もあったので、これは大変なことだなと思ったので、それをあとで教えていただきたい。もしくは、多様性とか近似性とか何かを使えばできるのか、それは無理なのか、教えてください。
もう1つ、5ページ目のシンガポールの事例で150万件のデータが出てしまったと。これは単純なヒューマンエラーなのか、要するに、病院長とか理事長先生がポケットにUSBを入れて、それがどこかで落ちてしまったとか、あるいは業者さんに、中をいじってよと言ったらその業者さんが悪さをしたのか、それともシステム上の問題なのか、その2点を教えてください。
(田辺構成員)ありがとうございます。私もプライバシー保護、データ加工に関してはまだまだ勉強の最中でございまして、もしご存じの方がいたら逆に教えていただきたいなと思うんですが、特に希少病の観点からいいますと、ある程度加工はされたとしても、もともとの母数が少ない、病名も1つとなると、多様性を持たせるとか、近似性を持たせるとか、そういうお話じゃないですよねということになると、ここで加工してどうにかしてプライバシーを保護するというよりは、限られた中で使うということでプライバシーを保護する。加工の技術に頼らないほうが、もしかしたらより良い状況をもたらすのかもしれない。
(羽鳥構成員)扱った人に十分な責任を負わせる、その人が漏らしたらだめよと。
(田辺構成員)そうですね。閉じた世界で使うというところが必要になってくるのかなと思います。
あと、大変申し訳ないんですけど、シンガポールのほうは、セキュリティの世界ですと、ブログというと信憑性が落ちるようなニュアンスもあるんですが、いろいろな方々がブログを使ってコミュニケーションをして情報発信していらっしゃるので、そのブログの内容を見るかぎりですと、まだ詳しい情報が出てきておりません。明確な回答ができずに恐縮ですが。
(北野座長)もしシンガポールのが、先ほどおっしゃったみたいに、仮に外注業者がパスワード管理をしていないとすると、それはよくある事例で、よくないんですけど、ほかでも聞く事例。それはAI固有ではなくて個人情報の一般的な問題で、中でやらないで外でやったら、外の業者がいい加減だった。そういうことに対して、どうセーフガードできるかという話じゃないかなと思います。
(間野構成員)シンガポールの件で、私の友人がシンガポールの国立の研究所に勤めていて、いま甚大な被害を被っていてその愚痴を聞いたんですけれども、この案件は非常に大規模な、計画的な、執拗なアタックだったみたいです。アタックの矛先は大統領のメディカルレコードだったということで、何回も何回もアタックを繰り返しているということで、いろんなところにアタックして、最終的に脆弱性の最も高かったところに入り込めたという事案ですので、かなり大規模なプロ集団による、シンガポールはどこかの国家がやったと思っているみたいですけど、そういうふうなスケールの事案だったという噂です。
(葛西技術参与)一応私も同じ法人なので微妙ですけれども、シンガポールの件に補足をすると、JAVAというプログラムのセキュリティホールを突いて、それで管理者権限を乗っ取られたものでございます。そこまでは観測ができています。私、今の立場でいうとデータヘルス改革推進本部で、医療データのエコシステムを作っているわけですけれども、非常に苦しんでいるのが、実はそうやってちゃんとセキュリティを維持しているはずなのにもかかわらず、標的型攻撃とか、ゼロデイとか、基盤のあるセキュリティホールを突いて抜かれるケースがあるということです。
私、情報処理推進機構にもおりますので、ここで観測をしていると、組織から、例えば不正アクセスを外にゲートウェイしたり、もちろん対策は徹底しています。徹底しているにもかかわらず、1か月に数十件ぐらい不正なところにアクセスしにいくのを自動的に遮断しています。そのぐらい、実は観測ができてないから漏れていることが分からないケースが非常に多いです。
それに対して、私は今、省でも苦しんでいまして、こういったことは発生する確率が非常に低いので、そんなセキュリティ対策はしなくていいのではないかというご意見も強いんですね。これはできるだけ医療界の方に応援していただきたくて、ちゃんとしたセキュリティ対策をしないと漏れるケースがあるんですと。まさに間野先生がおっしゃるとおりで、国家的なレベルで発生することがあるということをご理解いただけないことがあって、結構苦しんでおるというのも実態でございます。
(北野座長)非常に重要なポイントだと思います。ありがとうございました。ほかに2に関してございますか。なければ資料3にいきたいと思います。最後のほうでコメントされた、リモートの大学の診断補助みたいなシステムは、イギリスで、今バビロンヘルスがトライアルをやっていると思います。
あのシステムは、電話とかスカイプみたいなシステムでいろいろ話をして、対話型のエージェントが入っていて、対話すると、おなかが痛い、熱があるとか、可能な症例、診断候補ですね。確定診断していませんから、あれは。それがどんどん出てきて、次の段階でそれが実際のお医者さんにつながって、お医者さんと直接対話をする。
おもしろいのは、そこでの対話が音声認識でスクリプトとして全部落ちてきます。さらにお医者さんが、この場合には救急車を呼んで、どこの病院がいいというディスパッチャーとつながっていて、その情報は全部ディスパッチされたところにパッケージされる。たぶんそういうシステムになっていると思います。
それを向こうのヘルスケアシステムがトライアルで、今ディプロイメントして実際テストしていますけど、そういうのがうまくいくと非常に効率化されますし、オンアライバルの時にかなりのことが分かるので、そういうことの議論をする必要があるんじゃないか。
今回、山内先生ご指摘のように、画像診断という非常に早く立ち上げられるところにフォーカスしてやりましたけど、年明けてから何をするかということをあとでも議論したいと思いますけど、かなり広いものもありますし、全体から見ると、介護みたいなところとか、病院でのワークプレースのインプルーブメントに関するAIの応用ももちろんあるので、そこはどういうふうに戦略的に議論するかというのは頭の中にございます。それは私からのコメントですが、資料3に関してご質問等コメントはございますでしょうか。
(山本構成員)資料3の内容ですけれども、既に小島先生も言及されておりましたけれども、医療現場でのいろんなこと、複合的なことですけれども、1つは、医者が悪いのか、AIが悪いのかみたいな二元論と、全体的にある医療に対する無謬性の神話みたいなものが根底にある可能性があるなというのと、あと、AIが入ったからAIをすべて信頼できるのかというと、そうではない。
医療のリスクマネージメントというのは、今、医療安全というのは全体のシステムでデザインするしかないわけで、例えば電子カルテになったから、例えば処方を出して、アレルギーのある薬はワーニングが出るかといったら、ワーニングは出ますけれども、それを無視して処方することは可能だったりしますので、結局のところ、何か1つが入れば医療安全が守れるというわけではないので、AIが入ることによって、AIを入れた形での医療安全というシステムもう1回デザインし直さないといけないということだと思います。
それと、どういうレベルでAIが入るかによりますけれども、医療機器として入れるのであれば、医療機器の更新とか管理は、当然医療施設の医療機関の責任になるというのが医療機器としては当たり前のことですので、それと、無謬性はAIであってもそれはないので、当然AIを出す時には、それを医療機器として出すのであれば、どのぐらいのエラーが出るかということがある程度分かる必要がありますし、当然、更新に係る費用感とか、そういうのが製品として出てこないと入れられないということになると思います。
もう1つは、AIがあまりにマスコミなんかで、おっしゃっていたように、患者さんとか世間ですごいものだというふうになると困るというのは、ちょっと違いますけれども、抗がん剤でイレッサが出た時に夢の薬と言われて、肺がんの薬なのに、乳がんとか骨のがんにまで使われて大変なことになったことがありますので、新しい技術を入れる時には、マスコミを含めて適正使用のための努力が重要になってくるんじゃないかと思いました。
(北野座長)この仮想症例は、見ておもしろいなと思ったのは、こういうのを書き出してみるとリアルな感じがすごくして、1のところで思ったのは、AIの見落としかというのがあるんだけど、例えばAIが何か判断をしていて、お医者さんがそうじゃないと判断して、実はお医者さんが間違っていた時に、AIはこう言っていたのに、なんで勝手なことをやったんだと、逆に責任を問われる可能性もあって、そういうのが起きると、AIに従っておいたほうがいいというふうにお医者さんがなるというリスクはあるような気もする。
あと、仮想症例2のアップグレードのところは結構シリアスかなと思う。例えば、病院のほうが契約ができなくなってほっぽられた。今度、逆にマニファクチャラーの、サービスをプロバイドするほうが経営状態が良くなくなって、アップデートパッチをバージョンアップできなくなった。病院もリプレースするお金もないというと、古いままほっぽられるわけです。それを、例えば患者さんが、これはアウトデーテッドだからあそこのAIシステムはやばいというのが分かればいいけど、分からなくて、うちは大丈夫ですと言われると話にならないわけですよね。
ここはディプロイするのはいいんだけど、データベースと同じで、作るのはいいんだけど常にアップデートしていくというのがすごく大変で、ここまで考えないとまずいなというのは分かってはいるんだけど、こう書かれるとすごくリアルな感じがしました。
(保科構成員)まさに仮想症例2は、私はだいぶ気になったところで、我々もAIのソフトウェアを作って、機械学習のソフトウェア開発手法に関わるんですけれども、随時リアルタイムにデータがアップデートされていくんじゃなくて、あるデータセットで学習するようなタイプのものは、ソフトウェアの開発管理のところでプログラム自体のバージョン管理もするんですけれども、どのデータセットで学習したのかみたいな、データ自体のバージョン管理というのがかなり重要で、まさにそこに関わるお話なのかなと。
実際違う分野ですと、古いデータセットでサービスを構築していて、そのせいで年間10億ドル機会損失みたいな笑えない話がほかの業界ではあったりするんですね。それが、ほかの業界でしたら機会損失で済んだんですけれども、医療業界となると、お金の問題ではなくて命に関わるお話になってしまう。感想になってしまうんですけれども、ここは非常にAI開発をしている側からしても重要だなと感じるポイントですね。
(北野座長)豊田さんにお伺いしたいんですけど、患者の立場から見た時に、AIが最新かどうかというのはすごく不安なのかなと思うんです。それは開示することを徹底するという話になるんですかね。
(豊田構成員)そうですね。インフォームドコンセントがすごい重要になってきますし、私も有資格者ではない立場で医療安全の担当をしてるんですけれども、今、山本先生がおっしゃったような、まさにそういう話で具体的にイメージが湧くわけなんですけれども、それこそ医療機器の安全管理責任者がいますけれども、ここまで管理、今の人たちができるかというと難しくて、そうすると、製品開発した会社とどうタイアップしていくのかという問題になりますし、今、病院の中だと電子カルテとか、あと、いろんな資料を作る通常のパソコンとか使っている時に、それらがバージョンアップされていなかったりしてみんなで揉めるというのは日常的にあって、予算がないと言ったら、我慢してみんなぶつぶつ言いながらやっているので。
でも、それは直接命に関わる部分じゃないところだから何とかやってますけれども、AIはかなり診断の部分だとかそういうところの話になると、一般の人からすると、それこそ皆様おっしゃられているように、AIだから大丈夫だよねと思うか、もしくは、大丈夫なの?こんなのと思うか、両極端な印象があります。
でも、医療の場合、医療安全でこういうふうに事例の検証も行われたりしているので、まさにこういう生々しい事例で検証していったほうが分かりやすいのかなと思いました。そして、具体的に患者さんに説明する場合には、どういうところをきちんと説明しないと理解していただけないし、受け入れてもらえないということを、開発される側の方々にしっかりと把握していただかないと難しいかなと、伺っていて思いました。
(北野座長)作るサイドからお話をお伺いしたい。
(宮田構成員)ありがとうございます。まさに豊田さんにおっしゃっていただいたように、今までの医療機器の最新がどうなのか、管理がどうなのか。これも全く同じことなので、今までのPDCAサイクルとか安全管理の中でしっかり考えるということが基本でしょうし、一方で、FDAもかなり突っ込んだ判断を最近しているように見えつつも、守っている部分もある。
先日、IDxという自動診断装置を開発して認可を勝ち取ったアブラモフ先生とお話をしたんですけれども、あれも実は全部ホワイトボックスというか、ブラックボックスの部分はゼロだと。アルゴリズムを全部説明して、彼としてはオンラインでアップデートしたかったけれども、スタンドアローンですと。なので、実は自動診断でものすごくイノベーティブな感じではあるんですけれども、基本的には完全に既存の医療機器の枠組みの中に入った認可であったりすると。そのあたりはPDCA、いわゆる安全管理もおそらく通常のところの中に入っていくので、FDAとしても、これからオンラインで自動的にアップデートしていくというところを検証していく過程なのかなという気がしますね。
(近藤構成員)基盤研から少し。実は私ども、実際にAIを使って新しい解決施策を作っていこうということで、ここにいらっしゃる間野先生、産総研の辻井先生とご一緒させていただきながら、非常に難易度の高い疾患、それの創薬ターゲットをAIで見つけていこうと。このベースになるデータは、もちろん臨床現場における患者さんのデータをしっかり取っていく。あるいは既に出ている多くの文献情報を総合的に解析して、新しいアルゴリズムを作って、こういうものが重要だというものを出すということを今やっています。
ところが、昨日も喧々諤々と議論したのは、AIで出てきたもの自身、先ほど堀川さんからもありましたけれども、検証をどうやっていくか。検証自体が間違っていると、AIを作り上げているプロセス自身は変なところに行ってしまう。最終形自身が誤ったものを出してしまうということで、検証段階をいかに正しい形でしていくか、相当これからやっていく上では大変だなということで議論しました。
基本的に検証というのは、AIで出てきたものを人が見て、これは正しいと人が介在した判断ですので、これまでに出てきているデータ自身が正しければ、正しいという判断ができます。ところが、未知のものということになると、その中には新しいAIが出したアイデアであったり、新しい提案があったりします。でも、それが人の介在の中で正しいという判断ができなかった場合には取りこぼしてしまうと。要はAIというものの出来上がった段階というのは、現存する人間以上のものになれていないかも分からないと。
これからAIを作っていく時に、私たちはAIが出してきたものを人が判断するだけでいいのか。AIでもって判断できるようなシステムを考えていかないと、これからの新しいものを見いだしていくのは限界があるのではないかという議論を昨日もしていまして、AI構築の中におけるプロセスの中で、どういうようなものを組み込んでいくかということは極めて重要なんだろうけれども、それをどうやっていくべきなのかなというのは、非常に難解な課題として今持っているというお話をさせていただきます。
(北野座長)AIの今までの開発の歴史で分かってきていることは、人の意見はエビデンスにならない、基本的には。例えばチェスの時もそうだったんですけど、チェスで、全部統計学習によって、例えば盤面評価をしているやつを使った時はいい。すごく強くなったから、グランドマスターを1人連れてきてさらに強くしようと思って、その人の評価でさじ加減を入れたらとたんに弱くなったという有名な話がある。
そこのところは、何がAIで使える、機械学習で使えるエビデンスになるかということはすごく考えなければいけなくて、人間の判断は、ある程度参考にしながらシステムの設計はすると思うんだけど、最終的にそこに頼るのは非常に危険なんですよね。その時どうするのかというのは、すごく考える必要があると思います。
さっきのコミュニケーションの話もありましたけど、Preferredはこういう領域も入ってこられると思うんですけど、作るほうの立場からこの問題をどういうふうに見ますか。
(齊藤構成員)本日3つご発表いただいた内容がいろいろリンクしているなと思って、非常におもしろいなと思わせていただきました。いわゆる研究開発、あるいは実装までをやっていきたいと考えている会社としては、どうしても詳しい人間の立場になってしまって、今日お話を伺ったような、患者さんはどうなのか、あるいは医療機関はどうなのかというところのご意見を聞けているのが、非常に有意義だなと思っております。
そういうことを考えた時に、途中の議論にもありましたけれども、ニーズといいますか、患者さんの考えていること、あとは医療機関の考えていることを含めたフィードバックというのは、何回も議論に出ているように大事なことだと思っていて、そういったものを作れる環境を、このコンソーシアムの議論も踏まえて作っていただけると、非常に、作る側からも、患者さんにとってもいいものになっていくのではないかなと思っています。
そういった中で、本日、保科さんのご発表であった論点6の話は非常におもしろいなと思って聞かせていただいておりまして、どうしてもまだAIというものが、ほかの議論でもあった中で、どんなものか分からない、シンギュラリティがどうだといったところから議論に入ってしまいがちなところがあるので、まず今日ご提案いただいたような内容を、どういう形か、一般の医療機関、あるいは実証する場を作っていくところを加速していただいて、その中でどんどん改善していけるような環境を作っていけば、作る側と実際の現場の距離は近まっていくんじゃないかと思っておりますので、ぜひそういった議論を続けていただければと思います。
(北野座長)実際こういうシステムは、これは医療の部分だけではないんですけど、AIシステムといった時に、みんながイマジネーションをすごく膨らませてしまうので、エクスペクテーション・マネージメントをちゃんとやらないと、それを悪用する人もいるし、メディアとかが正確に、上振れするか下に行くかはいろいろあるにしても、ちゃんとした期待値をコミュニケーションするというのは難しい部分もあって、たぶんそれをやっていかないと、いろいろなトラブルが今後発生していくことがあると思うんですね。
そこのところをどうするかというのは大きなポイントに、どうやってそれを開発するかというところに今までの議論はフォーカスしてきたんですけど、それが実際に一般に導入してきた時、それは一般の患者さんとか一般の人向けもそうだし、プロフェッショナルの間でもエクスペクテーションというのが違った時に、どう使うかということに対するずれが生じて、それもかなりシリアスな問題になってくるだろう。そこのマネージメントというのは、いずれどこかで議論する必要があるだろうと。技術論だけではなくて、ヒューマンファクターとか、社会構造のところは重要になるんじゃないかなと思います。
次の議論にいく前にもう1つ、AMEDはここらへん、何かプログラムとか構想はあるんでしょうか。ここらへんの議論に関してのプログラムみたいなのは。
(井本構成員)先ほどご議論の中心になった検証のところは、今後大きな課題になると思っていまして、どういう目的のためにどういうデータで学ばせて、それをどういうので検定するかということは、社会認容性と実はタイアップしていて、ちょっと例が外れるかもしれませんが、例えば犬を診断する時に、ブルドッグばかり見せているような集団と、非常にかわいい犬をやっている時に、いかつい犬が犬で、そうじゃない犬は犬じゃないと。これは極端な例ですけど。
何が言いたいかというと、例えば患者さんを実際の診断に使う時に、ご来院される患者さんのポピュレーションがどういう分布だったかというのがずれてくると、診断率で再現しないという議論があり得るんですね。ですから、学ばせる時には適切な比率、正解と、あるいは不正解みたいなものが適正比率で分布しないと、ある意味で正しい学びにならないんじゃないか。これは1つの疾患であっても当然起こることが、マルチで来るとより一層複雑になるのではないかという心配はしています。
さらに言わせていただくと、性能をどうやって表現するかというのは、先ほどご議論もありましたけれども、何で学んだかというのをしっかりとルックバックできるようにしておかないと、おそらく性能評価、信頼保証ができなくなるので、データセットの保存と、何かあった時の検証という形のセットは固定しないといけないだろう。データの固定の責任と、追跡できるような枠組みが必要になってくるということになろうかと思います。
また、どんどん精度が上がってくると、性能評価を表示するか、ある一定のゲージで更新せられるような形で、比較可能性のあるような形で、どのくらいのやつで、どのくらいのレートという話を示すような何かが必要ですし、要求水準も明確にしていかないと苦しいのかなと思っています。
最大の難点は、おそらくこのデータというのは常に更新していく、常に集めていく時に、膨大なデータを更新していかなければいけないので、研究費みたいなもので単発でやってもいずれは力尽きてしまうので、恒常的に、比較的楽な形で集められるような社会的枠組みを作らないと苦しいのかなというのは、実際事業を運営していて思っているところでございます。
(北野座長)ありがとうございます。今のポイント、今日の議論も、機械学習をちゃんとした工学として作っていくという、そこの方法論をちゃんとする、データインテグリティをするというところは重要なポイントで、実際、今総合イノベーション戦略会議で進めているAI戦略でもそこのところを非常に重視していて、Preferredの丸山さんにお越しいただいて、そういうふうな議論もスタートしています。システマティックにそこはやっていくことになると思います。
それでは次、事務局の方から資料4に関してご説明いただけますでしょうか。
(事務局)それでは、お手元の資料4を開いていただければと思います。資料4は、前回ご議論いただいた内容を整理をしたものということでございます。
【各Road Blockに対する迅速に対応すべき事項(案)】
○AI Medical Systemの構築を加速するための施策
資料の2枚目は、第1回のコンソーシアムで当日配布いただきました資料の中の1枚でございますけれども、迅速に対応すべき事項ということで、Road Blockの同定とその解消ということが挙げられておりましたので、その点につきまして整理をしたものということでございます。
○Road Blockの同定と解消(想定例)
右下のページで2ページとなっているところでございますけれども、前回ご議論いただきました内容がRoad Blockのうち1、2、3、7ということでございましたので、3ページ以降、Road Blockのそれぞれごとに資料を整理しております。
○(1)IRB
3ページで資料の構成をご説明申し上げますと、一番左端にRoad Blockとして何番目のものか、1番目はIRBが書いてございまして、その右のカラムにはRoad Blockに対しまして、以前構成員の皆様からいただきましたご意見を整理したものを載せております。その右側の欄には、前回のコンソーシアムにおきまして、新たに構成員の先生方からいただいたご意見を掲載しているということでございます。こういった課題に関します構成員の皆様方のご意見をもとに、対応すべき事項としてどういったことが挙げられるかということを整理したのが一番右側のカラムでございます。
IRBの関係で申し上げますと、IRBにAIの専門家が必須ではないかということが真ん中のカラムの一番上に書いてございますけれども、どういうふうにIRBのほうにAIの関係を審査していく体制を整備できるかということであったり、Central AI-IRBのような形もあり得るんじゃないかというご意見。一方で、Central IRBという形にしますと、審査料が課題になるのではないかということのご指摘を踏まえますと、今、迅速に対応すべき事項として挙げておりますのは、実は現行の「人を対象とする医学系研究に関する倫理指針」のもとでもいろいろ対応できる点がございますので、それにつきまして改めて周知するという対応に関しましては、すぐ対応できるのではないかということで挙げてございます。
例えば現在の指針の中でできる取り組みとしましては、審査を行う上で、必要であればAIに関する有識者の意見を求めることが可能であるということで、倫理委員会そのものにAIの専門家の方々がいらっしゃらなかったとしても、有識者の意見を求めるという形で審査を行うことができるということでございましたり、Central IRBというご意見がございますけれども、AI開発研究の倫理審査が可能な倫理審査委員会に関しましては、他の研究機関が実施する研究を審査することが可能であること。そのほかにも、例えば学会などが保有する倫理審査委員会が一括で審査することが可能であるというようなことが、倫理指針上、いま現行でも対応可能ということでございます。
○倫理審査委員会
4ページ以降にその根拠資料を掲載してございまして、4ページ目は「人を対象とする医学系研究に関する倫理指針」の抜粋ということで、専門家に意見を聞くことができるということでございますし、他の機関に関してもその審査ができるということが書かれてございます。
実際にどういった形でできるかということをイメージとしてお示ししたのが、右下のページでいいますと5ページ以降でございまして、例えば学術研究機関が保有する倫理審査委員会で全体審査するということも可能ですし、様々な形で実施可能だということを模式図的にお示しをした資料が2ページほど続いてございます。
○(2)Informed Consent
IRBの関係のご議論に続きまして、2点目のインフォームドコンセントに関しまして、右下のページで7ページのところに書いてございます。インフォームドコンセントの関係の課題、あらかじめいただきました課題と第2回のコンソーシアムにおきましていただいたご意見の中では、真ん中のカラムの上から3つ目にございますけれども、学術研究と診療、研究と開発の境界というのが不明確ではないかというご意見が、全体としての中核的なものだったのかなということでございます。
そういったことを踏まえまして、右側に迅速に対応すべき事項(案)ということで書いてございますけれども、現行の制度内で医療情報を民間企業で活用する方法を整理いたしますと、学術研究で、オプトアウトの手続きで医療情報を活用できる場合があるということでございますので、その点につきまして改めて周知をすることができるのではないかということでございます。
具体的には、学術研究機関と企業が共同研究形態で学術研究を行うことで、「人を対象とする医学系研究に関する倫理指針」の適用範囲として、オプトアウトによる手続きで医療情報を活用することが可能である場合があるということを周知するということでございます。
また、学術研究機関と企業が共同研究形態で学術研究を行うことを推進するために、知的財産権の帰属などを定めた標準的な契約書のひな形を検討する必要があるのではないかということがございました。これに関しましては、今、直ちにすることに関しましては検討に着手するということで、これにつきましても検討を進めていって、そのひな形を用意していく作業に着手したいと考えてございます。
○現行の制度内で医療情報を民間企業で活用する方法
8ページ目は現行の制度内で医療情報を民間企業で活用する方法を整理したものということでございまして、個人情報保護法適用ケースに関しましては、オプトインの形で個人データを提供いただくという形のほかに、匿名加工情報としていただく場合もあるというところでございます。
一方で、個人情報保護法第4章適用除外ケースということで、オプトアウトということで情報を入手できる場合もある。これは、学術研究機関と1つの主体と見なすことができる共同研究機関と書いてありますけれども、そういった場合ということでございます。
また、本日別途ご説明いただきますけれども、次世代医療基盤法適用ケースという形で情報提供される場合もあるということでございます。
○個人情報保護法通則ガイドラインを参考
次のページには、個人情報保護法の通則のガイドラインに、個人情報保護法に規定されている「学術」というのはいったい何なのか、また、個人情報保護法に規定されている「大学その他の学術研究を目的とする機関または団体」というのはどういうものなのかということが記載された部分の抜粋ということでございます。
○共同研究機関
10ページ目には、「人を対象とする医学系研究に関する倫理指針」におきます共同研究機関の定義というものを書いてございます。
○保健医療分野におけるAIに関する研究の具体的なイメージ(案)
それらを整理いたしまして、11ページ目に保健医療分野におけるAIに関する研究の具体的なイメージということで書いてございますけれども、保健医療分野におきますAIに関する研究を実施する上で、オプトアウトの手続きで医療情報を収集可能な範囲というものはどういう範囲かということを先ほどの資料などから整理しますと、学術研究機関におきます学術研究目的として倫理審査委員会の承認を得て、医学系指針の適用範囲で個人情報を取り扱うことが可能な範囲ということでございます。
下の表に、研究機関がどういった研究機関であるのか、使用するデータはどういうデータなのか、また、研究内容はどういう内容なのか、主たる目的はどういうものなのかということを整理した表をつけてございますけれども、共同研究として開発企業が入る場合には、学術研究として扱うことができる場合があるということを示したものでございます。
具体の点に関しましては、倫理審査委員会において審査をしていただくということでございまして、このページの下半分にその視点を書いてございます。1つは学術研究目的というところで、大学その他の学術研究機関と1つの主体と見なすことができる共同研究機関が行っているということが1つということでございますし、また、学術研究目的なのか、製品開発目的なのかということを、しっかり倫理審査委員会において審査をしていただく必要があるということでございます。
参考のイメージとして少し書いてございますけれども、共同研究機関におきますAIの差別化のための技術開発研究に関しましても、主たる目的がAIの医療分野別の差別化、例えば病理、内視鏡、放射線の特性を勘案したAIアルゴリズムの差別化といったようなものであって、その目的が学術研究目的に該当すれば、医学系指針の適用となる一方で、主たる目的が開発企業別における差別化、例えば他の企業との競合分野などの特性を勘案した差別化ということであれば、それは学術研究目的とは考えられないため、その目的は製品開発、営利事業として個人情報保護法に基づき取り扱う場合があるということでございます。これは、企業が参加したからといって直ちにすべてが営利事業ということで、学術研究として扱われないわけではないということを示したものでございます。
○(3)アノテーション/ラベリング
12ページ目はアノテーション、ラベリングに関して、議論を整理したものございます。アノテーション、ラベリングに関しまして議論がございましたのは、アノテーション作業の負担を軽減する方策、それは負担が大きいという観点であることが1つと、あとは、質の高いデータをしっかり集めていく持続可能な方策が必要なのではないかということ。また、分野横断的なデータの分析を可能とする体制、システムの確立というものが必要ではないかというような形のご意見だったと考えております。
アノテーションに関しましては、今も画像の分野におきましては、各学会におきまして日々取り組んでいただいている部分でございますので、当面その作業を継続していただくということでございますけれども、アノテーションに関する課題の検討には直ちに着手をする必要があるだろうということで、着手すべき課題として4点挙げております。
1つ目が、先ほど申し上げましたアノテーション作業の負担を軽減する方策としてのアノテーションの自動化技術に関する研究の促進、もう1つが、質の高いデータを収集する持続可能な方策の確立ということで、ご意見としては専門医制度との連携などがあるのではないかということをいただいておりました。その点について検討していきたいと思っております。
また、AI開発に関しまして、アノテーションはどうしても知的財産権と関係がありますので、その点につきまして、この分野で課題があるのかどうかということも検討していこうと考えてございます。また、分野横断的なデータの分析を可能とする体制、システムの確立。例えば標準的なデータ収集フォーマットなどに関するガイドラインの策定などが必要ではないかというご意見もありましたので、それに関しまして検討に着手を直ちにしていきたいということでございます。
○(7)PMDA審査/薬事承認
最後のページ、13ページでございますけれども、これはRoad Blockでいいますと7番目、PMDA審査、薬事承認というところでございますが、これに関しましては前回、医薬局のほうからご報告をいただいたということでございまして、薬機法改正に関係しまして、AIの関係に関しまして右端のところに2つ書いてございますけれども、検討しているところでございますので、医薬品医療機器制度部会におきます検討結果を踏まえて、必要に応じまして、それらの点につきまして今後検討してはどうかということでございます。この点に関しましては、今、医薬品医療機器制度部会において議論が進んでいるところでありますので、まずはそちらの方でしっかり議論をしていただこうということでございます。
少し駆け足になりましたけれども、前回ご議論いただきましたRoad Blockの前半の部分につきまして整理をした資料でございまして、本日ご議論いただきましたRoad Blockの後半部分に関しましても、これと同じような形で整理をして、またご提示をしていきたいと考えてございます。以上でございます。
(北野座長)ありがとうございます。引き続き資料5のご説明をいただきまして、それからディスカッション、質疑応答に入りたいと思います。では、資料5のご説明をよろしくお願いします。
(田中参事官)ありがとうございます。資料5をご覧いただきたいと思います。趣旨でございますけれども、第1回でも次世代医療基盤法に言及する発言がございました。委員の皆様が議論する前提として、ぜひ次世代医療基盤法についても理解を共有していただきたいという趣旨でご紹介させていただきます。
○医療分野の開発に資するための匿名加工医療情報に関する法律の概要
法律の概要でございますが、一番下にございますとおり、今年の5月に施行されております。この時点で制省令とか基本方針、それから、通知、ガイドラインに至るまで、ルールについては完成をしているという状況でございます。ただし、2番のところにございます認定業者の認定という部分については、今、事前のご相談を受けている段階でございまして、今後の作業ということになってくるということでございます。
○医療等情報の利活用の現状と課題
なぜこの法律が必要だったかということであります。1つ目の丸でございますけれども、レセプトについてはナショナルデータベースができております。レセプトは検査したというインプットは分かりますけれども、検査した結果であるアウトカムは分からないということであります。このため、アウトカムのデータの利活用をどうするかということが課題であったと。
2つ目でありますけれども、我が国、医療データはポテンシャルが高いと思いますけれども、問題は、分散して保有されているということでありますので、これを集めてつなぐことが必要であるということであります。
一番下の3つ目でありますけれども、昨年、個人情報保護法の改正がございました。病歴などの要配慮個人情報については、先ほど事務局からご説明がありましたとおり、学術研究等については例外がございますけれども、そういうものでなければオプトアウトによる第三者提供は禁止ということになっています。ただし、要配慮個人情報も含めて、特定の個人が識別できないように匿名加工をするというふうになりますと、これは個人情報に該当しないという形になりますので、第三者提供もできるということであります。
ただし、匿名加工の場合には医療機関などが自分で、あるいは事業者に委託をして匿名加工をするというのは、先ほど来ご議論がございましたとおり、例えば患者の数によっては匿名加工の程度が変わってきます。難しい作業で、そのリスクを医療機関等に負わせるのは非常に難しいということ。それから、利活用者の側にとっても、匿名加工されてしまった情報をもらうということになりますと、例えば名寄せをして、生涯にわたってケアの状況、それから、状態を追うことはできないという限界があります。そういったことを解決しようということで、3ページは情報の程度を書いていますけれども、4ページをご覧いただきたいと思います。
○次世代医療基盤法の全体像(匿名加工医療情報の円滑かつ公平な利活用の仕組みの整備)
4ページでありますけれども、次世代医療基盤法ができたということであります。これについては、個人情報保護法の特例ということで、真ん中から右下に矢印が伸びておりますが、認定事業者、国の認定した事業者に対しては医療機関等が、生の、個人情報のままの医療情報を提供することができるということであります。本人が拒否しないかぎりは提供できます。ただし、個人情報保護とのバランス、センシティブな情報であることのバランスがございますので、患者に対しては初診時に個別に書面で通知をすることが必要になります。そういう意味で、丁寧なオプトアウトというふうに言われております。
認定事業者のほうでは、個人情報のままの医療情報を受け取ることができますので、これをもとに名寄せをすることができるようになるということであります。ただし、認定事業者から利活用者に出ていく時には、匿名加工されたものしか出ていかないということになります。この場合には、企業とか研究機関から個別にオーダーを受けまして、契約を結んで、どのような目的でどんなデータを使いたい、どの範囲の人がこのデータを見ることになる。情報の共有範囲も限定した上で、それを前提にオーダーメードで匿名加工をしていくという形になります。
○次世代医療基盤法によって実現できること(例)
5ページ、利活用の例ということであります。この法律は、医療分野の研究開発であれば、主体の種別は問わず幅広く匿名加工情報を使うことができます。あくまで医療機関の中の手元にあるリアルワールドデータを集めて、それを匿名加工して出すというプラットフォームを作る、選択肢の1つを作るということでありますので、医療分野の研究開発であれば幅広く使えます。
これはあくまで法律制定時に想定した例という、あくまで1例ということになりますが、今回のこの懇談会のテーマとの関係では、左下の例3を見ていただきたいと思います。データの量も重いので、すぐにできるかどうかという課題がありますけれども、画像を集めて、それをAIで学習させて、医師の診断支援をするソフトウェアを開発するといったことが想定されるのではないか。
ただし、この場合には、この懇談会でも議論されておりますけれども、確定診断の結果のほか、病変部分を特定するアノテーション等の作業が必要になりますので、生のデータそのままというわけにはいかないという特殊性がありますけれども、こういうことが期待されるということであります。
○次世代医療基盤法のポイント
この法律は、患者が情報提供に協力していただける、医療機関も任意でありますので、協力していただけると。そのためには、今申し上げたような趣旨がしっかりと皆さんに理解されるということが重要だと思っております。各セクターの方にいろんな場を通じて説明努力をしております。いろんな場に、必要がございましたら出向いて説明させていただきたいと思います。国民・患者の方に対しては、1人1人ご協力いただければ、研究開発を通じて医療全体がよくなるんだと。センシティブな医療情報でありますが、国の認定を受けた、高い情報セキュリティを確保した認定事業者にしか提供されません。外に出ていく時には匿名加工されたものが出ていくということであります。
真ん中、<医療機関等の方へ>でございますけれども、医療機関の任意ということになりますけれども、いま言った1人1人が参加、協力することによって医療全体が良くなる。その趣旨をご理解の上、情報の提供をお願いしたいということであります。これは公立、私立等いろいろありますが、主体を問わず、オプトアウトの提供は可能ということにしております。その際の倫理審査委員会の承認等は、別途法律の枠組みがございますし、認定事業者の中に審査委員会を置いて、医療分野の研究開発として適切かどうかということの審査をしますので、別途、医療機関等の側で倫理審査委員会の承認等は不要とさせていただいています。ただし、一方でセンシティブな情報ですので、最初の受診時に書面で通知をすることが必要になるということであります。
<利活用者の方へ>でありますが、医療分野の研究開発ということであれば、産学官いずれも、民間企業も含めて利用可能ということであります。これまでのデータベースは一定の目的の下に、例えば法律で決める、同意を取るということでやってまいりました。ですから、産業利用についてはおのずと限界が出てきます。この法律は初めから、幅広く匿名加工して幅広く医療分野の研究開発に使いますよという前提でオプトアウトをしますので、幅広く使えるということがポイントということになります。情報の中身は、今のアウトカムを含むとか、それから、複数の医療機関にまたがる、ないしは時系列でつなげる。そういったことで多様な研究に対応できるのではないか。
匿名加工は個人情報保護法のガイドラインとおおむね同一にしておりまして、一般人基準です。例えば主治医のところに巡り巡って来ても、もしかしたら特定の患者さんと分かるかもしれませんが、そこまで分からなくする必要はない。その代わり、利活用者は認定事業者と契約をして、その範囲で誰が見るかということを限定した上で、匿名加工情報を出していくということになります。利活用者側でも倫理審査委員会の承認は不要というふうに整理をさせていただいております。以上でございます。
(北野座長)ありがとうございます。質問なんですけど、認定事業者が複数になると、場合によっては、ある患者さんが医療機関A、Bで、違う認定事業者のほうに情報が行って、つながらないということはあり得るんですか。
(田中参事官)ご質問ありがとうございます。実は認定事業者の数は1個に決めているわけではございません。複数出てきます。そのとおりでございます。ただし、法律上、先ほど生のままの医療情報は外には匿名加工しか出ていかないと申し上げましたが、認定事業者間では、匿名加工情報を作るのに必要だという場合に、求めがあって必要があれば、認定事業者間で医療情報のやり取りはできることになっています。したがいまして、ある認定事業者の申し込みを受けて、利活用者の希望によっては、ほかの認定事業者に声をかけて、そこからももらって、その上で名寄せをしてつないで匿名加工するということが可能な仕組みになっております。
(北野座長)使うほうから見ると、1個でユニファイドされているシステムになっているか、中は問わないけど外からはユニファイドされているシステムみたいに見えるというふうになっていないと、すごく使いにくいと思うんですよね。それを個別にいちいちやるんじゃなくて、自動的にエクスチェンジできるようになれば大規模にやれると思うんですけど、個別にほかの認定事業者にクエリーすると、例えば1万人をクロスでやりたいとなった時に、1万人個別クエリーしますかという話になる。そこらへんはどういうふうになるんですか。
(田中参事官)法律を作る時にもいろんな議論がありました。ただし、1つにまとめるという形になりますと、マイナンバーの時の議論のように、国が管理しているという印象を与えて、逆に理解が得られないんじゃないかという議論がござました。そういったことから、今申し上げたとおり、利活用者に3か所全部行っていただかなくても、1か所で受けて、ニーズに合うデータがあればそれをつなぐという仕組みは法律上も可能にしていますので、その仕組みでやっていきたいと考えています。
(北野座長)分かりました。時間もありませんが、資料4、5につきまして質問等ございますでしょうか。もしなければ、僕が聞きたいことなんですけど、今、アノテーションの議論をしているわけですけど、画像に対して。学会がアノテーションを付けたやつをこれと連動させる時にはどういう仕組みでやるのか。たぶん考えられていると思うんだけど、どういうふうになるんですかね、パスとしては。
(事務局)今、画像の分野に関しましてはAMEDのご協力を得て研究を推進しているところでございます。画像の関係に関しましては、今、取り組んでいただいている取り組みそのものを止めるというものではございませんので、研究を推進していきながら、今回ご議論いただきましたRoad Blockに対する対応案に関しましても、学会の皆さまの意見をお聞きして、これがどの程度お役に立つのか、これ以外にさらにRoad Blockがあるのか、そういったことも確認しながら検討を進めていきたいというふうに考えてございます。
(羽鳥構成員)別の委員会でも質問したかと思いますけれども、次世代医療基盤法の7ページ目、オプトイン、オプトアウトの話ですけれども、患者への通知は最初の受診時に書面で行うとなっていますけれども、普通の医療機関で、まだ患者さんと主治医の先生がいい関係になっていないような場合、そういう時に書面で許可をもらうのはなかなか難しい。例えば半年1年たって、患者さんとある程度、お互いに人となりが分かると書面も書いてもらえるんだけど、どんな人だか分からない人に自分のすべてをあらわにするなんてとてもできないという人が多いんじゃないかなと思うので、その点が1点。
例えばモデル文を作ってくださいと何回も言ってると思うんですけど、実際のオプトイン、オプトアウトの書面を、どんな文面だったらいいのか教えていただきたいのと、もう1点、ここでは出てないですけれども、初診の時にと書かれていますと、例えばこの方が5年、10年前に画像を撮っていたと。あるいは今回の解析するにあたって古いデータも必要だった場合には、古データについては利用できるのか、それとも、同意を取った瞬間からしか取れないのか。誰がどのタイミングで取れるのかということも示してください。
もう1つ、医療等IDみたいな悉皆性のあるナンバリングができないと、マイナンバーも使わないということになっていますから、そうすると、医療等IDのようなことが動きださないと、さっきのA事業者、B事業者、認定事業者や何かがあっても、きっちりした悉皆性を求めることが難しいんじゃないかと思うんですけど、そのへんはどうお考えでしょうか。
(田中参事官)ありがとうございます。まず1点目、今のご指摘、例えば既に受診されている方は、当然法律施行後のいつかのタイミングということで、そこは柔軟にしております。例えば新患の方が最初の受診以外でもいいのかというのは、ちょっと整理させていただきたいと思います。
2つ目ですけれども、通知のモデルについては、関係者にもご意見をいただきながら、実は既に医療機関での通知のひな形は作っておりまして、ホームページにも公表しております。後ほどお持ちしたいと思います。
3点目でありますけれども、法律施行後以降、ないしこれから受診される時に書面で通知をすれば、ご本人が拒否しないかぎりは、そこから行われる診療の情報だけでなくて、過去の分も含めて認定事業者には提供できるという整理をしております。
4点目、名寄せについてでございますが、当初は、まだ医療等IDが使える状態ではありませんので、氏名、住所、生年月日等の基本情報、それから、医療機関の医療情報であれば、例えば被保険者番号で確認できる範囲など、あくまで手元にある範囲で名寄せをするということになります。そういう意味では、当初は制度が不十分ということになりますが、厚生労働省で医療等IDのあり方を検討していますので、その中では、我々としては認定事業者も医療等IDを使って名寄せができるようにしていただきたいというふうに、要望しているという状況でございます。
(北野座長)ありがとうございます。それでは、本日はそろそろ終了したいと思いますが、次回以降のスケジュール等、事務局のほうからご案内いただけますでしょうか。
(事務局)お手元の資料で、参考資料の4をご覧いただければと思います。
参考資料の4は今後の議論の進め方ということで、過去にお示ししたことがあるものでございますけれども、本日、第3回ということでございますが、Road Blockの後半の部分についてご議論をいただきました。Road Blockの後半部分に関しましては、先ほどご説明申し上げましたとおり、Road Blockの前半部分と同じような形で論点整理をして、直ちに対応できる内容を整理した資料というのを、ここでいう中間取りまとめというふうに書いてございますけれども、そういった形で議論を整理したいと考えてございます。
そして、次回でございますけれども、第4回を、来年1月16日水曜日の午後2時から開催を予定しているところでございます。先ほど座長のほうからも次回以降の持ち方に関しまして、皆様のご意見もということはございましたけれども、今予定しておりましたのは、中間取りまとめを年内にやった場合には、それをご報告をしなければならないということが1点。
あとは、過去から少し対応を検討しております、医師がAIを活用し判断した場合の責任の所在について、これが整理された場合にはご報告申し上げるということと、あと、真ん中に書いてございますが、日本における重点開発領域についてというところで、この部分の進め方に関しましては、北野座長とよくご相談した上で、また皆様方にもご報告を申し上げたいというふうに考えてございます。次回の詳細に関しましては追ってご連絡をさせていただきたいと思いますので、どうぞよろしくお願いいたします。
(北野座長)今後のテーマの、画像をやってきましたけど、それ以外のところに関してご意見がございましたら、私のほうでもいいし、事務局のほうにメールなり何なりでご意見をいただければと思います。だいぶ幅広いところと、刻一刻状況が変わっているので、それに合わせてプライオリティをつけて議論をしていかないといけないと思いますので。
まだ我々、医療とAI、または健康・医療・介護という部分のごく一部だけ始めているだけで、世の中かなり劇的に変わってきていますので、それにキャッチアップして、さらに先を行くような政策なり、制度設計をしていかなければいけないと思いますので、ぜひご意見をどんどんいただければなというふうに思います。よろしくお願いします。
(西川課長)1点だけ、ご参考の情報なんですけれども、経済産業省ですが、Road Blockのイシューの5番について、今、厚労省認定のメディカルクラウドというところで検討を進められるということなんですけれども、私どもも今、次世代医療ICT基盤協議会の下のヘルスケアIT研究会の中で、健康・医療情報を取り扱う事業者のうち、プライバシー保護とかの必要な対策をしっかりとしている事業者さんの認証のシステムというものを立ち上げようと思っておりますので、足並みをそろえて進めさせていただければと思います。
(北野座長)それは2系統あってもしょうがないので、ぜひ横串で議論していただいて、AI戦略の中では横串でやるというのは基本的な方針でございますので、ぜひそこらへんは協調してやっていただければと思いますので、念のためコメントさせていただきました。ありがとうございます。
それでは、今日はご苦労さまでした。ありがとうございます。それでは良いお年を。

ホーム> 政策について> 審議会・研究会等> 厚生科学課が実施する検討会等> 保健医療分野AI開発加速コンソーシアム> 第3回 保健医療分野AI開発加速コンソーシアム 議事録

ページの先頭へ戻る