ホーム> 政策について> 審議会・研究会等> 厚生科学課が実施する検討会等> 保健医療分野AI開発加速コンソーシアム> 第4回 保健医療分野AI開発加速コンソーシアム 議事録

第4回 保健医療分野AI開発加速コンソーシアム
議事概要
 
○ 日時 平成31年1月16日(水) 14:00~16:00
 
○ 場所 中央合同庁舎第5号館 厚生労働省 省議室(9階)

○ 出席者(50音順)
(構成員)◎北野構成員、末松構成員、田辺構成員、豊田構成員、西川構成員、羽鳥構成員、保科構成員、堀川構成員、松尾構成員、宮田構成員、山内構成員、○米田構成員(◎は座長、○は副座長)
(代理人)市川構成員代理(辻井構成員の代理出席)、久芳構成員代理(渡部構成員の代理出席)
(参考人)高橋参考人、羽田野参考人、三浦参考人、横山参考人
(オブザーバー)大坪次長、岡企画官、葛西技術参与、西川課長、原参事官、増原課長補佐、山田参事官
 
○ 議題
 (1)開会
 (2)議事
  [1]医療分野のAI開発におけるRoad Blockに対する迅速に対応すべき事項(報告)
  [2]コンソーシアムにおける今後の進め方について
  [3]医師がAIを活用し判断した場合の責任の所在について
  [4]介護・認知症領域における取り組みについて
  [5]その他
 (3)閉会
○ 配付資料
資料1 医療分野のAI開発におけるRoad Blockに対する迅速に対応すべき事項
資料2 保健医療分野AI開発加速コンソーシアム 議論の進め方(案)
資料3 本邦における人工知能(AI)を用いた診療支援の事例(横山参考人提出資料)
資料4 AIを用いた診断、治療等の支援を行うプログラムの利用と医師法  第17条の規定との関係について
資料5 AIを活用した認知症対応型IoTサービス(羽田野参考人提出資料)
資料6 ケアサポートソリュション (CSS) による介護イノベーション(三浦参考人提出資料)
資料7 介護分野における人工知能の実装について(高橋参考人提出資料)
 
参考資料1 保健医療分野AI開発加速コンソーシアム 開催要領
参考資料2 日本における重点開発領域について
(「保健医療分野におけるAI活用推進懇談会」での議論)
参考資料3 人工知能(AI)を用いた診断、治療等の支援を行うプログラムの利用と医師法第17条の規定との関係について(課長通知)
 
○ 議事
(事務局)定刻になりましたので、「第4回保健医療分野AI開発加速コンソーシアム」を開催させていただきます。
皆様方におかれましては、ご多忙にもかかわらずご出席いただきまして、誠にありがとうございます。まず初めに、事務局より構成員の出欠についてご報告をさせていただきます。
本日は間野構成員、山本構成員より欠席との連絡をいただいております。また、豊田構成員は、別会議との関係で遅れての出席とのご連絡をいただいております。また、松尾構成員が少し遅れていらっしゃるようでございます。
本日ご欠席の構成員の代理出席の方でございますけれども、国立研究開発法人産業技術総合研究所 人工知能研究センター 研究センター長の辻構成員の代理として市川副センター長、一般社団法人 日本医療機器産業連合会会長の渡部構成員の代理として、久芳常任理事にご出席をいただいております。
また、本日は4名の参考人として、東京大学医科学研究所附属病院・血液腫瘍内科 横山助教、認知症高齢者研究所 羽田野代表理事、コニカミノルタQOLソリューションズ株式会社 三浦代表取締役社長、国際医療福祉大学 赤坂心理・医療福祉マネジメント学部 高橋学部長にご出席をいただいております。
次にオブザーバーの方でございますけれども、本日も関係省庁から多くの方にご出席をいただいております。内閣官房健康・医療戦略室 大坪次長、内閣官房情報通信技術(IT)総合戦略室 山田参事官、個人情報保護委員会事務局 岡企画官、経済産業省 商務・サービスグループ ヘルスケア産業課 西川課長、文部科学省 研究振興局 原参事官、総務省 情報流通振興課 情報流通高度化推進室の増原課長補佐、厚生労働省データヘルス改革推進本部プロジェクトチーム 葛西技術参与にご出席をいただいております。
そのほかの事務局及び関係部局等からの出席者につきましては座席表に記載のとおりですので、個々の紹介は割愛させていただきます。
カメラ頭撮りに関しましてはここまでとさせていただきます。それでは、以降の議事進行につきましては座長にお願いいたします。
(北野座長)ありがとうございます。座長の北野でございます。まず、資料の確認を事務局からお願いいたします。
(事務局)本日はペーパーレスにて実施させていただきますことを、ご了承のほどよろしくお願いいたします。資料につきましては、議事次第、資料1~7、参考資料1~3、および過去3回分の資料を、お手元にございますタブレットに格納しております。タブレットの操作方法につきましては、「タブレット操作説明書」をご確認いただければと思います。ご不明な点がございましたら、職員がご説明に参りますので挙手のほどをお願いしたいと思います。どうぞよろしくお願いします。
(北野座長)ありがとうございます。では、議事に入らせていただきます。
本日の進め方ですが、前回会議までに、主に画像診断支援系を中心にRoad Blockごとの課題を整理してまいりました。今回から、さらに幅広に重点開発領域に関して議論したいと思っておりますが、本日新たに、介護・認知症領域に関して取り上げていきたいと思います。
まず前半は、これまで議論してきたRoad Blockの取りまとめと、今後の会議の進め方に関して事務局からご説明をいただきたいと思います。そのあとに、前回会議で議論しました医師がAIを活用した場合の責任所在がどこにあるか、そのスキームの作り方に関して、事務局、参考人から発表いただきまして、そこで30分ほど討議します。その次に、介護・認知症領域に関して3名の参考人の方々からご発表いただき、30分程度討議していきたいと思います。
まず、資料1、2に関しまして、改めて事務局からご報告をお願いします。
(事務局)それでは事務局よりご説明いたします。資料1をご覧ください。
「医療分野のAI開発におけるRoad Blockに対する迅速に対応すべき事項」
こちらは医療分野のAI開発における様々なRoad Blockについて、第2回および第3回の会議で構成員からいただいたご意見と、それに対する迅速に対応すべき事項をまとめたものでございます。
資料の2ページ目をご覧ください。AIの開発にあたってのRoad Blockを(1)から(9)に分類し、これまで第2回と第3回の2回に分けて本コンソーシアムでご議論いただきました。前回会議では前半のRoad Block(1)、(2)、(3)、(7)とその対応策を事務局からご報告させていただきましたが、本資料は前回の会議でご確認いただいた前半部分を整理したものに加え、後半部分のRoad Block(4)、(5)、(6)、(8)、(9)と、その参考資料を新たに加え、中間取りまとめとして1つにまとめたものでございます。
後半部分につきましては、あらかじめ構成員の先生方には内容についてご確認いただき、いただいたご意見を反映させ、昨年12月、事務局にて取りまとめました。年末のお忙しい中、構成員の先生方にはご確認いただきまして誠にありがとうございました。
今回新たに加わっている後半部分のRoad Blockでございますが、例えば13ページをご覧ください。(4)データ転送・標準化/匿名化とございますが、前回会議で構成員からいただいたご意見を真ん中の欄に記載し、それに対する迅速に対応すべき事項をいちばん右側の欄に示しています。前半部分と同様、後半部分につきましても、すでに検討に取り組んでいる会議体など既存の枠組みもございますので、それらを受け皿として引き続き対応していくものと、今般新たに検討に着手するものをそれぞれ分けて記載しております。
次の14ページ、Road Block(5)も同様でございます。15ページから29ページにかけてはRoad Blockの(4)、(5)について、関連する既存の取り組みを参考資料として添付しております。
ここで1点事務局より資料を訂正させていただきます。本資料の中で、参考資料として盛り込んでいる資料番号が一部間違っておりました。15ページにお示ししている資料でございますが、参考資料5と右上に書かれておりますが、正しく参考資料4になります。以降の参考資料も番号が1つずつずれておりますので、追って正しく訂正したものを厚生労働省のホームページに掲載させていただきます。この場で訂正してお詫び申し上げます。
また、30ページ以降も、前回会議で議論いただいたRoad Blockとその対応策となっております。
次に33ページをご覧ください。いちばん右側の欄でございますが、「「画像」以外の分野、及び分野横断的な課題について、本コンソーシアムで検討し、迅速に対応すべき事項等をまとめる」としております。
これまで本コンソーシアムでは画像診断支援の話を例に、AI開発工程の各段階、すなわち、医療機関における倫理審査委員会での課題から製品開発後の商用展開について、フェーズごとに論点整理を行っていただきましたが、次に、健康・医療・介護領域におけるAI開発の現状把握や課題などについて、ご議論いただきたいと考えております。
ここで参考資料2、「日本における重点開発領域について」の1ページ目をご覧ください。
こちらは一昨年、厚生労働省で開催した「保健医療分野におけるAI活用推進懇談会」において、AIの開発を進めるべきとされた6つの重点領域、具体的には、ゲノム医療、画像診断支援、診断・治療支援、医薬品開発、介護・認知症、手術支援を示したものでございます。この6つの領域を選定するにあたっては、資料の上段2つ目の○に示したとおり、我が国における医療の強みの発揮と、我が国の保健医療分野の課題の解決の両面から検討がなされました。下の表には各領域における、これまでの主な取組について示しております。
また、次のページでございますが、AI開発・利活用によって期待されることを、先のAI懇談会での議論をベースに事務局にて作成した俯瞰図となっております。
次に資料2、議論の進め方(案)をご覧ください。本日第4回の会議からは、先のAI懇談会で重点領域と選定された各領域について、これまでの取り組みのフォローアップや有識者からのご発表も交え、まずは分野ごとにご議論いただきたいと考えております。
そこで、当初本コンソーシアムは本年3月末までの開催を予定しておりましたが、6月ごろまで会議を延長し、十分にご議論いただきたく、時間を確保させていただきたいと考えております。なお、資料に示しているスケジュールはあくまで現時点での予定でございますので、今後の議論の展開を見ながら、議題などについては適宜追加させていただく予定で考えております。事務局からは以上でございます。
(北野座長)ありがとうございます。引き続き、資料3、4につきまして、横山参考人および事務局からご説明をお願いします。
(横山参考人)ご紹介ありがとうございます。東大医科研の横山と申します。資料3をご覧ください。
「本邦における人工知能(AI)を用いた診療支援の事例」
まず、我が国保健医療分野においても、今後AIなどを用いた診療支援が本格化することが想定されますが、診療のどのプロセスにAIが介在しているかは明らかではありません。医師が行う診療とAIの関係性について整理する必要があり、そこで、本研究では国内でのAIを用いた診療支援研究においてAIがどのように活用され、AIがどの診療プロセスに介在しているかを整理する目的で、診療支援研究所で使われているAIの類型化を試みましたので概要を報告します。
○ヘルスケア領域におけるAI関連論文数(PUBMED)
最上段のグラフは、PUBMEDで検索したヘルスケア関連の論文の経時的な推移となりますが、その下のグラフはヘルスケア論文をAIに絞った場合の論文数となります。最下段のグラフは、さらにAI関連のヘルスケア論文を日本に絞った場合の論文数となります。
Y軸の論文数を見ていただくと、AI関連の論文は全ヘルスケア論文の1%に満たないことが分かりますが、年々増加しています。増加の傾向はディープ・ラーニングの技術が普及し始めた2010年を境に特に顕著となっており、加速度的に増加していることが分かると思います。
論文数では全世界の0.5%に満たないですが、本邦においてもAI関連の論文は加速度的に増加しておりまして、国内外を問わず、ヘルスケア領域の研究においてAIが1つの大きなトピックであると言えると思います。
○本研究における手法
用いた研究手法ですが、ここに提示していますように、国内外の文献や雑誌のレビュー、有識者へのヒアリングが主なものとなります。
○診療のプロセスは各ステップとサブステップから成る
まず、診療プロセスについて説明いたします。ご覧いただいていますように、一般に診療のプロセスは、診察、検査、診療、治療から成り立っています。
そして、各ステップの間には医師が主体の判断・解釈を行うサブステップが存在いたします。例えば診察から検査の間には、病歴や診察所見を判断して、診断のための検査戦略を立案するサブステップが存在します。ここでは、初期診断仮説形成のサブステップと呼ぶことにします。次に、検査と診断の間にも、やはり検査が行われたあとに、検査結果を医師が解釈・判断して診断仮説を成熟するステップがあります。ここでは診断仮説形成のサブステップと呼ぶことにします。最後に、診断と治療の間には、診断から治療戦略を立案するサブステップが存在します。ここでは治療戦略立案のサブステップと呼ぶことにします。
結論からいいますと、国内外の診療支援AIをレビューした結果、AIは診療プロセスの中で、医師主体判断のこれらのいずれかのサブステップにおいてその効率を上げて、情報を提示する支援ツールにすぎないということが分かりました。本プレゼンでは時間がありませんので、国内の代表的な研究2例だけを具体例として提示し、説明いたします。その他の研究については報告書をご参照ください。
○画像診断支援は、人工知能の実用化が最も早い
国内外の文献を検索しますと、ほとんどが診断仮説形成を支援するAIでした。具体的にはディープ・ラーニングによる画像認識技術を活用した、いわゆるコンピュータ支援検出、あるいは支援診断と呼ばれるものですが、つまり、画像診断支援は人工知能の研究が最も進んでおり、実用化が最も早い分野といえます。
では、実際に画像診断支援AIの具体例について、次のスライドで説明します。
○1.内視鏡診断支援の例
画像診断支援AIの代表例としては、内視鏡検査画像を用いた画像診断支援用AIが挙げられると思います。お示ししておりますのは、ディープ・ラーニング技術を活用して、大腸内視鏡画像の支援AIに学習させる画像の例です。
上段が学習用のポリープ画像、下段が大腸正常粘膜部となります。ポリープやがんなどの病変部と非病変部の内視鏡画像をあらかじめ大量に読み込ませてモデルを作成して、学習プロセスを実行します。その後、検査画像を読み込ませると、病変が疑われる該当箇所と確率が算出される仕組みとなっています。
次のスライドです。お示ししておりますのは、上部消化管内視鏡画像診断支援AIの例となります。先ほどは大腸画像でしたが、同様に胃の内視鏡画像においても、病変部と正常部を学習しますと、病変が疑われる該当箇所が表示されています。
黄色が、AIが病変部と判断した部分、緑が内視鏡専門医が病変部と判断したものとなります。左図のように、遠い画像では、病変を認識できたのは熟練した専門医のみで、AIは病変を認識できていません。しかし、近接画像ではしっかり病変部を認識できていることがあります。見るべき場所が表示されていますので、検査の効率化や見落としの削減が期待できるといえます。
○1.内視鏡診断支援の例(擬陽性例)
しかし、AIにも間違いはあります。ここにお示しします画像の黄色部分は、AIが病変の可能性が高いと判断した部分ですが、検査医は、これは誤りであると判断しました。
○診療のプロセスからみるAIの支援内容
先ほどの診療のプロセスから、内視鏡検査においてAIが支援している内容を整理してみます。AIが支援した内容は、内視鏡の全体像から見るべき病変部の抽出と解剖学的部位の判定、そして、癌なのか、正常なのかの判定などです。検査医がリアルタイムに癌か正常部位かを瞬時に判断する上で必要な診断仮説形成のサブステップにおいて、情報をリアルタイムに提示することで支援しているといえます。ここで注意すべきは、実際に癌か正常化の判断をしているのは、検査医、医師であるということです。
○Watson for Genomic(WfG)の概要
次に東京大学医学研究所の臨床シークエンス研究において活用されている支援AI、Watson for Genomic、IBM社の例を挙げます。
Watson for Genomicは、膨大な量の論文やデータベース、薬剤、臨床試験などの情報があらかじめ格納されています。そして、情報を月単位で更新しています。Watsonに遺伝子変異の一覧を質問として入力しますと、格納された情報をもとに根拠の重みづけや数値化を行い、重要度の高いドライバーとなる変異と、それに紐付けられた薬剤のリスト、そして臨床試験の情報を回答として、レポートとして作成してくれます。
○2. WfGによる白血病全ゲノム解析の実例
私どもは血液がんを対象に、2015年からWatsonを用いた臨床シークエンス研究を行っていますが、その実例を提示いたします。症例は急性骨髄性白血病で、骨髄を腫瘍検体、口腔粘膜を正常対照として全ゲノムシークエンスを行いました。シークエンスの結果7,596個と、途方もない数の体細胞変異が検出されています。
○変異の解釈と絞り込み作業(curation)において、WfGは専門医の判断を支援するツールとして有用である。
臨床シークエンスでは、膨大な変異情報からドライバー変異と薬剤標的となる変異の絞り込みが必要ですが、この過程を人が行うことは大変労力を要します。本例のように7,596変異あった場合、文献などを参照しながら変異や薬剤標的を絞り込むのには、人が行うと1、2週間はかかります。これは大変な労力で診療の片手間にできるものではありませんが、Watsonであれば3分程度で回答を提示することが可能です。本例では、Watsonと専門医の検査結果はご覧のように完全に一致しまして、1個のドライバー変異と1個の薬剤標的を見いだしました。
○WfGと専門医の推論結果
両者の推論結果ですが、本例においては染色体4番の欠失を認めまして、ドライバー遺伝子異常として急性骨髄性白血病では極めてめずらしい構造異常、FIP1L1-PDGFRA融合遺伝子を検出しました。
本融合変異においては、PDGFRAの過剰発現に伴うパスウェイの活性化が報告がありまして、またPDGFRAを阻害するチロシンキナーゼ阻害剤、imatinibが有効であることも報告されています。Watson、専門医とも、実際にimatinibをactionとして推論しまして、その結果を主治医にフィードバックしています。
さらに私どもは全ゲノムシークエンスの情報をもとに、この融合遺伝子を治療中にモニタリングするためのデジタルPCRのアッセイを作成いたしました。検出感度は0.01%以下と非常に高いものです。
次のスライドで、imatinibによる治療効果と治療中の残存病変のモニタリング結果をお示しします。この方は主治医が種々の結果を総合的に判断して、症例に対してimatinibの治療を行いました。グラフは、赤が顕微鏡で検出した血液中の白血病細胞の絶対数です。紫が、先ほどのデジタルPCRの検査を用いた融合遺伝子の結果です。紫の変異アレルの単位はパーセントです。
ご覧のように、本症例ではimatinibの投与に白血病細胞変異アレルの劇的な減少が見られております。途中、imatinibは副作用のため休薬しておりますが、末梢血の白血病細胞は0を維持しています。休薬に伴い紫の部分が0.1%、骨髄中の変異アレルが増加しておりますが、臨床的な再発の一歩手前のこの状態でimatinibを再投与したところ、再度寛解に至っております。この方は、現在元気に外来通院されておられます。
○診療のプロセスからみたWfGの支援内容
診療のプロセスから、この例においてWatsonが支援した内容を整理してみたいと思います。Watsonが支援した内容は、専門医が融合遺伝子をドライバーとする急性骨髄性白血病と診断に至る診断仮説形成のサブステップであったと考えます。その部分において効率を上げ、必要な情報を提示し、Watsonが支援したと考えられます。具体的な支援内容は、文献や変異データベースの検索や、ドライバー変異の抽出にかかる労力といえます。
次の治療のステップでは、主治医はPDGFRAを標的としたimatinib治療を選択していますが、ここでもAIは、治療に至る治療戦略立案のサブステップにおいて、Druggable変異の抽出、文献検索などの効率を上げ、必要な情報を掲示することで支援したと考えられます。注意すべきは、診療治療を行った主体はあくまでも医師で、AIは診断仮説形成、治療戦略立案のサブステップを支援したにすぎないということです。
次のスライドです。ご覧いただいておりますWatsonと専門医のドライバー変異の推論結果について、導入当初の2016年と、ごく最近の2018年の違いをお見せしております。
2016年時点ではかなり両者の相違が目立ちましたが、米国の開発チームにフィードバックを続け、血液がん領域においても学習を繰り返した結果、最近の2018年では両者の相違は少なくなりつつあることが分かると思います。最近では両者に相違があっても、専門医の判断が、2018年にお示ししますように、かなりWatsonの推論結果にフォーカスされるようになってきているのがお分かりになると思います。
実際に私どもは、専門医が見落としたドライバー変異をWatsonが推論していたケースを何例も経験していまして、AIか人間かではなく、AIと人間の融合が大事かと思われます。Watsonに代表されるAIは、我が国のゲノム医療において、curation過程の効率化や見落としの削減に役立つのは、ここに示しますように間違いありません。
○まとめ
診察、検査、診断、治療の診療のステップには、医師による結果判断、解釈のサブステップが必ず存在します。AIは、診療プロセスの中で医師主体判断のサブステップにおいて、効率を上げて情報を提示するツールにすぎません。AIを用いた診断・治療支援を行うプログラムを用いて診療を行うことは、医療の質向上そのものに有用であると考えられますが、AIの推測結果には誤りがあることに常に留意すべきと思われます。
○考察
AIの推測結果に誤りはありえますが、判断の主体である医師がAIを用いた診療の責任を負うべきと考えられます。また、その前提として、医師に対して診療支援AIについての適切な教育を行うべきと考えています。
○結語
AIを用いた診断・治療支援を行うプログラムを用いて診療を行うことは、医療の質向上に有用であると考えられますが、その場合、診断治療などを行う主体は、少なくとも当面は医師で、当該診療は医師法の医業として行われるべきものであって、医師はその最終的な判断の責任を負うことが原則と考えます。以上です。
(北野座長)ありがとうございます。引き続き、これに関係がございますので資料4の説明をお願いします。
(事務局)事務局、医政局でございます。続きまして、資料4をご覧いただきたいと思います。
関連してですけれども、医政局では、横山先生の今のプレゼンテーションいただきました研究内容そのほかを踏まえまして、AIを用いた診断、治療等の支援を行うプログラムの利用と、医師法第17条の規定との関係につきまして通知を発出させていただいておりますけれども、その概要について資料4にまとめてございますので、ごくごく簡単にご説明をさせていただきます。
現状として、人工知能を用いた診断、治療等の支援を行うプログラムを利用して診療を行うということにつきまして、先ほど横山先生の研究においても、2点ございますが、まず1点目は、AIは診療プロセスの中で医師主体判断のサブステップ、これにおいてその効率を上げて情報を提示する支援ツールにすぎないということ。2点目ですが、判断の主体は少なくとも当面は医師であると整理がなされております。
こうした内容、現状を踏まえまして、先般、これは平成30年12月19日になりますけれども、医政局といたしましては、人工知能を用いた診断、治療支援を行うプログラムを利用して診療を行う場合につきましても、まず、診断治療等を行う主体は医師であるということ、2点目として、医師は最終的な判断の責任を負うということ。3点目ですが、当該診療は医師法第17条の医業として行われるということを明確にいたしまして周知を行いました。参考資料3にその通知の実物がございます。医政局からは以上でございます。
(北野座長)ありがとうございます。では、資料3、4に関しまして議論をしたいと思います。羽鳥先生お願いします。
(羽鳥構成員)横山先生、ありがとうございます。医師会の羽鳥です。判断の責任について法的な解釈はよく理解できるのですが、将来的な話として、横山先生のご提示の中に、AIは異常ありと指摘したが、人がそれを無視して医師としての判断で正常とした。将来こういうようなときに、AIに相談せずに医師のみが判断をして結果としてあやまちがあったときに、刑法上はもちろん何もないでしょうけど、民法上、患者さんからクレームが出る恐れについてはどうなのか。そういう場合は医師に責任ありとなるのか?ということはいかかでしょうか。
(横山参考人)ご質問ありがとうございます。その点は大事な点でございまして、私ども一昔前は文献検索するのに、例えば書庫に行って検索していた。今はグーグルとかパブメドを使うのが診療の上で当たり前になっています。なので、そういう感覚でAIも使われるようになって、十分な検討をしないという問題が今後は起こってくる可能性があります。
つまり、AIをツールとして使わない医師がどんどん減ってくるのではないかと考えていて、見落としがあった場合に、AIを使っていないということが問題になる可能性は、ないとはいえないと思っています。答えになっているかどうか分かりませんが、以上です。
(宮田構成員)横山先生にお伺いしたいんですけれども、文献レビューを行った時に、去年だとIDX、糖尿病網膜症の自動診断というものが挙げられていたんですが、今回のレビューでは、IDXについてはどういうスタンスで取り扱われましたか。
(横山参考人)ご質問ありがとうございます。IDXに関しても一応レビューはしておりまして、これは網膜症診断の画像診断支援AIですので、いわゆる網膜症と診断する過程での診断仮説形成のサブステップを支援しているにすぎないと判断しております。
(宮田構成員)なるほど。今回の医政局の判断にも全く異論はないし、こういうステップでいくべきだと思いますが、いわゆる自動診断と彼らは言ってるけれども、横山先生の定義では、そうではないという判断で扱ったということですね。
(横山参考人)そうですね。IDX見ますと糖尿病網膜症と出てきますけども、それを使って照会したり、最終的に判断しているのはやはり医師ですので、医師がAIを使っているというこの構図には変わりないと思っています。
(宮田構成員)あれは最終的に、いわゆる医師に照会するか、もう一度受診するか。このステップを挟んでいるので、これがあることで、今回の医政局定義にもIDXのようなものは該当するという判断になりますか。これは迫井さんに対する質問にもなるんですけれども。
今の判断がこういった新しい技術にも、医師の診断をサポートするものとして医政局の判断の中にも入りうるのかなと。おそらく、さっき羽鳥先生にもご質問いただいたと思うんですけど、進歩の早さから、境界がいろいろな方向に揺らいでいく可能性があるので、こういったディスカッションができると幸いです。
(迫井構成員)医政局でございます。ありがとうございます。これはほかの委員の方々も、おそらく同様なご指摘、ご質問があろうかと思いますので、関連すると思いますが、これは現時点での技術を前提とした整理になろうかと思いますので、将来的に技術がどういうふうに変わっているのか。もう1つは、個々の事例によっても変わる話でもあろうと思いますので、あくまで原則といいますが、現時点での整理といたしましては、先ほど横山先生が整理されたような、診断のプロセスにおける位置づけとしては、あくまでサブステップにおいて、その効率を上げるというような考え方を確認させていただいているということでございます。
(宮田構成員)ありがとうございました。
(山内構成員)2点なんですけれども、今の点で、現場の医師の側からしてみますと、医政局の、あくまでも現段階の技術においてということを強調していただきたい。これからAIの開発をこういう会議とかで進めようとしていく中で、医師が確認できないレベルのものがどんどん出てくると思うんですね。その中で、それらもすべて含めて現場の医師の責任であるということになってくると、それを用いることを現場が恐れてしまうというか、進めることを妨げてしまうことがないように出していただきたいということが1点です。
もう1点、横山参考人の資料3の18ページ、考察のところなんですけれども、「その前提として医師に対して診療支援AIについての適切な教育を行う事で安全性を確保していくべきである」と書かれていますが、適切な教育というものはどういったものを考えていらっしゃるのか。
研究班の中でそういうお話もあったのか、現場の中でどこまでそのことを教育していかなきゃいけないのかとか、その教育に要する時間とか、どこまで最低限。例えばAIを使うことになったら、今のALSとかBLSというように、何か必ずワークショップをとってからやるようにということを想定していらっしゃるのか。適切な教育というものに関してもう少し教えていただけますでしょうか。
(横山参考人)ご質問ありがとうございます。我々も今現在、どのようにして教育を行うべきかということは班を形成して模索している段階で、確定的なことは言えないですけども、スタンスとしては、私どもが医師として、卒業して診療するにあたってパブメドの講習会のような形で、BLSとか、卒前とか卒後、初期の医師の過程で、少なくともAIの原理の概論や、実際にその流れ。AIの推論結果を鵜呑みにしないということがあくまでも大事であって、AIが推論して、医師が判断するプロセスを模擬的に学習するBLSのようなプロセスが私は必要だと考えていますが、現段階ではまだありません。ただ、最近、メディカルAI学会の取り組みなどを参考にしていますが、そういうことを医師の教育課程にも多少なりとも、実習を含め割くべきなのかなと思っております。
(市川構成員代理)ありがとうございます。事務局から先ほどもご説明がありましたけれども、この方向で良いかと思いますが、少なくとも当面は、というところがポイントなのかなと理解しております。
今のAIの技術でいうと、医師を越えるような判断が必ずしも確保できない、という前提で、医師が最終的な責任を持つというところは理解できるんですが、例えば自動運転でいうと、レベル2までの技術なので現行の道交法でやりましょうという話に相当すると思います。一方で、技術が進んでくると、現行の道交法の規定でいいのかという議論になってきます。
その際、ここで言う医療・診療が、すべてすぐに人工知能に変わるかというとそうではなくて、例えば自動運転でいうと、田舎町で無人運転をやってみましょうというところから始めるわけです。今日ご説明いただいた中でいうと、例えば、診察のいちばん簡単なところは、まずは全部人工知能に任せてもいいじゃないかなど、人工知能がどこから入ってくのかというところを考えつつ、その中で、現行の医師法の定義の規定でいいのかということを考えていく必要があるのではないかと思います。
この文章だけで見ますと、現行の医師法では、医師でなければ医業をなしてはならないとされ、一方、医業は医師の判断をもってするものでなければと書いてあり、これは若干トートロジーになってしまっています。医師の医学的な判断でもってするものでなければとありますが、AIの判断でできるものは医業なのかという話になります。また、これは医療機器法の議論かもしれませんけれど、例えばアップルのアイウォッチで心電図を撮るのは医療になるのか、ならないのかというところから始まってくると思うので、そういったところの規制については、いろんな利害関係者はあると思うのですが、ふんだんに見直しをしていただき、議論していただければなと思います。
もう1つ、先ほどもありましたけれども、今後適切なAIの教育が医師にとって必要だというご指摘がありました。これに関して申し上げますと、今の機械学習、あるいはディープ・ラーニングの技術は、なぜAIがそういうふうに判断したか分からないという技術的な制約がある中で、AIが判断した結果に関し、これを医師はどう判断すればいいかというのかという点では、まだAIが技術的に未熟な状況にあります。
こういった流れで、説明できるAIが必要だというところがあり、技術面も併せて取組を進めていかないといけないと思います。また、今後、AIの技術に今後任せるようになってくると、逆に医師の技術力が落ちてしまうということにならないように、医師もそれを踏まえてさらに勉強できる体制・技術を作っていくことが、併せて取組に当たって必要ではないかと思っています。
(北野座長)ありがとうございます。ほかにご意見はございますでしょうか。
(葛西構成員)横山先生、大変興味深いお話をありがとうございます。私、実はデータヘルス本部でがんゲノムをやっておりまして、この件、宮野先生からお話を伺っていまして、非常に興味があるなと。いわゆる人工知能を使うことによってimatinibの治療を受けることができて、その方は、ある一定の治療成果を得られた例だと思うんですね。
その時に私が悩むのが、1つがホールゲノムを使う時です。今回ホールゲノムなので。ホールゲノムを使う時に、がん治療だけで必ずしもすべての分野、例えばEGFRと肺腺がん、今日間野先生がいらっしゃらないのであれですけれども、肺腺がんの関係でいうと、パネルでいいのかなみたいなところと、ホールゲノムをやらなきゃいけない領域があるんだということについては何となく承知をしています。
1点、私の意見としては、その時に、必ず人工知能はブラックボックスであるといわれるのは、私はテクノロジストとしては多少心外でございまして、この分野、宮野先生というテクノロジストの方が、かなり丁寧にWatson for Genomicに関する、例えばアルゴリズム。活性化関数がどうであるとか、実際にアーキテクチャとか、データベースセンターがどんなふうになっているかということを確認した上で、もちろん横山先生はじめ、腫瘍の専門医の方々と一緒になってやったというのが重要なポイントだと思うんですが、ブラックボックスの場合、片方が抜け落ちてると思うんですね。
たいていはテクノロジストの方があまり関わってなくて、何だか分からないぞと。活性化関数も何だか分からないし、例えば確率統計、ベイズを使っている場合だったら事前確率をどう設定すべきか。それぞれパラメータ因子についてきちんと確認せずに、ただ単に人工知能が結論が出たので、これで先生どうですかと言われると、ドクターの方々は皆さん、どうしたらいいんでしょうかとなってしまうと思うので、必ず一定のAIに関する知識があるテクノロジストと専門医の方が一緒になってやることが重要なのではないかというのが、私の1つの意見です。
一方、今回の件で私が悩んでいるのは、ホールゲノムをやろうとすると、例えば血液なんてぴったりだと思うんですね。標準治療の中でなかなか分からないからホールに向かっていったと思うんですけれども、そのほかの分野で、横山先生からするとホールゲノムで使えるような分野にはどんな分野があるのか。例えばプレクリニカルだったら使えるのかとか、そういったことにご示唆があれば、いただけるとありがたいなと思っています。
(横山参考人)ありがとうございます。まだ分からない遺伝疾患にも、ホールゲノムは有用でしょうし。というのは、ホールゲノムは現状まだ読みが浅いので、いわゆる異常が多くないと検出感度が落ちてしまうので、遺伝子疾患では、ジャームライン変異に関しては未知のものがみつかる可能性は十分あります。がんに関しても、スピードという点においてホールゲノムをしますと、腫瘍量がある程度多かった場合にはかなりの確率で融合遺伝子を見つけられます。腫瘍量が多い検体が得られる時という前提ですが、例えば半分以上とか、50~80%ぐらいあればホールゲノムを試みるべきなどという目安があります。
我々血液量はエンリッチしていますので、腫瘍が。スピード重視の時はホールゲノムでいこうという形でいったりしますが、ある程度結果を急ぐ時とか、何回もシークエンス、つまり、パネルをやって、エクソンをやって、全ゲノムをやるという手順を踏むよりは、全ゲノムをやってある程度大ざっぱな結果を出すというのは、融合遺伝子とか構造異常が見つかりますので、いいのかなと思っています。前提としては、遺伝疾患とか腫瘍量が多い検体が得られる腫瘍、標準治療が得られない腫瘍などが、今ぱっと頭に浮かぶ次第です。
(北野座長)ありがとうございます。ほかにございますか。では、田辺さん。
(田辺構成員)私もAIに関して現場でいろんな方に使いましょうというお話をしますと、ブラックボックスなので使いづらいですというご意見をいただいているので丁寧な説明をしたほうがいいですよねということを、前回お話をさせていただきました。
今、葛西構成員からお話のあった内容として、AIで私がふだん使っているものですと、医療ではなくてセキュリティの分野になるんですけれども、今、本当に巧妙で、変な人が入ってきている。本当に変な人なのかどうなのかというのは判定が非常に難しいですが、そこをAIに判定させています。メーカーさんとか開発した方に丁寧に説明をしていただくと、どういうアルゴリズムを使って、どういうことでリスク判定しているのか。数学の難しい話にもなるので、なかなか理解しづらいところはあるんですが。
ただ、それをいろいろ伺っていると、決してブラックボックスではない。そういう形で結論を導出しているのであれば、セキュリティ対策としてそこは遮断したほうがいいとか、隔離したほうがいいというように、結論を出しやすいということはございます。難しい公式も出てきますけれども、説明を受ける側もそういうものだということを理解して話を聞いていくと、決してブラックボックスではないというところは見てとれるかと思います。
私、もう1つの立場としまして、今AMEDのほうでPOという立場でいろいろな研究を拝見しているんですけれども、医療の専門家の先生、AIの専門の先生、統計の先生、多方面の先生がお集まりになって、それぞれの知見を用いて結論を導出しているような場合ですとお話も早くて、決してブラックボックスということもお話になりませんし、そういうことであればこういう形で助言として使えるよねという形で、きれいに結論がまとまっていきやすい体制がとれていますので、研究体制としては多方面の先生からご意見をいただくことで、そういった不安も払拭できるのではないかというところはございます。
(山内構成員)今、チーム医療というのが非常に進んできています。医療も非常に複雑になっていますので、例えば抗がん剤を使う時には、薬剤師さんが抗がん剤の副作用を患者さんに説明してくれたり、医師も、これが起こった時というのは一緒に、薬剤師さんや看護師さんや。それから、医療費も複雑になってきているのでメディカルソーシャルワーカーとか、そういった形のチーム医療体制ができていると思うんですが、診療支援のAIをやる時には、チーム医療というものがコンセプトとして必要なんじゃないかと、葛西さんとか田辺構成員の発言を聞いていて思ったんですね。
横山参考人が教育ということをおっしゃっていただきましたけど、教育と、もう1つは、現場でそういったものを使えるようなチーム医療のプレーヤーというものも、ある程度見本みたいなものを現場に持ち込む時に入れていただくと、現場の医者は、ブラックボックスとかAIは分からないとか言わないで、そういうのが分からなかった時に聞けて、患者にきちんと説明ができるような体制とか、自分の診断と違った時に、どこにどう戻ればいいのかというのが分かるようなチームプレーヤーも一緒に、医療の現場に作っていくことが必要なんじゃないかなと思いました。
(葛西構成員)私も全く同じ意見でございます。一方、テクノロジストとしての意見でいうと、誤解と招くとあれですが、エセプレーヤーというか、例えば人工知能の開発モデルを作る時に、回帰分析をする程度だったらいいですけど、ベイズの推定というのがあるんですね。確率論なんですが。その場合、尤度の設定によって全然答えが違ったりします。
ニューラルネットワークも活性化関数の設定によって全く違う答えになるんですが、こういったことが全く分からないんだけれども、ちょっと人工知能プログラムをかじった程度で僕はITの専門家ですという方がたくさんいらっしゃるのは確かなんですね。その方々に勝手な医療の判断をされるのは非常に心外ですし、私も厚労省にいる身としてはかなり危ないと思います。
ということは、人工知能がブラックボックスであるという議論ではなくて、人工知能の中身としてどういう状態を、例えば活性化関数は必ず見たほうがいいですよとか、例えばどんなアルゴリズムを使っているかは公開したほうがいいですよとか、そういったものが保証されていないと、私も医療の現場で当然使えないと思うんですね。
それから、これは聞きかじったばかりでまだ確認できてないんですけれども、諸外国では実際に、病理医みたいな感じなんですが、AIの医療の専門性がある方を育成することを考えられている大学もあるようですし、当然臨床の先生がAIをかけたMRIを見た時にどうやって疑うべきかみたいなことを、研修医制度の中で組み込んでる例もあるそうでございます。
なので、もう少しポジティブな議論にすると、ただブラックボックスだということではなくて、例えばテクノロジストに対しても、偽物のテクノロジストはどかさなければいないですし、真剣に、例えばイテレーションを回しながら、何回もトライ&エラーをしながら、臨床の現場で横山先生のように新しい発見をされている方は非常に重要な、そういう知見をもっと皆さんでシェアいただくと、まさにチーム医療が達成するのではないかなという意見でございまして、私も全く同じ意見でございます。
(保科構成員)今までの議論をお伺いしていて、医師をサポートするという意味では、非常に意味があると思います。チーム医療というお話もありましたが、チーム医療の一員としてAIがいるというのもあるのかなと思います。
その時に、例でもありましたが、ダブルチェックとして使うのは意味があると思うんですが、やっかいだなと思うのが、実際いただいた資料の中にもありますけど、擬陽性の場合は面倒だと思っていて、特に分かりにくい擬陽性の場合、AIは病気だと言うけど、なんでそう判断したのか判らない、実はそうじゃなかったみたいなパターンはやっかいだと思っています。
AIは適用シーンによって信頼度はまだまちまちだと思っているので、進化の激しいAIをどこまで信用するのかというのがまず1つあるのかなと。その時に、医師が適切に判断しないといけない、責任上はそうなるという話があったかと思います。適切な教育というお話もありましたが、適切な教育というのも結構難しいと思っていて、ただ、1つ言えるのは、先ほどの擬陽性の話もそうですけど、AIの結果を鵜呑みにしないというか、疑うということ。
もう1つあるのが、前回もお話しさせていただきましたけど、AI自体を評価する仕組みも考えていかなくちゃいけないのかなと。あと、ブラックボックスというお話もずっと出ていますが、アルゴリズム側も説明を意識するというのも必要ですし、何より、どんどん進化していくものでもあるので、継続的にモニタリングしていく仕組みを、まさにこういった場で考えていかなくちゃいけないのかなと感じました。
(北野座長)ありがとうございます。今、議論で、AIはブラックボックスだという話がありましたが、個人的には、世の中で言われるほどブラックボックスではないと思っており、人間の推論過程も良く精査すると実はかなりブラックボックスなのではないかという、本質的なところに立ち返る必要があるかと思っています。
横山先生にお伺いしたいのは、2016年のWatsonの解析症例の推論過程を見た時に対して、2018年、ほぼ人間の推論と一致している時の推論過程を見た時は、直感的に、なるほどと思うようになってきている部分が多くなっているか。要するに精度が上がって、AIサイドのトレーニングが進んでいくことによってトランスペアレンシーが上がったように感じられているかどうかということを、1つお伺いできればと思います。
もう1つ、さらに今回の症例に関して、最終的にはchromosome 4のfusion geneが出てきたわけですね。そこに行く過程は分からなかったとしても、これが出てくれば、これはimatinibであるというように、あとは医師として説明できるわけですよね。これはトランスペアレントになります。
その辺りも含めた時に、実際Watsonのシステムを運用された時に、どのくらいブラックボックス感があって、それが解決される方向にきているのかどうなのかということを、実際の現場の感覚としてお伺いできればなと思いますが、どうでしょう。
(横山参考人)ありがとうございます。実際に導入当初、2015年、2016年の時は、Watsonはその当時は血液の文献はあまり読み込んでいなくて、使っても固形がんベースの回答を提示するので、我々としては、なんだこれって感じで見ていたんですけど、最近は使うたびにわくわくするような、なるほど、こうきましたかという形で、毎回なるほどということが多くなってきて、だんだん精度は上がってきていると思います。
(北野座長)その時に、推論の過程をどのくらい見ることができるのか、WATSON自体を使ったことがないので私はよく分からないのですが、見た時に、納得できる過程なのか、そこはやはり分からないのだけど答えは納得できるのか、現状はどちらでしょうか。
(横山参考人)基本的なアルゴリズムは公表されていないんですが、開発者とディスカッションを常にしているので、読み込む文献であったり、紐付けのところを改善したりとか。あと、Watsonの場合は必ず質問と回答という形で常にコーパスが蓄えられていますけれども、質問と回答の形が間違っているのを人が直しています。そういう過程を我々も共有することで、開発サイドと一緒になって改善を見ている状況かなと思っていますので、ブラックボックス感はそんなにないです。
(北野座長)分かりました。この件に関して何かまだございますでしょうか。特になければ次にいこうと思いますがよろしいでしょうか。
では、後半の議題に入りたいと思います。本日、介護・認知症領域について3名の参考人の方々から続けてご発表いただき、自由討論の時間を設けたいと思います。ポイントとしましては、AI開発の状況、製品化までの見込みについてと、開発に関しての課題、その分野に取り組んだ理由、介護・認知領域で、他にどのような領域でAI開発が期待されるかという点を中心に議論いただければと思います。まず、資料5について羽田野参考人からご説明をお願いしたいと思います。よろしくお願いします。
(羽田野構成員)ご紹介いただきました羽田野でございます。パワーポイントを持ってきたので、画面のほうを見ていただくように今セットしますので、お待ちください。
それではご説明します。本発表に関しては、総務省のIoTサービス創出支援事業、認知症対応型のIoTサービス、これの実践研究成果の一部分をご報告したいと思います。
目的は、人工知能、AIを利用して、科学的に自立支援などの効果が裏付けられるかどうか。またはエビデンスケアというものが実証できるかどうかということの研究をしております。
まず、現状の認知症介護の課題を申し上げます。今のところ、してあげる介護ということが多くて、能力を奪われてしまっているということが見受けられます。また、ケアが標準化されていないということも、かなり大きな原因になっているということになります。また、行動・心理症状、BPSDに関しては対症療法であるということから、介護負担が大きくなっている現状があります。
また、アウトカムのほうに関しては、人口減少時代の適合ということと、人手の不足の解決に人工知能が役立つのではないかと考えているわけです。そのためには、AIによる標準化されたケアの構築を目指さなければならないということになるわけです。
次に、少し歴史をお話しします。介護の領域では2003年ぐらいから、POS、問題記述方式ですね。SOAPを使いまして、それから得られた1,000万ぐらいの対応方法、これをADLと、または病態進行に合わせて整理をしてまいりました。対人援助の介護データとしてそれを集積してきたわけです。
また、IoTを活用したBPSDの予測においては、IoTのセンサーから情報を収集します。自立度をパラメータ化して見える化しました。認知症ケアの効率化と、自立支援度の引き上げのために、その可能性を検証したということになります。
介護記録のデータ収集に関しては、音声によるボットも利用しました。音声のデータをテキスト化してAIシステムがキーワードから生活支援記録法というPOSに代わる記録法を開発しまして、メッセージを作成しながら記録に蓄積していったという経緯があります。また、標準化ケアを行うために構成するツールとして、以下の尺度を利用してきたわけです。
次にBPSDとADLの分析には、以下のような尺度を利用していきます。ここで実証事業の様子を映像にまとめましたので、映像をご覧いただきたいと思います。
(映像)
(羽田野参考人)次にIoTセンサーに関することです。これはIoTセンサーによるデータ収集と評価指標パラメータの算出方法です。
次に気温・湿度などの環境状態と、呼吸や心拍数などのバイタルの変化との因果関係、それから、その傾向等々を、BPSD発症の状態変化、パターンを見つけ出していくわけです。
次にBPSDの予知の判断に関しては、各評価指標パラメータで構成された行列のBPSDの発生時に関連する項目を算出していきます。そして、予測ロジックを作りまして計算し、判断していくわけです。
BPSDの予知では、時系列に影響を考慮していきます。各症状が発生するまでの予測時間を出していくことになります。現場に起こっている問題に対する対処方法をアナウンスしていきます。
(映像)
(羽田野参考人)そして、BPSDの予知に関して、さらにBPSDの発症を予測していくために、このようなホットスポットであるとか、回帰分析等々の分析法を用います。発症する場所や時間を予測していくということになります。それでは、これらの認知症の予測をした映像をお持ちしましたので、見ていただきたいと思います。
(映像)
(羽田野参考人)最後になりますけれども、総務省IoT創出支援事業において、BPSD軽減と意識調査の報告をして終わりにしたいと思います。
(映像)
(羽田野参考人)ご静聴ありがとうございました。
(北野座長)ありがとうございました。お三方にご発表いただいてから総合討論になりますので、引き続きまして、資料6の説明をお願いしたいと思います。三浦参考人からお願いします。
(三浦参考人)ありがとうございます。ご紹介いただきましたコニカミノルタの三浦です。どうぞよろしくお願いします。事前にお配りさせていだいた資料から若干アップデートさせていただいていますので、お手元の資料を見ていただきたいと思います。改めてホームページ等にはアップデートさせていただきます。
「ケアサポートソリューション(CSS)による介護イノベーション」
今日ご紹介させていただくのは、2016年に私どもがローンチさせていだいた、介護現場におけるケアスタッフさんの、いわゆる介護現場のイノベーションということで、完全に働き方をIoTを使って変えようと、いわゆる変えるというような仕組みになります。このシステムに対してどういったAIが使われているか、実例を踏まえながらご紹介したいと思います。
○CSSの機能概要
まず、ケアサポートソリューションの概要をご説明します。まさしくIoTを使った介護現場のイノベーションということで、これは施設なんですけれども、施設の全部屋に、入居者様の部屋にいわゆる近赤外線のカメラということで、夜間におきましても鮮明に画像の認識ができるセンサーと、それから、先ほどもありましたけれども、いわゆるマイクロ波を使ったドップラーセンサーということで、小さなビヘイビアの動きも認識するセンサーが全入居者様の部屋に入っています。
もう1つ、ケアスタッフさんにはスマートフォンを持っていただいて、このセンサーとスマートフォンの組み合わせによって、サイバーの世界にすべてのデータを持っていきながら、働き方を大きく変革させるという仕組みになっています。
現在介護現場においては、もうすでにご存じのとおり、2025年には介護人材不足ということで38万人、現場におきましては待ったなしという状態でございまして、IoTを使わないことにはにっちもさっちもいかないというのが実態です。そのためにわれわれは、入居者のみならず、実はケアスタッフさんの生産性を上げるということにフォーカスした仕組みになります。
特徴は6つです。大きいのは、介護現場におけるワークフローというのはナースコールが起点になっています。したがって、鳴ったら駆けつける。非常に運動量の激しい、必要な介護現場になります。これを、見て駆けつけるということで、大きくワークフローを変えたということ。
もう1つは、夜間、非常に少ない中でのケアをするのが介護現場でありますけれども、これをマイクロ波を使いながら、日々数時間おきにラウンドする安否確認を、このIoTを使いながら簡素化するというもの。
もう1つは、どうしても介護現場におきましては、公的業務ということで様々なエビデンスを作成する必要があります。これをスマートフォンでリアルタイムで入力するということです。
もう1つ、介護現場におきましては、転倒という非常に大きな課題がございます。認知症等々がございますと、転倒時の状況を入居者様のヒアリングではなかなか取れないということで、これもドライブレコーダーの技術を使いながら、前後のデータを映像で記録することによって、転倒時の説明責任、それから、転倒時の状況を可視化した仕組みになっています。
もう1つ大きいのが、ナースコールと同じ機能を持っているということで、お声がけができるということ。これは今までブラックボックスであった部屋を、ナースコールが鳴った時だけ映像で確認できることにより、お声がけによって静止画で見るということができます。こういったことで、トータルで介護現場を、IoTを使って働き方を変える。
私どもは、このシステムをご提供するだけでなく、ITリテラシーが少ない介護現場においては、オペレーションも含めて、セットでお客様に提供するという仕掛けをさせていただいています。
○コニカミノルタのコア技術
これを実現するためのコア技術ですけれども、左側のところがビヘイビアを認識するAIを使った画像技術になります。
あちらのプロジェクターをご覧ください。今、動画が動いておりますけども、これは弊社のデジタルスタジオで、介護現場を模倣して、高齢者がどういう行動をされるかというところを、実験として様々なデータをここで積み上げています。赤字が正解、そして、上がAIによって検出した状況になります。下は転倒時です。中腰から動いて、今、端座されています。このようにグリーンがAIで正解データを捉えているということ、下は手入力ですので、それときっちり合えば正解というふうになります。
一方、右側は、ドップラーセンサーで2チャンネル、位相をずらして、覚醒していますか、入眠されていますか、あるいはベッドから離れていますかというデータを取っています。健常時と不眠症ということで、薄いブルーが覚醒されています。青い深いところが入眠されているということで、健常時におきましては、夜間に起きられることはありますけれども、どちらかというときっちりと入眠されている。一方、不眠症の方はかなり覚醒されている。こういったデータも捉えられるということで、これをケアスタッフさんの働き方の変革に使っていただいているということになります。
○行動解析に用いられるAI技術
このビヘイビアの認識を、私どもがどういうAIを組み合わせてやっているか、こちらはその紹介になります。大きく言いますと1つは、人物検知にはディープ・ラーニングを使っております。これはFaster R-CNNというディープ・ラーニングを使っております。
これによって、まず、人検知を全体の画像から抽出します。その次に関節と頭部の推定ということで、これもディープ・ラーニングの一種なんですけれども、ディープ・ポーズというもので、骨格検知によってどういう動作をしているかというのを認識する。もう1つは機械学習になりますが、姿勢と行動の認識ということで、HMMを使わせていただいて、静止状態でどういう状態かということを機械学習でやる。これらをルールベース化することによって、先ほどの転倒というものを認識する。こういった仕掛けになっております。
○行動認識AIによる入居者プロファイリング
このデータを構築するに当たっては、約2年間、相当の教師データを作ってまいりました。現在も継続して、人手として5、6名を、データを目視チェックしながら教師データを日々使っております。
おおむね普通の生活におけるビヘイビアのデータは取り始めているんですけれども、異常行動というのがまだあります。例えば、足に下着が着いているとか、あるいはいすに非常に薄い感覚で腰掛けられているとか、あるいはふらつく。こういったデータは単純にタグ付けできずに、人の力を使いながら、今パンチャーでデータを収集しています。右側は、今現在、いわゆる教師データを使いながら、大きなビヘイビアの行動としては認識できるようになりました。
しかし、まだパーフェクトではないということで、例えば入居者様の部屋で作業されているであったり、テレビ鑑賞されているであったり、いすに腰掛けられている等々のビヘイビアのデータをこれから入力する。こういうことをやることによって、施設の中の生活パターンがおおむねプロファイリングができるようになると思っております。
これらのビヘイビアのデータを、これからどう使っていくかということが下になります。日次、週次、月次という形で、長期的なこのデータをどう使っていくかということなんですけれども、日次におきましては、例えば夜間の離床、夜間の行動量。ビヘイビアを取りますと行動量が取れます。行動量と睡眠のデータを組み合わせますと、夜間のケアプランの変更というのができます。
昼夜逆転、サーカディアンリズムがずれているということであれば、こういったデータを使いながら、夜間のケアプランを変更しながら、その結果、夜間寝ていただくと、介護現場におきましては夜間のスタッフの負担が減るということが分かっています。
週次、もう少し長いスパンで見てみますと、例えば体調の不良の記録。これは介護記録になります。それから、ビヘイビアによる起床、それから、歩行速度。これもビヘイビアを認識すると歩行速度が認識できるということで、例えば、体調不良の場合は歩行速度に表われるということが医療法人様の施設で言われています。あるいは起床回数が増えますと、疼痛のようなずきずきという痛み、こういったものも起床回数に表われると言われています。
体調の悪化の検知をすることによって、これもケアの変更に生かせるのではないかということと、早め早めに対応することによって、入院リスク、また病院に行っていただくということを軽減できる。ひいては介護施設様も稼働率が上がるということが分かると思います。
年次のところは、異常行動、これは繰り返し行動になります。こういった繰り返し行動の記録であったり、睡眠の状態、それから、行動パターンという画像のビヘイビアのデータ。これらを合わせますと、認知症の機能の低下が早期発見できるのではないかということで、様々なデータの時間軸によって、介護現場におけるケアスタッフさんの働き方変革に寄与できるのではないかと考えています。
○蓄積された多層データ
現在このシステムを導入いただいております施設様におきましては、取得データとしては、まずビヘイビアのデータということで、近赤外線のカメラのビヘイビアデータ。これはヒートマップのようなデータと速度、運動量等々が検出できます。それから、呼吸・睡眠ということで、ドップラーのデータで、覚醒していますか、入眠していますか、あるいは離床されていますか、どこかに歩いて移動されていますか。こういったデータが出ます。
もう1つは介護記録です。これは当初からある介護記録をどういう形で使っていくか。それからもう1つ、ケアスタッフさんが持っていただくスマートフォンもトラッキングさせていただいています。このスマートフォンには、ナースコールの応答等々もトラッキングできるということで、これらのデータを重畳することによって様々なバリューに生まれ変わります。
現在、50層以上のデータが各施設様に蓄積されているということで、これを使うことによって、例えばケアプランを自動的に作ったり、それ以外の様々なサードパーティーに向けてもこのデータを使っていただくことで、リアルな現場の改善、今の社会課題を解決する方法論になるのではないかと考えています。
○科学的介護に向けて
私どもの仕組は、ふだんアンビエントに介護施設の中で生活していただくと、部屋の中でQOLの測定ができます。このQOLの測定結果をケアプランに反映いただき、そのケアプランのとおりに、例えばリハビリ等々をしていただく。その改善が、もう一度入居者様の部屋に帰っていただくだけで効果測定ができる。いわゆる循環させてフィードバックができるということで、まさしく、本当にリハビリが介護に寄与できているのかということが計測できるのではないかということでございます。
これは、できている部分とできていない部分があります。それから、前のページにありますような50層のデータを、どうこれからAIでさらに活用するかということも考えておりますので、まだまだ発展途上ではありますけれども、ようやくここまでたどり着いたという状況です。どうもありがとうございました。
(北野座長)ありがとうございました。続きまして資料7について高橋参考人からご説明いただければと思います。よろしくお願いします。
(高橋参考人)国際医療福祉大学の高橋です。発表の前に、今日の話に関係する、私の今までの経歴をお話しいたします。1988年に東大医学部の医療情報部の博士課程に入学し、最初にやった仕事が、87年の健診結果に自然言語でコメントをつけるというシステム開発です。92年に医療情報の学位を取った仕事は、各高齢者が必要とする介護量を予測するという要介護認定の走りのような手法の開発に関する研究でした。その後どういう機能が低下すると、どういう動作にどういう障害が発生し、その場合にどういうケアをすればいいかということをまとめるような仕事を20世紀にやっておりました。
その過程で開発し98年にリリースしたケアマネくんというシステムは、高齢者の移動、認知、食事、排せつなどのレベルを判定してその結果を入力すると、ケアプランが自動作成されます。ある意味、これも古い型の人工知能と言えます。メインのアルゴリズムは20年間変えずに、数千施設で使われ続けているというような実績を持っているシステムです。本日は、医療と介護のバイリンガルとしての発表をさせていただきます。
「介護分野におけるAIセンサーなどの実装の可能性」
今日たまたま、たぶん日本の文系の学部生の講義として初めての試みだと思いますが、私が学部長を務める国際医療福祉大学赤坂医療マネジメント学科の1年生に人工知能を体験してもらう実習を行ってきたところです。課題は、AIにチヂミとお好み焼きとピザを見分けさせるというものであり、40~50名の学生が、まずAIにチヂミとお好み焼きとピザの写真をそれぞれ数十枚読み込ませ、次に学習をさせ、最後に判別させるという経験をしてもらった直後に、この会議に駆け付けました。
コンピュータというのはインターネットでさらに強化されましたけど、基本的にデジタル情報の処理装置だった。これが人工知能によって何が変わったかをまず説明します。
○人工知能とこれまでのコンピュータとの違い
まず1つ目は、人工知能の出現により、コンピュータがスーパーな目を持ったことです。皆さんご存じのように、ここにがんがあるよというような形で、特定の分野では、人間よりもかなり高い識別能力を有し、それから、短時間で大量の写真や動画を判別します。今回非常に重要なのが、認知症の高齢者などを常時観察が可能なことです。
2番目、スーパーな耳を持ったことです。更に、英語を聞いて日本語に変えたり、多言語対応が可能になります。それから、人間が聴くことができないものも聞けるスーパーな耳を持った。例えば、認知症高齢者が興奮している時に、人工知能はセンサーを通してその方の心音を聞いて心拍数が上がっていることを確かめる能力を持っている。要は、今まで映像や音などのアナログ情報を扱うのが苦手だったコンピュータが、アナログ情報を扱かうことが可能になったというのが最大の進歩だと思っています。
それから3番目の変化として人工知能は、めちゃくちゃ当たる占いを始めた。これまでのいコンピュータより格段に予測の精度が上がったわけです。このボ~ッとしてる人が、30分たつと便意が出て、1時間後に騒ぎだしますという予測をやるようになった。これが、先ほどの羽田野先生の発表の基本にある考え方だと思います。
さらに4番目の変化として人工知能は、この予測に応じてどうやったら防げるか、最適解を出してくれるというような形になりました。
○介護領域で実装されるための「必要条件」
今日のスライドの中でいちばん大事なのが、介護領域で実装させるためには必要条件を示したこのスライドです。
まず1つ目、これがいちばん大きいと思いますが、人が行うよりも、少なくとも事故が増えてはいけないということです。要介護の利用者と直接接触する介護ロボットは、その点で非常に厳しいなと思っております。人工知能というのはある意味、めちゃくちゃ失敗をして、それで賢くなっていくという学習形態をとるのが一般的でが、医療や介護の現場で1万人の人をけがさせたりしながらAIが賢くなったというのはありえない話であるということです。だから、まずこれが非常に重要だと思っています。
2番目、AIの導入コストが安いこと。少なくとも人件費より安いことが必要だろうと。これは必須の部分で、ある程度のAI搭載の介護支援システムが数多く販売される、他の部品と共通化させるとか、いろんなことをやらないとコストを下げるのは無理だろう。
3番目として、AI搭載の介護支援システムを使って実際に仕事の効率が上がること。
4番目、現場が仕事のやり方を変えること、このような現場の変化がないと、AIを導入するだけでは仕事の効率を上げることは非常に難しい。これは今、コニカミノルタさんの話に出たワークフローを変えてAIをどう入れるかという話に相当します。
この4つの必要条件を考慮しながら、介護の分野でAIがどこで使えるかなと私なりに考えました。
まず、見守りの分野がいちばん有力であろうと思っています。コンピュータがセンサーを通して常時、体動、発言、睡眠状態、心拍・呼吸、気温、湿度など、常時観察している。ポイントは、必要な時だけスタッフに知らせることです。センサーと連動した人工知能を搭載見守りシステムがどれだけ使えるかということは実証しないといけませんが、今後このようなセンサーが普及すると、夜中に1時間に1回行っている定時観察が必要なくなり、夜勤を行う人数を減らせるでしょう。
この時に大事なのは、こういうセンサーを入れると人員基準が変わって、3人夜勤を2人に減らせるというような制度変更を行うことです。このような技術に応じた制度変更が行われるという条件つきでありますけど、見守りという分野では目を持った人工知能が急速に現場に受け入れられるだろう。
2番目は記録です。人工知能は音声を認識して、テキスト変換をして、話している人がポルトガル語で話して、これが日本語に変わるというのもお手の物ですので、こういうような形で自動記録が有望かと思います。
3番目の有望分野が、今日プレゼンがありましたケアプランの作成です。30分後にこうなるんだから、こうしたら防げますよという話になろうかと思います。
○提言
以上をまとめますと第一の提言が、機器を入れた場合、その成果に応じた人員基準の緩和を行うこと。これは行政的に最も重要なところかと思います。もちろん実証実験をしながらではありますが、人員基準を緩和する。このような政策との連動があって、初めて人工知能などの技術が、人手不足に役に立つ。そういうような視点で、ぜひ政策を進めていただきたい。
2つ目、実証実験を行いやすくする環境整備です。企業がで施設に実証実験の協力してもらうのはとても難しいです。こういうものを進める時に、行政等からのバックアップ、お金だけではなくバックアップがないとなかなか実装は難しいだろう。
3番目は、施設がワークフロー改善を行える教育環境を整えること。先端技術を使うスタッフの研修は、技術開発と同じだけ大切であるということ。
4番目、AIやセンサーを入れた場合の状況に適切に対応できる監査体制の整備が必要である。ケアマネくんを入れた初期のころ、人の手でケアプランを作成しないとだめだという話が各地で起きました。これはAIで常時監視を行っていますといっても、夜間定時にスタッフが回ってないとだめだと行政の監査で指摘されるとこれまで通りしか仕事を行なえない。現場に行くと、そういう話が非常に多いので、行政側の仕組みの改革も必要であるということを付け加えて終わらせていただきたいと思います。以上です。(北野座長)ありがとうございました。それでは、今のお三方のご説明等に関しまして総合的な討論をしたいと思いますが、どなたかいらっしゃいますでしょうか。
(末松構成員)3人の参考人の先生方、ありがとうございました。先生方、それぞれで結構なんですけれども、テクノロジーで日本の介護の状況を考えた時に、在宅介護の問題が当然あるわけですけれども、今まで施設の中でいろんな臨床試験をやられて、どういうところが在宅介護でも展開できそうかというところでご意見があったら伺いたいのが1点。もう1つは、先ほどの施設でのモニタリングの例でいいんですけれども、こういうケースとは、患者さんやご家族からどういうふうに同意を取るのか。この2点を教えていただきたいと思います。
(三浦参考人)ありがとうございます。まず、私どもの施設向けのシステムをどう在宅に展開していくかということですが、今、すでに在宅向けにはある程度トライアルをしています。特に今私どもがやろうとしているのは、在宅と、デイ、ショート、小多機、看多機、このへんとの連携をとりながらシームレスで実際にやろうと。
家族の方が高齢者を在宅で見守ろうとしますと、施設系にある程度負担をしないかぎりはなかなかできない。ここをシームレスにやるために、今はビヘイビアと睡眠のデータ、この2つを、自宅にいる間とお預けになっている施設の間、ここがシームレスになりながら、両方のデータをフィードバックさせて在宅介護をしていこうということを、今、テストではやり始めようとしています。
もう1つ、いちばん肝心な合意のお話です。当初、私ども13年からこの開発に着手した時には、プライバシーの問題ということで、カメラを導入するのは非常にハードルが高かったわけでございます。ただ、いろいろな社会課題がクローズアップされている中で、現在においては、施設の中で入居者様をカメラで撮るということについては、同意に対してハードルが高いわけではございません。
ただ、1つ懸念として残るのは、本人よりも、どちらかというと家族なんですね。どうしても認知症等々が入っているので、同意されるのはどちらかというと家族。本人がどうなのかというのは大きな課題だというふうに認識しています。
(北野座長)羽田野さん、高橋さんは補足ございますでしょうか。
(羽田野参考人)ご質問ありがとうございます。私のほうから、私のオピニオンになるわけですが、在宅に対する実証事業は実際にはやっておりません。ただ、事前トライアルという形で定期巡回、随時対応型のサービスを使って、横浜市の都筑区で一部、警備保障会社さん、それから、電気会社さんと一緒にやっています。
まず、在宅では電気量を取っています。ただし、そこに訪問介護士や訪問看護師が入りますと電気量の変化等々が出るので、そこを記録で押さえています。入った時の段階で、誰が入ったか。そこで何をしたかということを見て、生活の状態変化を取っています。もう1つは、単純な見守りとして、警備保障会社が今やっているようなレベルのものです。動かなければ鳴るというアラート方式です。
現状ではこういう形で在宅のほうでやるんですが、それをやった結果いちばん有効だったのは介護の記録になります。例えば今までの記録といったら、行ったら何かやるという記録ではなくて、すでに、こういう人工知能を多少使いますと統計的なものが取れてくるので、行っている回数や行っている時間、行っていた時に、その人が行動したパターン等々が記録されてくる。
そのために生活の支援記録法という1つの記録方法を、SOAPとはちょっと違いますが、そこにフォーカスという部分の、フォーカスチャーティングのフォーカスを入れ込んだものをあえて作り込んでいます。そうしますと、その人のパターンの変化が見えてくるということで、在宅で適切な時間帯にアプローチできるタイミングを見るということの有効性が出てきていると。今のところそのレベルです。
もう1つが同意書。やはり同意書を取るのは難しい現状があります。もちろん同意書の考え方というのもあるので、きちんと説明をすればある程度家族も納得はしてくれますが、今回やっていていちばん同意書が取れたのが、遠隔にいる家族の方もスマートフォンで見れるということなんです。
そうしますと、今までは見れなかったものが見えるということと、どういう介護をされているのかという、逆に言うと介護士さんたちのほうが大変になるわけですけども、遠隔で参加することができるようになってきました。それが2年ぐらい前から始まっていて、それは同意ではなくて参加になってきています。ですから、家族参加の形の介護が始まってきているのではないかなという感じはしています。
(高橋参考人)羽田野先生が映した動画を20人ぐらいの人に見せて、こういう施設に入りたいかと聞くと、常時見られてるから嫌だという人が最初は半数いました。そこで、認知症の人のBPSDというのは本人がやりたいからやってるんじゃなくて、気持ちが悪いとか、暴れたいとか、本人にとってとても大変な状況になって暴れてるんだと。羽田野先生のこのシステムは何をしてるかというと、暴れそうな嫌な状況を全部先に取り除いて、本人にとってとても居心地がいいんだという話をすると、20人中20人が親に対して、是非AI見守りセンサーを付けて欲しいと言われました。自分の場合も認知症になったら自分でもつけたいという形になりますしたので、やはり説明の仕方が大切だろうということが答えになろうかと思います。
それから、施設と在宅、ケアプランを作る時に何が違うかを説明します。在宅のケアプランを作成する時は、介護を担当する家族を含めた環境要素を考える必要がある。それから、財力を考えないといけない。施設の入居者のケアプランを作成する場合、この2つの要素の入居者間の差が少なくほとんど均一なんですね。施設において本人の機能が低下した場合にどうするかというと、本人のキャラクターの差がありますけど、それ以外の考慮すべき要素が少なく分析しやすいということがあります。在宅は一度に売れる台数がが少ないということで、高くつき、しかも、個別性が多くなって非常に難しい。だからハイテクの利用が、施設から進んできたということだと思います。
在宅でいちばんいいものは何かといいますと、そういう意味でいうとセンサーであります。まず本人が動いているかどうか。それから、睡眠状況。そのへんはあまりプライバシーを気にせずにやれまして、本人も不安が軽減しますし、非常に安くやれるということで、在宅からすると私はセンサー系から進むのかなというふうに考えております。
(北野座長)本件、山内さんお願いします。
(山内構成員)実際にこれを用いた時に、先ほどの、最終的なAIの責任は医師であるということとか、医療過誤のことを現在の医療の枠組みで考えるとどうしても難しいのかもしれないんですけれども、医療過誤とか訴訟が起こった場合の責任はどこにあるのかというのを、現場で使う身になると思ってしまうんですね。
例えば、先ほどの入院患者さんの看護師さんとか、介護施設でも見回りを定期的に、夜間12時間ごととか6時間ごとにやらなきゃいけないというのがあって、今行っていることをAIに変えた場合に、例えば患者さんのバイタルが変化していたのを見落として、介護されるその方が亡くなってしまった場合、もちろん起こることはないという前提のもとだとは思うんですけれども、そういうことが起こった時に、先ほどの、医師が最後の責任ということの解釈は分かったんですけど、介護施設で介護する人が、現状行われていることを減らした場合というのはどうしても、もし私が家族だったらば、今、介護士さんが12時間に1回、6時間に1回見てくれてるのに、AIがやりますから大丈夫ですよと言われていてそれが見落とされたら、訴訟を起こしたくなると思うんですね。
行政の方々にお聞きしたいのは、先ほどの医師法に照らし合わせると、そういった場合の責任はどこにあるのか、今の解釈ではどうすればいいのかということが1点と、もう1点は、海外ではロボットを導入している介護施設があるのかどうか。特にアメリカは医療訴訟が多い国ですので、そういった点でのそのへんの対策はどうしているのかをどなたかご存じだったら教えていただきたいと思います。
最後はコメントなんですけれども、今言ったように、人の気持ちというのは、現在行われている医療をAIがやると大丈夫なのか。それで何か起こると訴えたくなるんですけど、例えば先ほど示していただいたBPSDのように、現在行われていないことをプラスアルファでAIがしてくれるとなると、それで何か起こってもあまり訴えたりはないと思う。例えばBPSDを現段階でAIが見落としたからといって、訴える人はいないと思うんですよね。今の私たちの医療の中ではなかなか手が届かないところなので、そこの違いがあるのかなというのを非常に感じています。そういう中で、現場でそういうことが起こらないような対策はどういうふうに考えていけばいいのか、検討していかなければいけないなと感じました。
介護施設でそういうことが起こった場合、誰がどう責任というか、先ほどの医師法に照らし合わせるとどうなのかということと、あと、海外での現状をどなたかご存じの方がいたら教えていただければと思います。
(北野座長)これは事務局、医政局、お願いします。
(事務局)今日、次回以降のコンソーシアムの議論の進め方について、資料の2でご説明を申し上げた時に、もう少し詳しくご説明を申し上げておけばよかったなと思っているんですけれども、介護・認知症領域に関する取り組みに関しましては、今回と次回と2回予定をしておりまして、今回はどちらかといいますと、現在現場で使われております、開発されておりますAIに関する取り組みを、実際に開発されている先生方に来ていただきまして、そこでの課題の把握ということで考えてございました。
今いただきましたご質問に関しましては、次回、第5回の時に行政のほうからもご説明を申し上げる機会をいただきたいと思っていますので、その時に合わせてご回答を申し上げるようにしたいと思います。
海外の介護におけるAIの導入の関係に関しましては、今日ヒアリングで来ていただいております参考の先生方の中で、ご知見のある方がいらっしゃればご紹介いただけるとありがたいなと思います。
(羽田野参考人)私の知っている例をいくつかお話しします。現状、中国の深センで日本の小規模多機能のようなデイサービスをやっております。そこでは、日本以上にネットワークを使ったサービスがスタートしていまして、今、現状でやっているのは、デイサービスで送り迎えするものに関してはすべてICT化されています。ですから、着く前にご自宅に連絡を入れて準備に入ってもらうとか、混雑時に道路を迂回しながら家に迎えに行くというのを当たり前にやっているというのが見られます。
これは介護サービスの上で非常に関係していまして、もともとデイサービスを、通所を利用する方々の健康状態も一緒に管理できるという点だとか、それから、スムーズにサービスに入れるという点では優れているのかなという感じがします。ただ、このシステム、日本で導入しようと思えばすぐできると私も思っておりますが、コストの問題等々もあるのではないかなという点が1つあります。
もう1つ言えるのが、皆さんご存じのとおり、フロリダのほうにありますCCRCでは、今、健康管理をほとんどスマートフォンでやっています。そのデータがたまってくることによって、健康管理ではなくて健康を維持する方向性に動いてるという報告がいくつか出ています。先行的な論文も結構出ておりますので、ICT化が進んでいることは間違いないのではないかということを今お話し申し上げます。
(北野座長)ありがとうございます。この辺りの分野、今AIとして括って言っていますが、今ご説明のあったセンサーベースで、リアルタイム解析をし、それに対するアクションを実行するというループと、ロボティクスで行うという部分はかなりハードルが高いので、これは合わせた議論にしないほうが良いです。両方とも見る必要はあるのですが、センサーベースで解析・アクションは、すぐディプロイメントはできるが、ロボティクスはどうなりますかというのはまた別の議論でコストと、テクノロジーのレベルと、いくつかの問題があると思います。
(高橋参考人)よろしいですか。まず最初の定時観測の話ですけど、全く野放しにしておいたら転倒や死亡などの重大事故の放置の可能性はあると思うんですけども、AIと人工知能の連動したシステムは、常時、睡眠の状況から、血圧から、呼吸の状況から、動いた場合までセンサーを通して監査を行なっています。1時間1回見に行ったほうが安全か、それともAIのほうが安全かという議論をする必要は、ほぼないのではないかというのが1点目の質問に対する答えであります。
2点目。医療の場合は判断ミスの裁判は山のようにあるんですけど、介護の場合はほとんどありません。まず介護には、診断という概念がない。ケアプランがおかしかったのでこの人が悪くなったという裁判事例は、1回調べたことがあるけど見つかりませんでした。そのへんの意識構造が全く違うだろうと。
逆に、人工知能を介護現場に入れる場合に、医療の人はこういう機器を触るのはすごく慣れているけど、介護の人はスマホすら触れない人が非常にたくさんいて、これを入れる時にあまり高度なことを要求したら絶対に無理だろうと。医療機器を触るようなレベルでこれを使えという話になったら、入ることは100%ないだろうと。だから、風土が全く違うので、医療との議論のしかたが全く違うなということがベースにあろうかと思います。
(北野座長)非常に重要なご指摘で、われわれ今回と次回で、介護のリアリティーとイシューを洗い出した上できちんとした議論、政策への落とし込みをする必要があるのではないかと思っています。
(葛西構成員)あくまで感想なんですが、冒頭にあったWatson for Genomicsは対極の人工知能のあり方だなと思っていまして、どっちがいい、悪いということではなくて、IoTセンサーを使った評価指標、ベクトル量とスカラ量の絶対値で、もし違ってたらあとで教えていただきたいんですが、RNNを使って学習して調整をその後されたのだったらすごく興味があるんですが、いずれもディープ・ラーニングではなく、あくまで時系列分析に近いようなものを使っている。それから、冒頭あったWatson for Genomicsに関していうとディープ・ラーニングですと。
今日の議論の中心にあるのが、どういった重点領域を考えるべきかという話だったと思うので、その点について私の意見を言うと、去年の懇談会の時にもあったんですが、あくまでエキスパートシステム、もしくはエキスパートマシンといわれているようなディシジョンツリー。誰かのエキスパートの焼き直し型のモデルというのは、過去に多少、成功した方と失敗した方があると言われている。
失敗した方の主たるポイントというのは、正しいデータの整備に異様に時間がかかってしまって、かつ、エキスパートの正しさことを整理すると、なかなか丁寧にデータが整備できない。ところが、今、日本の国内でやろうとしているのは、下手をすると、もう一度ただ画像データであったり、データだったり、私、データヘルス本部なので自戒の念も込めてなんですけれども、ただデータだけ集めて、一生懸命エキスパートの焼き直しをしようとする過去の失敗は、絶対しないほうがいいなと思っています。
一方、研究領域として言うと、これは松尾先生あたりからフォローいただくといいと思うんですが、私はディープ・ラーニングが生まれてからのところが昨今の人工知能の考え方の中核にあると思ったので、RNNをやっていたら、ここは興味があるなと思ったんですね。
そうなると、今回のこういったケースは非常にいいなと思っているのが、人工知能モデルを先に考えてからIoTのセンサーを取るということを並行してやられたことがポイントだと思っていまして、データと標準化を集めることに躍起になって、ウォーターホールでやられてしまって、あとで人工知能モデルを考えればいいやというのは絶対にやめたほうがいいと、私の意見としては思います。
つまり、ディープ・ラーニングの領域に特化していて、かつ、データを集めて同時に人工知能モデル、例えば活性化関数であったり、ニューラルネットワークであったり、ベイズでも時系列でもいいですが、どんなアルゴリズムを組み合わせればいちばんいい答えが出るのかということを、先にテーマとして付された研究のほうが優れているんじゃないかなというのが1つの意見でございます。
もう1点、これは質問なんですが、RNNの学習については、今後展開される予定はあられますでしょうか。もしあられたら非常に興味があるので、補足いただけるとありがたいと思います。
(羽田野参考人)現状、RNNの学習を整理していくことになるわけですけども、実証事業を始めて、今回の総務省のIoTを取りだしたのは去年からですから、全体には11か月ちょっとしかないんですね。ですから、絶対的なデータ量が少ないということになります。
これはデータ量がかなり必要になってくるということで、お話にあったとおり、最初の段階からそういうデータの取り方をしていかないと基本的には結果が出ないので、どうやって構築するかということをまず最初にするのは当然のことではないかなということです。
今回そういうこともありまして、われわれのほうである程度数値固定化をしました。固定化をした結果を取って、それを1つの数式上に置き換えて、それにデータを入れていくという作業がこのあと続いてやってくるということを目的に、今やっているということです。
(北野座長)豊田さん、何かございますか。
(豊田構成員)遅れて来たのでついていけていないのですが、参考人の皆様のお話をお聞きすることができて、貴重なお話をありがとうございました。
私は患者家族の立場なんですけれども、ほかの構成員の方がおっしゃっていたように、患者本人のプライバシーのことがすごく気になりました。どうしてもご本人と家族では気持ちが違っていると思いますし、意識が違っていると思いますので、そのへんは、これからいろいろと決め事をしていくことが大事かなと思いました。
私がまだイメージが湧いていない部分があるんですけれども、患者さんといいますか、みられているご本人のストレスはほぼないものなのかというのが、今のお話だけではイメージが湧かなかったことがあるのと、介護における事故みたいなことを、山内先生もご心配なさっていましたけども、実際に介護の分野の皆さんは結構気にされていて、医療安全の活動している私たちのところにもご相談が来たり、当事者の声を聞かせてほしいので講演をしてほしいと言われたりもしているので、そのへんもこれから気にしていく必要があると思っています。そういった意味でも、ご本人のストレスの部分を教えていただきたいと思いました。
(三浦参考人)質問ありがとうございます。私どもが今導入させていただいてるところは、当然認知症の方ばかりではありません。まず1つ配慮していることは、四六時中録画はしていないということです。したがって、ビヘイビアで、例えば起床しました、離床しましたという時に映像でお知らせするだけで、一切録画はしていない。ですから、監視カメラではないです。ただし、転倒時の状態のみ、いわゆるドライブレコーダーとして残すということなので、そういったご説明をさせていただくと、健常者に近い高齢者においてもご了解をいただいているということです。
それと、昨今いろんな虐待等もございますので、そういう意味からすると、そちらのほうの安全担保ということも、昨今は録画をしてほしいという入居者様、ご家族の方も増えていきているというのが実態になります。
(北野座長)今日発言されてない方、何かコメントはございますか。
(西川構成員)1点、今お話をお伺いして、かなり認識の技術だとか、プランニングの技術はだいぶ進化していて実用段階にあると思うんですけれども、一方でアクションを起こす部分というのは、お声がけとかそういったところにとどまっているとは思うので、今後はそういったところ。
先ほど、介護ロボットは難しいというお話はあったと思うんですけれども、直接何か支えるとかだと出力的にも問題があるとは思うんですけれども、一方で、今、ロボティクスの技術も、マニピュレーションの部分、つかんだりする技術がディープ・ラーニングによって大幅に進化している中で、接触をしなくても生活空間の中で何か役に立てることというのがあるのかどうか。
また、そんなに出力が高くなければインタラクションしても、昨今、協働ロボットと呼ばれているものも進化してきているので、人とロボットが一緒に働ける技術というのは、今、進化しつつあるんですね。そういったところで、人とロボットが助け合いながら、介護に何か貢献できることはないのかというのを質問させていただければと思っております。
(高橋参考人)先ほどの事故の話がありますので、接触型は非常に厳しいだろうと。逆に自己責任の部分で使っていただく分野は、むしろリハビリとか自立支援のところで、例えばストッパー。よくあるのが、ウォーカーで歩いていて、後ろのほうに行って一緒に引っ張られて倒れる。そういうような動作をやってブレーキングがかかるとか、そういうような分野は非常に有力かなと思います。
メカトロのほうでいいますと、スタッフの仕事を楽にする、スタッフ側につけるものは当然あるんじゃないか。AIではないですけど、北欧へ行くと、腰痛予防のために持ち上げてはいけないという形になって、非常にリフトが発達している。そういう機器にAI的なものが入ってサポートしていくというのは当然ありだと思いますけども、接触型のことに関しては、最終的に事故の話が出てくるということで非常に難しいんじゃないか。その他の分野に関してはいろいろ応用して、質の高い、要は働く人が楽になるとか、安全性が高まるというような形の利用は十分ありうると思います。
(北野座長)本日の議論、ありがとうございました。事務局から、次の日程に関してご紹介をお願いします。
(事務局)事務局でございます。次回の日程でございますけれども、2月14日(木)午後1時から開催を予定しております。詳細につきましては追ってご連絡を差し上げたいと思いますけれども、議題に関しましては資料の2のほうでお示しをしておりますとおり、再び介護・認知症領域における取り組みについて、ご議論いただければと考えております。
(北野座長)ありがとうございます。本日は、皆さんお忙しい中ありがとうございました。

ホーム> 政策について> 審議会・研究会等> 厚生科学課が実施する検討会等> 保健医療分野AI開発加速コンソーシアム> 第4回 保健医療分野AI開発加速コンソーシアム 議事録

ページの先頭へ戻る