筆者についてもっと知りたい!

看護業務にAI導入、倫理の問題について考える

スポンサーリンク

AIと言っても、看護師業務に取り入れられるものは多岐に渡ります。

らいおん
らいおん

看護師含め医療職は常に人手不足です。そのため、多少の資材を投じてもマンパワーに代替できるAIや医療ロボットの導入に躊躇はない業界とも言えます。

ぶっさん
ぶっさん

ただ、私が看護師として働いていてもどかしいと感じたのが「倫理」の問題。

患者の不利益になるような改革はなされないとしても、倫理的にグレーな判断となりAI導入が阻まれる可能性は否定できません。

この記事では、そんな看護師の倫理を理解した上で、適切なAIとの共存方法を模索していきます。

スポンサーリンク

情報(データ)管理の困難さ

まず、倫理的な問題として筆頭としてあげられるのが「患者情報」の問題です。

AI成長のために必要な情報

AIは「特徴量」というものを学び取って学習していくのですが、そのためには「教師データ」となる大量の情報が必要になります。

ぶっさん
ぶっさん

良質なデータがあるほど、AIの学習精度と効率が高まります。つまり、どれだけたくさんの情報を提供できるかで、AI導入の進捗が変わると言っても過言ではありません。

医療業界はデータが豊富

幸いにして、医療業界は教師データが豊富な上に、ほとんどが電子化されているので導入に踏み切りさえすれば一気にAIの成長が加速します。

  • 心電図・レントゲン写真などの画像データ
  • お薬手帳の電子化
  • 退院後の患者の通院記録
  • 診療・看護記録
  • 地域医療との連動記録

これらのデータを元にして、AIに活用させていきます。いわゆる機械学習(ディープラーニング)によって、人の手を離れてAIが自分で学習していくことも可能になります。

データの精度を上げるコスト

ちなみに、データがあっても、AIに読み取らせるためにはまた別のコストが必要になります。AIが学習するための前段階として、例えば画像診断の場合は画像を読み取らせるだけではなく、「これが癌の特徴だよ」と正解の印をつけていく作業があります。

ぶっさん
ぶっさん

例えば普遍的な「文字」認識とかだと、安い報酬で暇な人にやってもらえればいいけど、医療データの場合は「専門家」が責任を持って「正解を教える」作業が、どうしても一定数は必要になります。

つまり、医者や画像診断の専門家を雇う必要があるわけで、つまり人件費が高くつきます。

看護記録も立派な教師データ

看護記録も大きな病院ほど電子化されています。

ぶっさん
ぶっさん

私が働いていたところも看護記録はもちろんのこと、看護実績や温度板まで、何から何までパソコンで入力してたよ!

これらのデータはフォーマットの問題はあるにせよ、AIに読み取らせることで教師データとなりうる貴重な資料です。

患者の言動・心理を読み解く特異性

看護記録の場合は、患者の言動などの記録もあるので、状態変化の兆しのようなものを発見できる足がかりとなる可能性があります。つまり、データの変化から患者の急変の可能性を予測し、その対応方法までAIが指示・提案してくれる未来がある、可能性があります。

ベテラン看護師になれる

これまでは、ベテラン看護師の予感的なもの、経験から推測されたものを頼りに患者の状態変化を予測していたけど、これだと経験年数によって看護師の提供できるサービスに差が出てしまいます。

AIを補助的に利用することで、経験年数による差が補われて、新人看護師でもある程度はやるべきことの予測がたつようになることが期待されます。

データ利用には同意が必要

ただ、この豊富なデータを患者の同意なく利用できるのか、というのはひとつの問題。患者のデータは当然、個人情報に当たります。勝手に利用すれば罰せられるのは当然ですが、倫理的にも患者の同意なしに医療データを利用するのは問題となります。

医療データは高い

個人情報でも、医療データというのは価値が高いとされています。研究・開発に利用される場合でも悪用される場合でも、「病気」のデータは利用のしがいがあるのです。

データの持ち出しが容易になる

また、AI導入には必ず専門の外部機関に依頼することになります。ここでも大きな問題があり、守秘義務違反となることが予想されます。

ぶっさん
ぶっさん

丹念に個人情報につながるデータと必要なデータを切り話せればいいのですが、「どの個人情報はアウト」で「医療データならOK」とするかの線引きも曖昧です。

外部の人間を入れることで、情報漏洩リスクは劇的に高まります。

悪用のリスク

先ほども申し上げたように、医療データは高いので悪用したい人は必ず目をつけます。信用の問題にもなりますが、外部リソースを導入する場合は「漏洩すること」を前提にしなければならず、大きな課題を残している状態と言えるでしょう。

まずは法・規約整備

この医療データの利用は、法律で一律「利用できる」ようにしちゃえば話は簡単になります。

ぶっさん
ぶっさん

おそらく、今後は病院も、データを利用できるように通院・入院の際に患者から事前に同意を取るようになるでしょうね(なってるかも)

お金になることなので、政府は積極的に医療データを活用し始めると思いますが、さらにマイナンバーあたりと紐付けして「医療」「経済」「政治」なんかの要素と連動させることでしょう。

病院がデータを売る

データを売る、というと悪い響きがしますが、病院の経営は本当に死活問題です。本来、病院が無くなったら困る人たちが負担すべき医療費なのですが、しわ寄せは医療従事者の労働環境にまで響いており、悪循環が止まりません。

ぶっさん
ぶっさん

例えば、病院が持つ医療データは本来無料で共有できるべきですが、これを有料化することで病院経営の負担を減らすことができる、ということも可能かもしれません。

患者情報なので、とてもいいこととは言えませんが、将来的に医療者確保のためには賃金を上げる必要はあるし、医療の発展にもお金はどうしても必要です。

らいおん
らいおん

だからって患者に「お前の治療だからもっと金払え」は言えない。だけど、「医療データを活用することで貢献してくれ」と言われれば負担は少ないからOKする方もいるでしょう。

データが活用されて医療の発展につながれば社会全体には意味のあることです。発展型に、患者が同意すれば病院からメルマガのような媒体で患者に「検診のお知らせ」などの情報を提供し、そこに広告枠をつくることで収入源を増やすこともできます。

患者の安全を守れるのか

倫理綱領の基本は、「患者を守ること」です。患者の安全も守られるべきものであり、「AIの判断」や「医療デバイスの技術的な過誤」など、AI導入により懸念される問題はあります。

責任の問題

まず、「責任」の問題があります。AIはデータから最善策をアドバイスしてくれるようになります。当然、看護師含め実施者が医療行為の責任を負うことにはなりますし、法的にもそのように整備されていくことでしょう。

ヨメちゃん
ヨメちゃん

でも、AIの最善策を無視して事故が起きても「なんでやらなかったんだ」って怒られるし、AI指示を遵守してても「医療者としての素質を問う」ということになりそう。

倫理綱領における看護師の責任問題

倫理綱領7条には「看護者は、自己の責任と能力を的確に認識し、実施した看護について個人としての責任をもつ。」という条項があります。また、第8条においても、「看護者は、常に、個人の責任として継続学習による能力の維持・開発に努める。」ということで、自己研鑽しないと倫理的にアウトですよ、と窘められております。

ぶっさん
ぶっさん

結局のところ、個々人の意識の問題にはなるんだけど、AIネイティブ世代ほどこの辺りの意識は薄れてくると思います。それが予測される以上、AI導入は「危険」と考えられて導入されない可能性もあります。

医療デバイスの不備

また、患者の身体情報を正確に認識していることがAI稼働の第一条件となりますが、AIをサポートする医療デバイスが安全に使われるかどうか、なんかも一つの議題となりそうです。

例えば、身体装着型のデバイスを患者さんが装着している場合、「しっかりと身につけているか」をチェックするのは看護師の役目といえるでしょう。ただ、患者が意図的に外していた場合まで看護師に責任を問うのか、あるいはデバイス側にエラーが起きていた場合は、どこに責任がいくか、などは曖昧です。

どんな場面でもケースバイケースではありますが、「そんなのやってみないとわからないよね」と気軽に導入できるものでもないので議論ばかりが繰り返されて導入が遅れる可能性はあります。

患者の拒否権

少し話題に出しましたが、患者の信念として「AIは信用できないから利用しないでくれ」ということは大いにあり得そうです。その場合、医療者側で対応できるのか、対応できないから治療せずに患者を帰すのかは倫理的な問題と言えるでしょう。

看護者は、国籍、人種・民族、宗教、信条、年齢、性別及び性的指向、社会的地位、経済的状態、ライフスタイル、 健康問題の性質にかかわらず、対象となる人々に平等に看護を提供する。

患者個人の信念は尊重されるべきものです。しかし、AIが関与しているとする線引きが難しく、患者が納得して治療できるか深く話し合う必要は出てくるでしょう。

ぶっさん
ぶっさん

そもそもAIの何が嫌なのか、患者さんがどうしたら満足できるのかっていうところからしっかりと向き合わないといけないだろうね。

AI導入しないのも倫理的な問題

ちなみに、AI導入が医療倫理的に問題があるかのように書いてしまいましたが、発展し続ける技術を利用しない、というのも実は倫理的には問題があるとも言えます。

ぶっさん
ぶっさん

つまり、医療の発展自体は患者の役に立つものなのに、それを取り入れないことは医療的な怠慢ともいえるわけです。

看護師の負担軽減

例えば、看護師の負担を軽減することでインシデント率が変動することは知られています。看護師自身の心身の健康を保つことも重要であると倫理綱領では述べられています。

看護者は、より質の高い看護を行うために、看護者自身の心身の健康の保持増進に努める。

現時点では、どの医療機関も蔑ろにしていますが、マンパワー不足なんて言い訳です。しかるべき報酬と休暇を提示して医療者を集めれば、人手不足にはなりません。

ただ、現実問題として病院も経営ですので、利益のないことはしませんし、絞り取れるところからは搾り取って利益としていく必要があります。

らいおん
らいおん

だから、看護師がウダウダ言いながらも低賃金・サービス残業をよしとして働いている限りは、経営者としては御の字で状況を変える必要はない、ということになるよね。

ぶっさん
ぶっさん

NOといえる労働者は少ないし、酷使するほど「現状打破するバイタリティ」も削り取れるから、経営側としてはこのまま「マンパワー不足」の状態で働かせたいだろうしね。

安全な医療を提供するには体も資本

前置き(愚痴)が多くなりましたが、例えばAIを導入することで看護師の負担を減らせば医療事故が減らせる、となれば導入しないのが倫理的に問題と言えます。

たぬき
たぬき

なので、看護師の皆さんは現状に不満があれば「働き方改革」として無理な労働を強いられたらインシデント発生させるといいですよ。状況改善の必要性が増しますから。

医療事故を起こせは冗談ですが、声を上げないと何も変わらないし、行動しないと損をする、というのは世の常です。心しておきましょう。

言語の壁を乗り越えて平等な医療を提供する

ついでに、AI導入でわかりやすい効果として、「言語の障壁が減る」というものがあります。

ぶっさん
ぶっさん

AIは言語習得が容易です。AI通訳用に文法上伝えやすい「AI日本語」を使用できるとなお良いですね。

スマホなどの携帯デバイスと通訳AIは相性が良く、携帯型医療デバイスにも組み込みやすいと考えられます。

ヨメちゃん
ヨメちゃん

要は、看護師はスマホを持ち歩くようになるし、そのスマホには通訳アプリが入ってる、ってことね。遊んじゃいそう。

利用者の技術的な障壁が低い(誰でも簡単に使える)ので、この辺りはすぐに導入されることでしょう。

ぶっさん
ぶっさん

病院経営されている方は、医療英会話研修するよりもスマホ講座した方がいいよ!

AIが患者行動を変える

また、アメリカではもうすでに積極的に医療データを経済活動に反映させています。私の別サイトではスマートウォッチのレビューなんかもしているのですが、「健康データ」が商売に利用されはじめており、健康維持のための行動が今後は変わってくるかもしれません。

患者も専門家になれる

専門家になれる、は言い過ぎですが、家庭(在宅)医療の段階である程度の診断が可能になります。

ぶっさん
ぶっさん

つまり、自分の今ある症状をAIに調べさせて、そのまま診療できるクリニックにつないで、電子処方箋を発行してもらい近所の薬局で薬をもらう(ドローンが届けるまであり)。

家にいながら、スマホなどの通信デバイスさえあれば診察・処方までしてもらえます。大きな病院に係る必要性は薄れます。

治療の必要性は患者任せ?

これは、同時に患者自身が自分の「医療行為」に責任を持つ必要がある、ということにもなります。

ぶっさん
ぶっさん

AIに診断を任せて受診行動をとらない人も多くなるけど、それって自己責任だよねってこと。

スマホ経由の診断で、例えば重大な疾患を見逃して脳炎を「風邪」として診察したクリニックに関しても、「診察に必要なデータが提供されなかった」として患者(とAI)の自責を問うこともできるようになるのではないか、と考えられます。

ぶっさん
ぶっさん

予防線をはれば、「風邪の可能性はありますが念のために受診を」と言っておけばいいだけだしね。大概の人は、「風邪ならいいか」で受診まではしないだろうし。

裁判用のデータは残る

全ての記録が残るので、裁判系はスムーズに判決が出そうですね。

医療データで予防行動を

例えば、医療データを他のデータと組み合わせることで、「患者未満の病気予備軍」に対してアプローチをかけることもできるようになります。

ヨメちゃん
ヨメちゃん

看護師的に言えば、「今日は寒いから脳梗塞に注意しよう」みたいなのが、一般の人にも警告として出せるってことね。

個人情報は多岐にわたり、環境データとも連動すれば、「気温が急激に下がる」「コレステロール値が高い」「持病に心疾患」「直近の心電図」なんかが紐づけられて、「お勧めの過ごし方」なんかが提案されるわけです。

ぶっさん
ぶっさん

また、受診行動が取れていない場合は、市役所から直接「検診の依頼」なんかが来たり、乳がん検診のクーポンをアプリで発行できたりするわけです。

きつね
きつね

経済活動で言えば、病気リスクの高い人に「健康食品」を提案したり、治療行動に関心の低い層には売り込みやすい別の商品を広告したり、なんて活用方法があるね。

上げたらきりがありませんが、医療データが外に出て動き始めると、世の中は劇的に変化するということだけはお伝えしておきたい。

AIに踊らされないように

ここまでAIを連呼してきましたが、基本的には一つのツールでしかありません。ツール(道具)は使い手によって如何様にも変化します。

らいおん
らいおん

今後AIが発展してくると、AI過誤の報道が加熱したり、職場でも振り回されることが多くなると考えています。

ですが、基本的には自分の行動には責任を持ち、医療者としての職務を全うするのが看護師という仕事です。

ぶっさん
ぶっさん

AIを活用することで医療はさらに進歩するのは確実です。その時に、上手に使いこなすプロの看護師になることが、まずは我々の使命と言えそうです。

AIにまつわる倫理問題とその取り組み方

取り急ぎ、参考になったサイトなんかを載せておきます。

医療業界の取り組み

ネットでの広いものではありますが、2018年の段階で医師会でも勉強会しているみたいですね。医者の負担が増えるのは歓迎しないけど、将来のためには大事な話し合いですね。

人工知能(AI)と医療 

看護者の倫理綱領

  1. 看護者は、人間の生命、人間としての尊厳及び権利を尊重する。
  2. 看護者は、国籍、人種・民族、宗教、信条、年齢、性別及び性的指向、社会的地位、経済的状態、ライフスタイル、 健康問題の性質にかかわらず、対象となる人々に平等に看護を提供する。
  3. 看護者は、対象となる人々との間に信頼関係を築き、その信頼関係に基づいて看護を提供する。
  4. 看護者は、人々の知る権利及び自己決定の権利を尊重し、その権利を擁護する。
  5. 看護者は、守秘義務を遵守し、個人情報の保護に努めるとともに、これを他者と共有する場合は適切な判断のもとに行う。
  6. 看護者は、対象となる人々への看護が阻害されているときや危険にさらされているときは、人々を保護し安全を確保する。
  7. 看護者は、自己の責任と能力を的確に認識し、実施した看護について個人としての責任をもつ。
  8. 看護者は、常に、個人の責任として継続学習による能力の維持・開発に努める。
  9. 看護者は、他の看護者及び保健医療福祉関係者とともに協働して看護を提供する。
  10. 看護者は、より質の高い看護を行うために、看護実践、看護管理、看護教育、看護研究の 望ましい基準を設定し、実施する。
  11. 看護者は、研究や実践を通して、専門的知識・技術の創造と開発に努め、看護学の発展に寄与する。
  12. 看護者は、より質の高い看護を行うために、看護者自身の心身の健康の保持増進に努める。
  13. 看護者は、社会の人々の信頼を得るように、個人としての品行を常に高く維持する。
  14. 看護者は、人々がよりよい健康を獲得していくために、環境の問題について社会と責任を共有する。
  15. 看護者は、専門職組織を通じて、看護の質を高めるための制度の確立に参画し、よりよい社会づくりに貢献する。

看護者の倫理綱領|日本看護協会

コメント

タイトルとURLをコピーしました