医学教育つれづれ

医学教育に関する論文のPOINTを書き出した備忘録的なブログです。

医療専門職教育における人工知能の倫理的使用: AMEE Guide No.158

Ethical use of artificial intelligence in health professions education: AMEE Guide No.158
Ken MastersORCID Icon
Published online: 13 Mar 2023
Download citation  https://doi.org/10.1080/0142159X.2023.2186203

https://www.tandfonline.com/doi/full/10.1080/0142159X.2023.2186203?af=R

ポイント

AIは、HPEにおいて倫理的な問題を導入し、増幅させるが、これに対して教育者は準備不足である。

本ガイドでは、データ収集、匿名性、プライバシー、同意、データの所有権、セキュリティ、偏見、透明性、責任、自律性、恩恵など、これらの問題を幅広く特定し説明し、それらに対処するための指針を示している。

 

医療専門職教育(HPE)は、人工知能(AI)の進歩から恩恵を受けており、今後もさらに恩恵を受けることが予想されます。技術の進歩が倫理に関する議論を引き起こすのと同様に、HPEが重要な倫理原則を損なうことなくAIを活用できるように、AIがHPEの倫理に与える影響を特定し、予測し、対応する必要がある。本ガイドは、AI技術に焦点を当てるのではなく、HPEの教師や管理者が教育環境でAIシステムを診察・使用する際に直面しそうな倫理的問題に焦点を当てます。倫理原則の多くは、他の文脈で読者に馴染みがあるかもしれないが、AIに照らして検討し、いくつかの馴染みのない問題を紹介する。データ収集、匿名性、プライバシー、同意、データの所有権、セキュリティ、バイアス、透明性、責任、自律性、有益性などです。ガイドでは、各トピックで概念とその重要性を説明し、その複雑さに対処する方法のヒントを与えています。アイデアは、個人の経験や関連する文献から引き出されています。ほとんどのトピックでは、読者が自由にコンセプトを探求できるように、さらなる読み物が提案されています。本書の目的は、HPEの教師やあらゆるレベルの意思決定者がこれらの問題に注意を払い、AI利用がHPEにもたらす倫理的問題や機会に対処するための積極的な行動をとることである。

 

・HPEにおける倫理

医療専門職教育(HPE)におけるAI利用における倫理の役割が不明確なのは、教育倫理委員会の欠如と「評価」と「研究」の混同に起因しています。国内法もこの問題をさらに複雑にしており、投稿原稿の倫理承認に関して、HPEジャーナルと医学教育研究者の間に緊張関係が生じている。

・医療専門職教育(HPE)におけるAI倫理

教育における倫理的なAI使用のための明確なガイドラインがないため、複雑な問題である。既存のAIの原則や倫理は、教育における倫理的な使用よりも、AIについての教育に主に焦点を当てています。AIがHPEに導入されると、データプライバシー、同意、アルゴリズムの偏りなどの倫理的な複雑さに対処する必要があります。このガイドは、教育機関、教師、学生の関係に焦点を当てることで、HPEの教師がこれらの複雑性をナビゲートできるようにすることを目的としています。AIシステムChatGPTは、教育技術が倫理的に中立であるという概念に挑戦し、HPEにおける倫理的問題の多くの実践例を強調しています。本ガイドは、HPEにおけるAI倫理に取り組むための最初の一歩について、より広範な議論によって締めくくられています。

・ちょっと専門的な話

このガイドでは、あまり専門的になりすぎないように、アルゴリズムとモデルという2つの重要な概念について説明します。アルゴリズムとは、コンピュータシステムが問題を解決するために従うステップバイステップのプロセスのことで、人間やコンピュータの関与の程度はさまざまである。AIでは、アルゴリズムが非常に複雑になることがあります。一方、モデルとは、予測や画像の分類などのタスクを実行するためにアルゴリズムを利用する完全なコンピュータプログラムのことである。混乱を避けるため、このガイドでは主にアルゴリズムに焦点を当てます。

 

懸念される主な倫理的トピック

・過度なデータ収集の防止

HPEにおけるAI活用では、過剰なデータ収集が懸念されています。ビッグデータによって貴重な知見が得られる一方で、学生や職員から膨大な個人情報や行動情報を収集することになりかねません。過剰なデータ収集を防ぐために、教育機関はHPEにおける能動的・受動的なデータ収集に関する明確なプロトコルを確立すべきであり、それは研究IRBによる研究プロトコルと同様の方法で正当化、適用、監視されるべきです。

さらに、教育機関は、オンライン教育だけでなく、対面式の状況においても、過剰なデータ収集の可能性を考慮する必要があります。どちらの状況でも受動的なデータ収集のためのツールは存在するが、データの使用方法については注意が必要である。IRBや国の機関は、倫理承認要件を再検討し、AIによるデータ収集プロセスの進歩に適したものとし、調査データと機関や外部のデータベースのデータとの関係を考慮する必要がある。

 

・匿名性とプライバシーを保護する

HPEにおける匿名性とプライバシーの保護は、特に大量の学生データが収集される中で非常に重要です。しかし、データを完全に匿名化することは困難であり、教育システムやサードパーティツールが高度化すると、データの匿名化が解除されるリスクが高まります。データの匿名化とプライバシー保護を強化するために、教育機関は以下のことを行うことができます:

・LMSや他の教務システムで収集されたトラッキングデータを調べ、相互参照を防止する。

・LMSやアプリからのトラッキングデータへの第三者によるアクセスを拒否する。

ソーシャルメディアウィジェットは、「匿名」データを収集し、学生を追跡することができるため、注意が必要である。

・定性データを検査し、匿名化解除に使用される可能性がある項目を修正する。

・外部システムで登録が必要な場合、学生のために一時的に個人を特定できない電子メールアドレスを作成することを検討する。

これらのステップには、組織的または法的なサポートが必要であり、IRBや国の機関が倫理承認要件を再検討する必要性が強調されている。OCR (2012)などのデータ匿名化に関するガイドラインに従うことも有用である。

 

・完全な同意の確保

HPEにおける完全な同意の確保は、重要な倫理的問題である。学生の同意の問題に対処するために、教育機関は以下のステップを考慮する必要がある:

・教育現場はソーシャルメディアプラットフォームや他の業界とは異なり、その慣行を採用することは教育現場において適切でない、または倫理的でない可能性があることを認識する。

・広く行われているからといって、それがベストプラクティスの基準となるわけではないことを理解すること。複数の機関が同じ慣行に従うことは、必ずしもそれが正しい、あるいは倫理的であるとは限らない。

IRBが研究対象者の同意を監督するのと同様に、能動的・受動的なデータ収集に対する学生の同意を確保するために、教育倫理委員会を設置する。

・過去の学生のデータに対する保護を実施し、潜在的な悪用から保護する。

・現在の学生データが将来どのように使用されるかを慎重に検討する。同意書は、たとえ将来の用途が不明であっても、データの使用目的を明確に示すべきである。教育機関は、適切な検査や監視を行うことなく、現在の同意手続きが倫理的に許容されるという前提に頼ってはならない。

これらのステップを踏むことで、教育機関は、HPEにおけるデータ収集と利用の文脈における学生の同意をめぐる倫理的な懸念に、よりよく対処することができます。

 

・学生データの所有権の保護

学生データの所有権を保護するために、HPEの機関は以下のステップを検討する必要があります:

・学生が作成したデータ、教育機関が作成した学生に関するデータを含め、学生がデータの所有権に関わる利害関係を持つことを認める。

・学生データの所有権に関する明確なポリシーを確立し、教育機関によるデータの使用、共有、保持方法などの問題に対処する。

・自分のデータに関する意思決定プロセスに学生を参加させる。AIによるデータ解析の意味合いを含め、学生データの利用について透明性のある対話を奨励する。

・強固なプライバシー管理と同意メカニズムを導入し、学生が自分のデータの使用、共有、保持方法について発言できるようにする。

・組織の方針を定期的に見直し、更新することで、現在の倫理基準や進化する技術に沿った適切な方針を維持する。

・学生データの所有権を優先し尊重するAIプロバイダーとのパートナーシップを構築し、アルゴリズムやAIシステムが、そのデータが依拠する学生の同意と理解に基づいて開発されていることを確認する。

HPEの教育機関は、これらのステップを踏むことで、学生のデータ所有権をより適切に保護し、AIやビッグデータの文脈における倫理的なデータ使用へのコミットメントを示すことができます。このアプローチは、学生の権利を尊重するだけでなく、教育機関と学生の間の信頼と協力関係を育み、最終的に教育体験に利益をもたらします。

 

・より厳格なセキュリティポリシーの適用

高等教育機関における学生データを保護するためには、同意、匿名性、プライバシー、データ所有権、セキュリティにまつわる倫理的な懸念に対処することが極めて重要である。教育機関は、教育倫理委員会の設置、インフォームドコンセントの取得、データの可能な限り匿名化、自身のデータに対する学生の権利の尊重、より厳格なセキュリティポリシーの導入を行うべきである。データセキュリティ強化のための推奨事項としては、リスクアセスメントの実施、包括的なデータセキュリティ方針の策定、ソフトウェアやシステムの定期的な更新、多要素認証の採用、スタッフや学生へのベストプラクティスに関するトレーニング、第三者によるデータ共有に関する厳しいガイドラインの策定、侵入検知・防止システムの導入、セキュリティ手段の定期的なテストなどが挙げられる。

 

データおよびアルゴリズムの偏りから守る

・データとしての学生

高等教育機関のAIシステムでは、学生はデータポイントと識別子の集合体であるデータ主体として扱われます。これらのデータポイントと識別子は、機能、アクセス権限、長期的な関係を決定する上で極めて重要であり、また報告プロセスにも不可欠です。

AIの文脈では、学生も教育関係者も主にデータ主体として捉えられています。これらの人々から収集されたデータは、AIシステムを駆動するアルゴリズムを作成するために使用されます。データの正確性と信頼性を確保することは、それを基にしたアルゴリズムの信頼性に直接影響するため、極めて重要です。したがって、高等教育における倫理的なAIの実践を維持するためには、関係するすべての個人のデータを扱い、保護し、AI駆動の結果に影響を与える可能性のあるデータの潜在的な偏りや不正確さを認識することが不可欠である。

アルゴリズムの偏り

アルゴリズムの偏りは、データが人種、性別、文化的アイデンティティ、障害、年齢など、特定の人口統計学的識別子によって支配され、他の識別情報によって過小評価される場合に発生します。その結果、アルゴリズムにこれらのバイアスが反映され、不適切な結果や偏見に満ちた結果につながる可能性がある。高等教育では、アルゴリズムの偏りが、職員や学生の募集、昇進、表彰、インターンシップ、コース設計、嗜好品などに影響を与えることがある。

ChatGPTのようなAIシステムは、不快感を避けるために文化的な偏見や自己検閲を不用意に披露することがあり、倫理的に中立なAIというものが存在しないことを強調している。AIシステムにおけるすべての反応や判断には、バイアスがかかりやすいのです。

高等教育におけるAIアルゴリズムの偏りを減らすためには、より強く偏りのないアルゴリズムに寄与するデータの多様性を確保することが不可欠です。しかし、サイズだけでは多様性を保証することはできません。トレーニングデータが広く表現されていない場合、この制限を明確に示す必要があります。また、教育関係者は、学生の活動と知覚される効果との間に強い関連性を導き出すことに慎重でなければならない。

データやアルゴリズムの偏りをチェックするツールが開発されており、データをオープンアクセスにすることは偏りを減らすための一つのアプローチとなり得る。しかし、オープンアクセスデータには、公開に関する適切な同意の確保や匿名化への影響など、それなりの問題がある。データセットが大きく、数が多ければ多いほど、三角測量やデータの匿名化解除の可能性が高くなります。

アルゴリズムの透明性の確保

アルゴリズムの透明性は、AIにおける課題です。アルゴリズムは、知的財産権法によって保護された独自のものであることがあり、時には、検査によって理解できないこともあるからです。アルゴリズムが機械によって設計される場合、人間には理解しにくいいくつかの隠しレイヤーが存在することがあります。アルゴリズムの成功は、方法論よりも結果で評価されるため、パターンの発見と予測に焦点が当てられることが多い。

アルゴリズムで何が起こっているのか誰も知らないという「ブラックボックス」シナリオは、倫理的な懸念を抱かせる。失敗の原因を確定し、将来の失敗を防ぐことが難しくなる。さらに、理解しないまま純粋な統計モデルに依存することは、結果の真の理解や一般化を妨げ、観察結果を根本的な教育理論から切り離すことになります。

アルゴリズムの非透明性という倫理的な問題を解決するために、説明可能な人工知能(XAI)が開発されています。しかし、この問題はまだ根強く残っています。高等教育機関は、使用するすべてのアルゴリズムが十分に文書化されていることを確認し、可能な限りオープンソースのルーチンを選択し、広範囲で厳格にテストされたアルゴリズムを使用する必要があります。さらに、AIシステムによって得られた知見や予測は、可能な限り教育理論と関連付け、さらなる探求が必要な関連性や欠点を浮き彫りにする必要があります。

 

HPEにおけるAIの使用には、意思決定責任、説明責任、非難、信用に関する明確なガイドラインとポリシーが必要です。また、教育機関は、AIシステムを使用する意思決定者の自律性をサポートし、彼らが倫理的かつ公正に扱われるようにする必要があります。さらに、教育機関は、学生などのデータ供給者を認め、報酬を与え、その保護を確保することで、適切な受益の問題に取り組む必要があります。

AIが進歩すると、我々の倫理観に挑戦し、独自の倫理モデルを開発するかもしれません。私たちは、教育倫理に関する見解がAIによって問われることに備えておく必要があります。さらに、AIシステムが理性的な意識のレベルに近づくにつれ、AIの権利や保護の可能性を考慮する必要があります。これには、AIの著作権法やその他の基本的人権が含まれます。

AIシステムがより高度になるにつれて、感覚の可能性とそれに伴う権利を考慮する必要があります。例えば、バーチャルなAIの学生や患者には権利があり、それらを含む研究には倫理的承認が必要かもしれません。AIの感覚の定義は普遍的に合意されておらず、感覚の関連性は、人々がAIシステムをどのように認識し、対話するかにあるのかもしれない。

機関はHPEにおけるAIの導入において、様々な倫理的懸念に対処する必要があります。これには、意思決定の責任と説明責任、自律性のサポート、適切な恩恵の確保、AIが倫理観に与える影響への備え、システムが感覚に向かって進む際のAIの権利と保護についての検討などが含まれます。

 

AIはすでに様々な形でHPEに影響を与えており、テクノロジーの進歩に伴い、この影響はますます大きくなっていくことでしょう。しかし、教育におけるAI統合の潜在的なメリットとともに、対処すべき倫理的な課題も数多く存在します。教育機関は、データ管理から自律性、恩恵、さらにはAIの潜在的な感覚や権利の検討まで、倫理的なAIの導入と利用を確保するために積極的に取り組む必要があります。

これらの課題を効果的に乗り切るために、HPE機関は教育倫理委員会を設立し、研究倫理委員会にAIに関する教育を行い、AI倫理最高責任者を任命する必要があります。HPEにおけるAIの倫理的な意味を認識し対処することで、教育機関は倫理基準を維持しイノベーションを促進しながら、学生により良い学習体験を提供することができます。

これらの倫理的問題に正面から向き合い、それに応じて方針と実践を調整することで、HPE機関は教育におけるAIの可能性を最大限に活用しながら、学生と教員の双方に利益をもたらす倫理的で責任あるアプローチを維持することができます。HPEにおけるAIの未来は大きな可能性を秘めていますが、この可能性は熟慮と慎重な行動によってのみ実現されるものです。

 

まとめ

本ガイドは、アラン・チューリングの「機械は考えることができるか」という問いに始まり、倫理に関する議論から、可能性のあるAIの感覚の意味合いへと一巡しました。読者はきっと、デカルトの「Cogito ergo sum」(「我思う、我あり」)(Descartes Citation1637)を思い出すことだろう。そして、AIの発展により、チューリングの疑問は哲学的なものから実存的なものに移行したと考えられる。

このような背景から、本ガイドでは、保健医療専門職教育におけるAIの倫理的使用に関する最も重要な話題と問題を検討し、これらの議論が単に哲学的なものではなく、我々の存在や、HPEにおける倫理と行動の捉え方に直接影響を与えるということを理解するようにしました。そのため、このガイドの最後には、現在私たちが直面している、そして将来も直面するであろう倫理的な問題をどのように捉え、対処するかについて、教育機関が必要な変化を起こすよう促している。やるべきことはたくさんありますが、HPEの教育者や管理者は、問題を認識し、その解決に向けたプロセスをどのように始めるかを知る必要があります。このガイドが、その旅路において、高等専門教育者の助けとなることを願っています