Medical Teacher’s first ChatGPT’s referencing hallucinations: Lessons for editors, reviewers, and teachers
Ken MastersORCID Icon
Published online: 15 May 2023
Download citation https://doi.org/10.1080/0142159X.2023.2208731
https://www.tandfonline.com/doi/full/10.1080/0142159X.2023.2208731?af=R
学生がChatGPTのような人工知能(AI)ツールを課題に不適切に使用することを学者が懸念している(Ulanoff Citation2023)。しかし、学術関係者がジャーナルに投稿する原稿でChatGPTを不適切に使用するリスクも同様に存在します。
この解説では、ChatGPTの「幻覚」について説明し、ChatGPTを不適切に使用した初の医学部教員投稿論文を用いて、ジャーナル編集者、査読者、教員に対する教訓を導き出します。
編集者、査読者、教師への示唆
教訓1:引用文献に目をつぶってはいけない。彼らは議論をサポートしています。メモしておきましょう。
教訓2:自分の専門知識と批判的思考を駆使して、「奇妙」なものを見つけよう。「うーん、それは奇妙だ」という反応を引き起こすものがあれば、立ち止まってさらに調査しよう。すべてをチェックすることはできないので、何かおかしいと思ったら、一旦立ち止まることが必要である。
参考文献のチェック
教訓3:GPTツールの中には無料で使えるものもあり、出力できる長さに制限があったり、出力が悪かったりするため、再度プロンプトを出し、段階的に論文を作成する必要がある場合がある。これらの回答はすべて別々の文献を生成する可能性があることから、グループや一見ランダムなパターンで表示されることがあります。
教訓4:ユニークな識別子がないことは心配かもしれませんが、やはり、少なくともいくつかのウェブサイトは参照されるはずなので、URLは期待されます。最新の参照システムとフォーマットに関する知識を活用してください
教訓5:通常、あなたは自分の分野でレビューしている。不可能ではありませんが、リストの中に第一著者名が一つもわからない場合、それは追加の警告になるかもしれません。
参照された論文の種類
教訓6:参考文献に奇妙なものがないか確認する - この例では、超高速で実施されたSLR、あるいは議論中のテーマが存在する前に出版された可能性があります。
教訓7:論文のごく一部を探す、あるいは奇妙なものを探す。
教訓8:査読者としては、できることは限られている。査読をやめて、発見したことをジャーナルに(できるだけ詳しく)報告し、そこから先はジャーナルに任せましょう。
本コメンタリーは、ChatGPTのようなAIが学術的な場、特に医学論文の執筆において不適切に使用されていることについて論じています。この解説では、著者が実際に資料を読んだり理解したりすることなく、AIを使って引用や参考文献を生成することに懸念を示しています。著者は、このような行為は、著者が参照文献を参照したことを偽って示唆するため、不誠実と見なされ、特に、参考文献を証拠として使用することが多い物語論文において、深刻な影響をもたらす可能性があると論じている。
また、解説では、学生がAIを学業に利用する際の倫理的な懸念や、AIが根拠なく作成した「幻覚」のような文献を検出する際の問題点についても触れています。参考文献にDOIのような一意の識別子を含めることを義務付けることが、このような誤った文献を検出するための出発点になる可能性があることを示唆しています。
著者は、学者、教師、機関は倫理的にAIを使用し、学生に要求する基準を維持しなければならないと強調している。査読者やジャーナルに対しては、AIが生成した不正確な情報を検出するために警戒が必要であり、そのような誤りを発見した人には報酬制度を導入することができるかもしれないと著者は提案しています。著者は最後に、AIを使用する際に学術関係者がより高い倫理的責任を負うこと、ジャーナルスタッフと査読者がAIツールの不適切な使用を検出するための装備を整える必要性を訴えている。