あなたがここ数年、世間から隔絶した生活を送っていなければ、ChatGPTのような大規模言語モデル(LLM)を含む生成AIが学術界で広く使われていることは、すでにご存じでしょう。これらのツールは、被験者の募集(Luら、2024年)から最終的なジャーナル論文の下書き作成まで、研究のさまざまな側面をより簡単、迅速、シンプルにする可能性を秘めています。
しかし、生成AIは比較的、まだ発展途上にあり、どこまで安全に頼ることができるのかはまだ不明な点が多くあります。そのため、学術界が新しいテクノロジーを熱心に取り入れる一方で、ジャーナルや出版社は、AIがどの程度まで許容されるのか、悪意のあるAIや無能なAIの利用から科学界や一般市民をどのように守ることができるのか、激しい議論に巻き込まれています。
学術出版に関わるさまざまな組織の中でも、出版倫理においてInternational Committee of Medical Journal Editors(ICMJE, 医学雑誌編集者国際委員会 )が果たす役割は際立っています。ICMJE は、医学ジャーナルの一般編集者と関連組織の代表者で構成されており、医学とその報告の質の向上を目指して協力しています。ICMJEのガイドラインは、正式には「Recommendations for the Conduct, Reporting, Editing and Publication of Scholarly Work in Medical Journals(医学雑誌における学術的研究の実施、報告、編集および出版に関する勧告)」と呼ばれ、この分野のリーダーから新しい専門誌まで、数多くの医学ジャーナルがこれに従っています。
そのため、ICMJEが研究の実施と報告における、AIの使用に関するガイドラインと原則をまとめる先駆者のひとつであることは不思議ではありません。ICMJEからの主な勧告を、詳しく見てみましょう。
1. AIの使用は開示されるべき
ICMJEガイドラインの2023年更新版では、著者はカバーレター、謝辞セクション、方法セクションのいずれかに、AIの使用を適宜開示することが求められています。より具体的には、論文の執筆、編集、校正にAIを使用した場合は謝辞セクションに、データの収集・分析や図表の作成にAIを使用した場合は方法セクションに記載する必要があるとしています。
基本的に、ICMJEはAI技術の使用を禁止しているわけではありませんが、研究および関連する研究論文において、これらの技術がどのように使用されたかを完全かつ透明性をもって報告することを求めています。
2. AIは著者ではない
いかなるAIツールも、ICMJEによるオーサーシップの基本的な基準のひとつである「論文内容の正確性、完全性、独創性に責任を持つ」を満たすことはできません。したがって、ChatGPTのようなAIツールは、たとえ研究や論文で広範囲に使用されていたとしても、著者として記載することはできません。ICMJEはまた、AIが生成した出力が不正確、不完全、または偏りがある可能性があることに注意を促し、最も権威のあるAIコンテンツであっても慎重に確認するよう著者に警告しています。また、AIが生成したテキストや画像に盗用がないかをチェックすることも必要です。
同様の理由で、AI は科学情報の信頼できる情報源とはみなされていないため、AI ツールを参考文献リストに情報源として記載することはできません。
3. 論文評価におけるAIの使用は慎重に
2024年1月に更新されたICMJEガイドラインでは、「Editor should be aware that using AI technology in the processing of manuscripts may violate confidentiality」(編集者は、論文評価にAI技術を使用することは、守秘義務に反する可能性があることを認識すべきである)と言及されています。したがって、査読を容易にするためにAIツールを使用したい査読者は、事前にジャーナル編集者の許可を得ることが不可欠です。許可されていないプラットフォームやAIソフトウェアに論文全体をアップロードすることは、守秘義務違反とみなされる可能性があります。
さらに、著者はAIが生成した文章の正確性と客観性に注意しなければならないのと同様に、査読者もAIが生成した査読コメントが不正確であったり、欠陥があったり、偏っていたりする可能性があることを認識する必要があります。
結論
AI技術は科学的プロセスにおいて非常に役立ちますが、万能というわけではありません。ある学術ジャーナルが、AIが生成したとんでもなく大きなペニスと睾丸を持つネズミの画像を掲載したところ、科学者からも非科学者からも嘲笑を浴びました。科学界の笑い者になるのを避けたいのであれば、AIを慎重に使うことは絶対に必要です。
査読者も、AIの無制限な使用の危険性に気づき始めています。Times Higher Educationが最近実施した世界的な調査によると、査読者はChatGPTやその他のツールに大きな不信感を抱いています。遡ること2023年6月には、アメリカの国立衛生研究所(NIH)は査読に生成AIツールを使用することを禁止しています。
したがって、AI を使用して自分の論文を作成する場合でも、他の人の論文を査読する場合でも、どのようなツールも自分自身の知識、経験、専門知識の代わりにはならないということを覚えておいてください。
この記事はEditage Insights 英語版に掲載されていた記事の翻訳です。Editage Insights ではこの他にも学術研究と学術出版に関する膨大な無料リソースを提供していますのでこちらもぜひご覧ください。