Science News

生成AIの使用によって起こり得る研究不正とその対策

近年、生成AIや大規模言語モデル(LLM)は飛躍的に進化し続けています。学術研究分野においても、文献の調査・整理や要約、文章校正の効率化、膨大なデータの解析の高速化や予測・シミュレーションへの活用など、さまざまな場面で活用されています。

その一方で、適切な運用ルールや研究倫理に則らずに生成AIが使用されることで、研究者が意図せず研究不正を行ってしまう可能性も潜んでいます。特に、AIによって生成されたテキストや画像などのコンテンツを、研究者自身が十分に検証することなく論文の掲載してしまうことは、誤情報や捏造・改竄につながるおそれがあります。ここでは、生成AIによって起こり得る研究不正のリスクと、それを回避するための対策について解説します。

虚偽や誤情報の拡散、ハルシネーションのリスク

生成AIの活用にあたっては、虚偽の情報や誤ったデータを提示するハルシネーションに注意する必要があります。生成AIが生成したコンテンツを十分に検証することなく論文へ組み込んでしまうと、誤情報の拡散や不正確な引用につながり、学術的信頼性を損なうリスクが高まります。

対策:生成AIを使用する工程を明確に定め、あくまで補助として使用する

AIが生成したコンテンツを鵜呑みにしたりそのまま論文に採用したりするのではなく、研究者自身が責任をもって取捨選択することが大切です。AIが提示した引用文献やデータ、数値などは、必ず一次情報にアクセスして出典元を確認するようにしましょう。

プロンプト上では、専門分野に特化した回答を生成するために背景情報や前提条件を正しく伝えるほか、最新の情報を参照し、不正確な場合は回答を無理に生成せず「わからない」と回答するよう指示することで、古い情報に基づく回答や誤情報の生成を避けやすくなります。最も大切なのは、どんなに優れたプロンプトを用いてもハルシネーションを完全に防ぐことは困難であることを理解したうえで、生成AIをあくまで補助として使用することです。

剽窃・盗用など著作権に関するリスク

生成AIは、膨大な量の既存テキストを学習しています。そのため、AIが生成したコンテンツには公開済みの論文等と非常に類似した表現が含まれる可能性があり、研究者が検証することなく無自覚に自身の論文に使用した場合、意図せず剽窃や盗用になってしまうリスクがあります。

対策:研究者自身の言葉で再構成し、ツールの活用と人間によるチェックを併用する

AIで生成したテキストをそのまま使用するのではなく、必ず研究者自身が信頼性について検証し、自身の言葉で再構成することが大切です。剽窃・盗用をチェックするツールの活用も推奨されますが、人間によるチェックも必ず行いましょう。

潜在的なバイアスや結果の改竄のリスク

プロンプトの設計や学習データの偏りによって、生成AIがバイアス(不公平や差別的なコンテンツ)を助長するおそれがあります。生成AIが学習するデータは決してフラットな情報ばかりではなく、性別や年齢、地理的分布、社会的な固定観念などの偏りがあり、それらを繰り返し学習してしまうことで、特定の理論や結果を過度に支持するような偏った表現を生成するおそれがあります。そのため、あらかじめ立てた仮説にとって都合のよい主張が強調されたり、研究結果の解釈が歪められたりする可能性が潜んでいます。研究者自身が批判的な視点で検討・検証することなく、生成AIの主張や表現を鵜呑みにしてしまうと、研究成果を意図せず改竄してしまう事態につながりかねません。

対策:批判的な視点での検討・検証と、生成AIを使用した工程の開示

データの解析や結果の解釈においては、生成AIはあくまで補助的な役割とし、研究者自身が批判的な視点をもって検討・検証することが大切です。他の研究者に協力を仰ぎ、独自に研究・実験の再現性を検証してもらったり、模擬査読を依頼したりするのも有効です。

また、謝辞や方法のセクションでは、どの工程において生成AIを使用したのかを開示することも重要です。ジャーナルによっては、投稿規定等において生成AIを著者として記載することを認めないとしている場合があります。また、一部の工程において使用を認めているジャーナルでも、謝辞や方法において生成AIの使用について開示することを求めているケースがほとんどです。研究の透明性を確保するためにも、生成AIはあくまで工程を限定して補助的に使用し、そのことを明示することが求められます。

機密性のリスク

ユーザーがプロンプトとして入力した内容を、大規模言語モデルの再学習に使用している生成AIもあります。それらの生成AIに、未公開のデータや機密性の高い情報、非公開の研究計画や未発表の論文を入力すると、生成AIが学習して他のユーザーへの生成に使用してしまうおそれがあります。不用意に生成AIを利用したことで、万が一にも機密情報を漏洩してしまった場合、契約違反や研究倫理違反、重大なコンプライアンス違反につながりかねません。

対策:機密情報は原則として生成AIに入力しないことが基本

論文の執筆や査読において、未発表論文の一部または全部を生成AIに読み込ませることは避けましょう。また、生成AIを使用する際は、対話の内容を学習データとして使用しないようユーザー側で設定することも大切です。汎用的な生成AIではなく、学術研究分野に特化した信頼できる生成AIを使用することも有効です。

研究者自身の批判的な姿勢とAIとの健全な協業を徹底することが重要

生成AIは、今や研究の効率化や生産性の向上を支援する強力なツールへと進展しました。一方で、誤った活用にはさまざまな研究不正のリスクがあり、不用意に取り入れることで学術的公正性や信頼性を損なうおそれがあります。現在のAIには、それが適切な使用方法かを判断したり、善悪の判断をしたりすることは困難です。最終的な倫理的判断は常に人間に委ねられていることを意識し、研究者自身が批判的な姿勢での論文執筆とAIとの健全な協業を徹底することが大切です。

  • 英文校正
  • 英訳
  • 和訳
※価格は税抜き表記になります