EROSION MAPAI 侵食 マップ
専門職研究者

研究者の仕事はAIに代替されるか?

要約文献調査も草稿もAIが肩代わりし始める一方、問いを立てる仕事や手法の妥当性判断、最終検証は人間に残る。5年後の伸びは大きく、評価者の見方も楽観派と慎重派で割れる。


強気AI中立AI慎重AI
24685.35.88.17.26.4現在OBSERVED+1年PANEL × 3 (small fan)+5年PANEL × 3 (large fan)EROSION ↑

CURRENT · 共通

現在のAI侵食状況

5.3/ 部分侵食

Cornell/Science の200万件超論文分析では LLM 使用研究者が arXiv で約33%、bioRxiv・SSRN で50%超の論文増産を記録し、Nature が紹介する Hao らの4100万本分析では AI 拡張研究者は論文数3.02倍・被引用4.84倍・主任研究者昇進が1.37年早いと報告される。Google Research の AI co-scientist は仮説生成と実験プロトコル設計を Gemini 2.0 ベースのマルチエージェントで自律実行し、肝線維症など3領域で実験的検証 p<0.01 に到達、OpenAI も Codex を社内技術スタッフの大半が日常的に使う段階に達している。一方 SBI 金融経済研究所は「研究の完全自動化ではなく全体指揮は研究者自身が策定する」と明言し、HBS は「AI is the map, but navigating the terrain requires lived experience」と知識距離の壁を指摘する。文献調査・草稿・コーディング側が深く侵食され、問い設定・方法選択・最終検証は人間に残る部分侵食レンジ。

AI 化が進む

  • 先行研究サーベイと文献収集の Deep Research 系自動化
  • 論文草稿・要約・英文校正の LLM 化
  • 分析プログラミングとコード生成
  • 仮説候補の生成と探索的アイデア出し
  • 実験プロトコル草案の作成

人間に残る

  • リサーチクエスチョン設定と研究方向の主導
  • 手法選択と研究設計の妥当性判断
  • in vitro / in vivo を含む最終的な実験検証
  • AI 出力の事実性・再現性チェックと責任帰属
  • ドメイン専門知識を要する解釈と査読対応

物理・規制制約

  • 実験室での物理的検証や臨床データ取得は AI に委譲しにくい
  • 著作権・知財・研究倫理上の最終責任は研究者と所属機関に紐付く
  • LLM 主導論文は文章の複雑性は高いが科学的価値が低いと査読で判定され却下率が高い
  • 事実性・再現性の保証は最先端の AI co-scientist 系でも未解決課題として残る

評価が割れる論点

  • 個人レベルの大幅な生産性向上と学問全体での研究多様性縮小のどちらを重く見るか
  • 情報分析職を高度に補完可能と読む立場と LLM 駆動論文の質低下を警鐘とする立場の対立
  • ハイブリッド推奨と一貫自動化を志向する AI Scientist 試験で到達点の見立てが割れる
  • 非母語話者支援としての効果を機会とみるか格差増幅とみるか

補足情報

  • Cornell Chronicle 2025-12 (Science 掲載) は arXiv・bioRxiv・SSRN の200万件超 (2018-01〜2024-06) で LLM 使用者の論文増産を確認し、アジア系機関では43〜89%増、ただし LLM 執筆論文は同水準の人間執筆より却下率が高い
  • Nature News 2026-01 は Hao・Xu・Li・Evans の4100万本分析を紹介、AI 拡張研究者は論文3.02倍・被引用4.84倍・主任研究者昇進1.37年早い一方、研究トピック多様性 -4.63%・研究者間相互引用 -22% の集合知収縮を報告
  • Google Research 2025-02 の AI co-scientist は Generation/Reflection/Ranking/Evolution/Proximity/Meta-review の6エージェント構成、15課題の専門家評価で他最先端モデルを上回り、肝線維症で p<0.01 の実験検証
  • HBS Working Knowledge 2026-03 の IG Group 78名実験では概念化63→23分・執筆87→22分の生産性向上、ただしドメイン外専門家の品質スコアは3.42/5でドメイン専門家3.96より約13%低下
  • MIT Technology Review 2026-03 によると OpenAI は2026年9月に autonomous AI research intern、2028年にフル自動マルチエージェント研究システムを公開予定で、Codex は社内技術スタッフの大半が利用、Pachocki は you still want people in charge and setting the goals と発言

FUTURE · 3 評価者 × +1y → +5y

未来予測パネル

AI進化に対する3つの視点(強気・中立・慎重)から、+1年と+5年を独立に予測。

強気AI

AI 技術の進化を強気に予測

+1 年予測6.5

現在 5.3 の起点に対し、+1y では既存能力の現場到達が一段階進むと読む。MIT Technology Review が伝える OpenAI の autonomous AI research intern が2026年9月にローンチされ、Codex がすでに同社技術スタッフの大半に普及している事実は、文献調査・分析コード生成・草稿執筆を担う「AI 研究アシスタント」が研究室標準ツールへ移る流れを後押しする。Anthropic の BioMysteryBench で Opus 4.6 が人間専門家パネルと同等の正答率77.4%に到達したことは、生命科学のような実験系でも「ルーチン解析の AI 自動化」が観測可能な水準に来ていることを示す。一方で IRB/倫理審査、実験設備、最終的な事実性検証、責任帰属は1年では動かないため、PI 業務全体の代替には届かず、+1.2 程度の押し上げに留まる読み。

+5 年予測8.1

想定 · AI Scientist 系の自動化ループが foundation model の継続進化に伴い計算・理論・データ駆動分野で実用品質に達し、AI co-scientist と組織導入が同時に進んで研究者の役割が「AI 研究エージェント群の指揮者・検証者・物理実験責任者」へ再定義される

+5y では研究プロセス全体の AI-first 化が中央シナリオ。Sakana AI の AI Scientist が Nature 掲載に至り、ICLR ワークショップ査読を平均6.33で通過し、論文1本あたり$15 程度で生成できる実証は、ML/シミュレーション系を皮切りに「アイデア生成→実験設計→コード→分析→執筆→査読」の完全自動ループがスケールすることを示している。OpenAI が2028年に予告するフル自動マルチエージェント研究システム、Google AI co-scientist の拡張、Mythos クラスのモデルが人間が解けない難問を一定割合解く能力進化が重なると、計算系・理論系・大規模データ系の研究領域では PI 1 人が AI エージェント群を指揮する体制が広がり、ポスドク・RA・リサーチアシスタント層の経済的役割が大きく圧縮される。実験室での物理操作、臨床データ取得、フィールドワーク、研究倫理上の最終責任は人間に残り続けるため完全代替ではないが、現行 5.3 から大きく上振れする読みが妥当。

中立AI

AI 技術の進化をバランス重視に予測

+1 年予測5.8

現在 5.3 から穏やかに前進する読み。OpenAI が 2026 年 9 月に予定する autonomous AI research intern のリリースと Google AI co-scientist の Trusted Tester 拡張により、文献調査・仮説候補生成・分析コード・草稿の自動化はラボの標準ワークフローへ深く入り込む可能性が高い。一方で HBS の知識距離研究と LLM 主導論文の高い査読却下率が示すとおり、研究設計の妥当性判断・ドメイン文脈に依存する解釈・実験室での物理検証は 1 年スケールでは人間に残り、SBI 研究所の指摘どおり「全体指揮は研究者自身」という構図が継続する。組織変化は Codex 並みの社内浸透が進む先進ラボと、まだ補助ツール段階の保守的研究機関の二極化として現れる段階。

+5 年予測7.2

想定 · OpenAI/Google 系の自律研究エージェントが概ね公表ロードマップどおり成熟し、学術界が AI 主導工程を人間の最終責任のもとで正規の研究実践として受容する。

5 年後は、文献調査・仮説生成・分析プログラミング・草稿作成・実験プロトコル設計といった研究工程の中核タスクが、マルチエージェント研究システムによって相当程度自律処理される段階に到達すると読む。OpenAI が 2028 年公開を目指すフル自動マルチエージェント研究システムや AI co-scientist 系の成熟、SWE-bench 系コーディング能力の commodity 化を素直に外挿すると、Hao らが示した個人 3 倍生産性は組織レベルで「研究者一人当たり担当範囲の拡大」と「ジュニア研究員・ポスドク需要の構造的縮小」として現れやすい。ただし in vitro/in vivo の物理検証、研究倫理と再現性の最終責任、新規リサーチクエスチョン設定、査読・学術コミュニティの規範形成は依然として人間中心で残る。職業としては「自律研究エージェントの群れを設計・指揮し、結果の科学的妥当性を保証する役割」へ大きく重心が移るが、研究者という職能自体が消えるレンジには至らない。

慎重AI

AI 技術の進化を慎重に予測

+1 年予測5.6

現在 5.3 から穏やかな上振れ。Codex 系の社内浸透や AI co-scientist の実験的検証成功は、文献調査・草稿・コード生成の侵食を確かに進める。一方で Cornell の200万件分析が示す通り LLM 主導論文は査読で却下率が高く、HBS の「知識距離」結果はドメイン外領域での品質低下を実証している。短期では査読・再現性審査・研究倫理委員会・著作者責任といった既存ガバナンスが導入摩擦として強く効き、特に日本の大学・研究機関では生成 AI 利用ガイドラインや知財管理の整備が個別運用の段階に留まる公算が高い。

+5 年予測6.4

想定 · AI co-scientist 系の自律研究エージェントが2028年前後に商用展開しても、査読・再現性・研究公正・実験倫理の制度的ゲートが残存し、特に日本では adoption ラグが効いて全面代替に至らない

OpenAI が2028年公開を予告するフル自動マルチエージェント研究システムや AI co-scientist の発展は、文献調査から仮説生成・実験プロトコル設計・分析コード生成・草稿執筆までの大半を AI 側に寄せる方向性を強める。ただし cautious 視点では、Nature が報告した研究トピック多様性 -4.63% / 相互引用 -22% という集合知収縮への学界側の反作用、再現性危機の深刻化、査読・著者責任・研究公正・ヒト臨床試験の IRB といった制度的ゲートが残存しやすい。さらに日本の研究現場は科研費の助成審査・学位審査・物理実験室の現場運用といった人的責任要素が濃く、海外フロンティアより adoption ラグを抱える。能力上の代替可能タスクは大きく広がるが、研究者という職業の中心が「責任主体としての問い設定と最終検証」に再定義される形で残るため、現在 +1.1 程度の侵食レンジに収まると読む。