学者对AI的使用率大幅提升,但信任度反而下滑,呈现“高使用、低信任”的矛盾趋势。
📌 核心矛盾:使用率与信任度的反向变化
Wiley 2025年全球调查显示,84%的科研人员已在研究中使用AI工具,较2024年的57%显著增长;但认为AI“真的够格”的比例却下降,整体信任度下滑12。这种反差源于学者在实践中更深入认识到AI的局限——尽管AI在基础工作中提升效率,但尚未实现科研领域的革命性突破1。
🧩 关键数据与现象
📊 AI使用与评价数据对比
维度 数据详情
使用率 84%(2025年)vs 57%(2024年),增长显著12
效率提升 85%认为AI提高效率,77%产出更多成果,73%提升工作质量12
主要应用场景 写作辅助(超半数使用)、文档撰写、文献阅读,集中于基础性工作12
未来预期 83%认为AI将在2027年前成为科研重要组成部分12
✅ 信任度下滑的核心原因
功能局限:AI仍缺乏对复杂科学规律的理解,如物理逻辑推理能力不足4。
应用浅层化:使用场景集中于论文准备、资料整理,与企业白领的AI使用方式类似,未触及核心科研创新12。
预期调整:学者从初期热情转向理性,认识到AI无法兑现“革命性突破”的早期承诺1。
✅ 趋势总结:理性使用与规范需求
学者对AI的态度正从“尝鲜”转向“成熟应用”:一方面依赖其提升效率,另一方面明确其辅助定位。未来推广需解决两大问题:
规范与培训:57%的科研人员认为缺乏使用规范和培训是主要障碍2;
技术突破:需突破现有模型局限,实现从“基础辅助”到“深度科研支持”的跨越。