科普界公众号二维码

科普危机!

原创 25 0

AI发展正在重塑信息传播的范式,从ChatGPT到DeepSeek,AI工具以惊人的速度渗透到知识生产领域,科普工作既迎来效率革命,也面临前所未有的信任危机。


数据显示,2024年AI生成的虚假信息传播速度较传统方式提升300%,而公众对科学信息的信任度却同比下降15%。


该矛盾揭示出AI时代的科普正站在十字路口:技术赋能与认知危机并存,信息民主化与知识垄断交织,科普界需要系统性反思与重构。


AI下的科普危机


1.1 虚假信息泛滥与信任崩塌
AI生成内容的双刃剑效应在科普领域尤为突出。2024年全网疯传的“十大致癌卫生巾黑名单”事件中,AI通过语义重组技术将零散的化学名词拼接成看似专业的致癌结论,导致官方机构耗费数月进行辟谣。更令人担忧的是,AI生成的“知识幻觉”具有高度迷惑性,例如某AI平台推荐书目时虚构《世界作为参考答案》中关于北宋文人的讨论,其文本逻辑严密却完全脱离事实。这种“专业化的虚假”正在侵蚀公众对科学传播的信任基础。


1.2 知识垄断与认知鸿沟
AI技术引发的“黑暗森林效应”正在重构知识权力结构。MIT高温超导团队年起采用量子态加密技术封锁研究成果,仅允许付费API访问数据;华尔街基金公司将核心量化策略封闭在离线AI网络中,形成“算法黑箱”。这种知识壁垒导致科学传播出现断层:普通公众获取的可能是经过多次AI加工的二三手信息,而前沿知识成为资本与学术精英的专属资源。调查显示,95%的民众仅能接触智商上限80的AI助手,形成新型知识分层。


1.3 认知惰性与思维退化
AI工具的便捷性正在消解人类的深度思考能力。刘海龙指出,当前AI生成内容本质是“对真相不知情的系统性扯淡”,但公众因长期依赖AI检索而丧失信息核查能力。这种危机在教育领域尤为显著:大学生直接使用AI编造的虚假文献却不加验证,中小学教师用AI生成教案导致科学方法论传授缺失。更深远的影响在于,当AI创作的平均水平达到“平庸本科生”层级时,人类对优质内容的判断标准可能出现降维。


危机成因


2.1 算法偏见与数据依赖
AI系统的知识产出高度依赖训练数据的质量与多样性。应急科普领域的研究显示,算法对灾害数据的过度拟合可能导致推送偏差,例如忽视特定地区的地质风险。在文化层面,中文AI模型对西方科学史的过度侧重,造成本土科学叙事缺失。这种“数据决定论”使得科普内容成为统计学意义上的概率游戏,而非真理探索过程。


2.2 资本逻辑与技术异化
AI发展背后的权力博弈深刻影响科普生态。2025年DeepSeek开启的开源平权运动仅维持6个月即被资本垄断,算力控制者获得知识分配权。企业为追求流量将科普内容娱乐化,例如某平台用AI生成“量子佛学”等伪科学话题,点击量超千万却扭曲科学本质。技术工具沦为资本增值的手段,背离了科普的公共价值属性。


2.3 认知范式与传播机制失衡
传统科普的线性传播模式难以应对AI时代的复杂性。当应急科普平台试图用VR技术模拟灾害场景时,算法却将80%的资源分配给视觉效果优化,忽视应急知识的准确性验证。这种“形式压倒内容”的倾向,反映出技术主义对科学传播本质的遮蔽。更严重的是,AI生成的科普内容往往追求“确定性答案”,削弱公众对科学不确定性的认知容忍度。


科普生态重构


3.1 构建人机协同的科普生产机制
需要建立“人类主导-AI辅助”的新型合作模式。在应急科普领域,AI可快速生成灾害模拟数据,但需科学家审核关键参数;在科学史传播中,AI可整合跨语言文献,但需人文研究者把控叙事框架。武汉大学提出的“意识涌现”理论强调,人类应专注于价值判断与创造性联想,将机械性工作交由AI处理。


3.2 完善技术伦理与制度保障
亟需建立三级监管体系:在数据层实施“科学语料认证”,要求AI训练数据包含经同行评议的权威内容;在算法层引入“可解释性评估”,强制科普类AI展示推理路径;在应用层设立“动态黑名单”,实时屏蔽伪科学信息。日本年推行的《AI科普伦理宪章》要求所有科学类AI标注信息溯源路径,值得借鉴。


3.3 培育批判性科学素养
应对AI时代的认知危机,需要重塑公众的思维工具。苏格拉底式提问法可作为破局关键:当AI给出“卫生巾致癌”结论时,公众应追问“数据样本量多少?”“对照组如何设置?”“机制解释是否符合毒理学原理?”。清华大学开展的“AI素养培育计划”要求学生在使用AI工具时同步提交信息验证报告,有效提升信息甄别能力。


3.4 推动开放科学运动
打破知识垄断需要制度创新。可建立“全球科学知识共享池”,要求接受公共资金资助的研究成果必须开放AI访问权限;发展区块链技术实现科研成果的可信存证与传播追踪;鼓励科学家参与科普内容创作,例如诺贝尔奖得主定期与AI联合直播解读前沿发现。欧盟启动的“开放科学2030”计划,已推动12万篇论文实现AI友好型开放获取。


AI时代的科普危机本质上是人类认知范式与技术革命的结构性冲突。


当AlphaFold预测出2亿种蛋白质结构时,我们既惊叹于技术伟力,也需警惕“技术万能论”的陷阱。


科普工作的未来不在于对抗AI,而在于构建“科技人文”新范式——让AI成为拓展认知边疆的罗盘,而非遮蔽思想星空的雾霾。需要在算法的精确性与人性的温度感之间,在效率至上与伦理底线之间寻找动态平衡点,以求守护科学传播的求真本质与人文价值。


参考文献

1.王大鹏. AI炮制了谣言,科普如何破局?[J]. 科普时报, 2024.
2.史军等. 对AI的回答之 也许它可以帮助我们许多?[N]. 新京报, 2025.
3.国务院应急管理部. 人工智能对应急科普的机遇与挑战[R]. 北京, 2024.
4.腾讯科技. AI黑暗森林:知识工作者的末日之战[EB/OL]. 2025.
5.绘画小精灵. 停止雇佣人类?AI时代的未来与危机分析[EB/OL]. 2025.
6.锐评社事. AI发展背后的隐忧:高能耗与健康威胁[EB/OL]. 2024.


科普界公众号二维码 科普界版权声明
  • 评论列表

留言评论