人工智能 (AI)在基础科学中占据了中心地位。2024年诺贝尔奖的五个获奖者 化学 和 物理 共享一个共同的线程:AI。
确实,许多科学家—包括诺贝尔委员会&Mdash;正在庆祝AI作为改变科学的力量。
作为获奖者之一 据,AI加速科学发现的潜力使其“人类历史上最具变革性的技术之一”。但是这种转变对科学真正意味着什么?
AI承诺用更少的钱帮助科学家做更多,更快的速度。但这也带来了许多新的问题。而且,如果科学家急于采用AI,他们冒着将科学转变为逃避公众理解和信任的事物的风险,无法满足社会的需求。
专家有 已经确定了 至少有三种幻想可以使用AI吸引研究人员。
首先是“解释深度的幻想”。仅仅是因为AI模型擅长预测现象—像Alphafold一样,它因其对蛋白质结构的预测而获得了诺贝尔化学奖;这并不意味着它可以准确地解释它。 神经科学的研究 已经表明,设计用于优化预测的AI模型可能会导致关于基本神经生物学机制的误导性结论。
第二是“探索性广度的幻想”。科学家可能会认为他们正在研究探索性研究中的所有可检验的假设,而实际上他们只是在研究一套有限的假设,这些假设可以使用AI进行测试。
最后,“客观性的幻想”。科学家可能会认为AI模型没有偏见,或者他们可以解释所有可能的人类偏见。但是,实际上,所有AI模型都不可避免地反映出他们的培训数据和开发人员的意图中存在的偏见。
有关的: “这可能为新颖的艺术表达形式铺平道路”:生成的AI对艺术家的威胁并不威胁。这是重新定义艺术本身的机会
AI在科学方面越来越吸引人的主要原因之一是它的潜力更快,成本要低得多。
这个推动的一个极端例子是“人工智能科学家“ Sakana AI Labs最近开发的机器。该公司的愿景是开发一个“完全AI驱动的自动化科学发现系统”,在该系统中,每个想法都可以以15美元的价格将其转变为完整的研究论文;尽管批评家说该系统所产生的系统”无尽的科学坡度”。
我们真的想要一个只需单击几下即可制作研究论文的未来,只是为了“加速”科学的生产?这有可能淹没科学生态系统 没有意义和价值的论文,进一步加剧已经超重的同行评审系统。
我们可能会发现自己处于一个我们曾经知道的科学被埋葬在AI生成内容的噪音之下的世界中。
AI在科学中的兴起是在公众对科学和科学家的信任的时候 仍然很高 ,但我们不能认为这是理所当然的。信任是复杂而脆弱的。
正如我们在共同大流行期间了解的那样,呼吁“相信科学“因为科学证据和计算模型通常是有争议,不完整或对各种解释开放的,因此可能会跌倒。
但是,世界面临着许多问题,例如气候变化,生物多样性损失和社会不平等,这些问题需要以专家判断制定的公共政策。该判断还必须对特定情况敏感,从各个学科中收集意见以及必须通过当地文化和价值观的角度来解释的生活经验。
作为 国际科学委员会报告 去年发表的论证,科学必须认识到重建公众信任的细微差别和背景。让AI塑造科学的未来可能会破坏这一领域的艰难进步。
如果我们允许AI领导科学询问,我们有可能创建一个 知识的单一文化 这优先考虑最适合AI的问题,方法,观点和专家。
这可以使我们远离 跨学科方法 对负责人的AI以及应对我们的社会和环境挑战所需的细微公共推理和对话至关重要。
随着21世纪的开始,一些人认为科学家有一个 重新获得了社会契约 在其中,科学家将才华集中在我们那个时期最紧迫的问题上,以换取公共资金。目的是帮助社会朝着更可持续的生物圈发展;一个在生态上是合理的,在经济上可行的,并且在社会上公正。
AI的崛起为科学家提供了机会,不仅有机会履行其职责,而且还振兴了合同本身。但是,科学社区将需要解决一些 有关使用AI的重要问题 第一的。
例如,是否在科学中使用AI是一种“外包”,这可能会损害公共资助工作的完整性?应该如何处理?
那呢 人工智能的环境足迹不断增长?研究人员如何在将AI融入研究管道的同时与社会的期望保持一致?
通过AI转变科学的想法而没有先确立这种社会契约风险将购物车放在马上的想法。
让AI塑造我们的研究优先级,而没有各种声音和学科的投入,可能会导致与社会实际需要的东西不匹配,并导致分配不良的资源。
科学应该使整个社会受益。科学家需要在其实践社区和研究利益相关者社区中就AI的未来进行真实的对话。这些讨论应解决这项新的社会契约的层面,以反映共同的目标和价值观。
是时候积极探索AI的科学启用或障碍的各种未来;并建立必要的标准和准则,以负责任地利用其潜力。
这篇编辑的文章从 对话 在创意共享许可下。阅读 原始文章。