人工智能(AI)这些蛋白质被用作药物、疫苗和其他治疗方法,正在迅速推进新蛋白质的设计。但这种希望也伴随着每个人的焦虑。同样的工具可以用来设计生物武器或有害毒素的组成部分。
如今,科学家们提出了一系列可以嵌入人工智能模型的保护措施,这些措施不仅可以防止恶意使用,还可以跟踪哪个人工智能模型在新生物武器出现时创造了它。4月28日,相关论文在《自然生物技术》上发表。
约翰斯·霍普金斯大学健康与安全中心主任,流行病学家Thomas “建立正确的框架尤为重要,这将有助于我们充分发挥这项技术的巨大潜力,同时防止出现极其严重的风险。”Inglesby说。
近年来,科学家们证明,人工智能模型不仅可以根据氨基酸序列预测蛋白质结构,还可以以前所未有的速度生成具有新功能的新蛋白质序列。最新的人工智能模型,如RFdiffusion和ProGen,可以在几秒钟内定制蛋白质设计。在基础科学和医学领域,他们的前景几乎是毋庸置疑的。
然而,美国普林斯顿大学的计算机科学家王梦迪指出,这些模型的强大功能和便利性令人担忧。“人工智能变得如此简单易用。普通人可以生成有毒化合物或病毒序列,而无需博士学位。”
Kevin是美国麻省理工学院媒体实验室的计算机科学家 Esvelt支持更严格地控制相关高风险病毒和DNA制造的研究。他指出,这种担忧仍然停留在理论上。“没有实验室数据表明,当前模型足够强大,可以引发新的流行病。”
即便如此,包括Inglesby在内的130 去年,著名蛋白质研究人员签署了一份保证书,以确保人工智能在工作中安全运行。现在,王梦迪和他的同事总结了可以嵌入人工智能模型的保护措施,这超出了他们的自愿承诺。
其中一项措施是由王梦迪实验室开发的名为FoldMark的保护机制。它参考了当前工具的概念,如谷歌DeepMind的SynthID,即在不影响内容质量的情况下,将数字模式嵌入人工智能生成的内容中。
在FoldMark的情况下,在不改变蛋白质功能的情况下,将标记符代码作为唯一的标记符插入蛋白质结构。如果检测到新的毒素,可以通过该代码追踪其来源。Inglesby评论说,这种治疗措施“可行,在降低风险方面具有巨大的潜在价值”。
研究团队还提出了一些改进人工智能模型的方法,以减少其危害的可能性。蛋白质预测模型是基于当前的蛋白质(包括毒素和疾病蛋白质)。一种名为“反学习”的方法将清除一些训练数据,使模型难以产生危险的新蛋白质;此外,还有一个“反越狱”的概念,即系统地训练人工智能模型来识别和拒绝隐藏的恶意指令。
此外,研究团队敦促开发人员选择外部安全措施,例如使用独立代理来监控人工智能的使用。当有人试图制造有害生物材料时,它也会向安全人员发出警报。
“实施这些安全措施并不容易。建立监管机构或某种程度的监管体系将是一个起点。”作者之一,美国国防部高级研究计划局AI项目总监Alvaro Velasquez说。
美国斯坦福大学计算生物学家James说:“人们对人工智能和生物安全的思考不如其他领域,如错误信息或深度伪造技术。” Zou表示,因此对保障措施的新关注是有益的。
然而,Zou认为,与其要求人工智能模型本身纳入保护措施,监管部门应该关注那些可以将人工智能产生的蛋白质设计转化为大规模生产的服务设施或机构。“在人工智能与现实世界对接的层面上建立更多的保护体系和监管措施是有意义的。”
赞一个