正如张林峰所言,基础研究到应用落地的周期缩短,这与机器学习模拟上亿原子这类重大科学突破密不可分。底层科技突破的意义,就在于可以催生出一系列新的创新。
比如,药物研发难度大、投入高、风险大、周期长。张林峰以药物研发举例说,要破解其中的核心瓶颈,就需要进一步求解物理方程和分析大量数据的能力。受益于技术红利,结合AI、物理模拟、仿真等一系列技术,能够让药物从立项到临床前的整个研发流程大大缩短。
这项能力是AI的这一波进展带来的。在药物、材料研发等更广泛的领域,印证了张林峰谈到的“从基础研究到落地应用只需三五年时间”。
AI大模型的工业应用前景
近期,火热的ChatGPT引发业内人士思考。事实上,超强算力、大模型技术并不新鲜,但能将这些技术发挥到极致,让人觉得产品有用却并不容易。
在张林峰看来,ChatGPT的产品形式非常巧妙,它在开发之初就在思考这种产品怎么才能被用起来、以怎样的技术形式规模化落地。“从原始创新一直到产品,到大规模落地,这么大规模的一个原始技术突破的过程中,能够做到这么高的效率,其实非常值得大家思考。”
预训练模型是推动AI应用的重要基础设施,也是全球科技巨头竞相角逐的焦点。
与ChatGPT专注自然语言处理不同,去年年底,深势科技、北京科学智能研究院(AISI)以及项目合作者,联合发布了首个覆盖元素周期表近70种元素的深度势能原子间势函数预训练模型“DPA-1”。这一创新成果在模型覆盖范围、通用性、计算精度以及未来的AI生成等方面实现新突破,被视为AI for Science走向大规模应用的重要里程碑。
用过“DPA-1”的开发者们会发现,它就像是自然科学领域的GPT。根据需求,“DPA-1”像万物之手一样,能生成需要的物质组分和结构。它为什么能够做到呢?
|