AI变革药物研发:深势科技的云原生实践之路

简介: 近日,阿里云助力深势科技推出创新的玻尔Bohrium®科研云平台和Hermite®药物计算设计平台,并持续完善。

【阅读原文】戳:AI变革药物研发:深势科技的云原生实践之路



药王孙思邈曾有言:“人命至重,有贵千金,一方济之,德逾于此”,药方的重要性可见一斑。但由于人体分子系统的复杂性,以及药品研发的过程充满了不确定性,因此,业界一直流传着“双十定律”的说法,即成功研发出一款新药,需要耗费超过10亿美元的资金和十多年的时间。不过,随着AI技术的快速发展,这个定律有望被打破。

 

近日,阿里云助力深势科技推出创新的玻尔Bohrium®科研云平台和Hermite®药物计算设计平台,并持续完善。这两项先进的工业设计与仿真基础设施成果通过AI技术赋能科学研究和工业研发,不仅大幅缩短了药物研发周期,降低了成本,还显著提高了研发成功率,为生物医药行业带来了前所未有的变革,这是AI for Science领域的重大突破。

 

科学计算任务对资源的需求具有极致弹性,峰值资源需求可达数十万核,需要在亚分钟级甚至秒级完成计算和数据资源的准备。

 

其次,AI for Science全链路涉及多种异构算力和数据池化的需求,需要充分共享数据以满足不同环节的算力需求;此外,科学计算对性能要求极高,需要对热点小文件实现低延迟加速,并且在高频弹性任务中实现数据的极速加载和统一的数据集管理;最后,作为面向大量知名高校和科研学者的平台,深势科技还需要对终端客户的数据Quota进行精准的配额管理,以控制数据量。

 

 

深势科技基于阿里云提供的一套融合技术方案解决这些问题并不断迭代演进,经过多年演进,将科学计算的数据基础设施做了充分的分层设计:

 

数据缓存层:这一层作为近计算端高速数据层,用于满足超高速的数据读取需求。这一层使用阿里云Fluid将集群内的高速存储介质抽象成逻辑缓存,进行模型管理和加速加载,同时采用镜像缓存实现镜像的快速拉取,实现Pod在秒级快速拉起。

 

共享加速层:这一层作为共享加速层,用于满足多集群共享数据读写的需求。这一层采用阿里云通用型NAS方案,解决科学计算场景大量小文件热点读取的性能问题,同时提供弹性可分配的数据存储空间。

 

长期存储层:这一层作为全量数据存储层,用于满足模型文件、CKPT、数据集的长期低成本存储。这一层采用阿里云多级OSS对象存储方案,借助阿里云的全球一张网,实现一套Bucket数据跨地域加载传输的需求。

 

在实际应用中,深势科技的平台帮助用户从繁重的重复实验中脱离出来,将原本需要数年才能完成的药物筛选和优化工作,用更大规模的算力协同调度缩短至几个月甚至几周,极大地加速了新药的研发进程。同时,研发成本也得到了有效控制,相较于传统研发模式,节省了大量资金投入,为药物研发企业带来了可观的经济效益。

 

图丨阿里云存储解决方案架构图

 

 

此外,阿里云还提供了多租户成本控制的能力,帮助深势科技实现了对终端客户数据Quota的精准管理,有效控制了数据量和成本。除了在药物研发领域的合作,阿里云还具备其他多项相关技术能力,能够为不同行业的客户提供全面的解决方案。

 

例如,在能源领域,通过云和AI技术可以帮助进行能源消耗预测和优化,提高能源利用效率;在材料科学领域,高性能算力加速新材料的研发和性能模拟;在信息科学与工程研究方面,大数据处理和分析能力为研究提供强有力的支持。


点击链接可查看视频:

https://alidocs.dingtalk.com/i/nodes/G1DKw2zgV2KnvL4kF1QozPQ3JB5r9YAn?utm_scene=person_space

 

对于此次合作,深势科技技术架构师李祥兵表示:“阿里云云原生计算服务结合云原生存储服务,实现了业务发展过程中对资源的充分有效利用,有效降低了业务上线过程的研发成本和管理成本,实现了业务敏捷高效。”

 

阿里云工程师也认为,与深势科技的合作是一次成功的实践,充分展示了阿里云技术在AI for Science领域的强大实力和广阔应用前景。未来,双方将继续深化合作,共同探索更多创新技术和应用场景,为推动科学研究和工业研发的发展做出更大贡献。

 

在实际应用中,深势科技的平台在多个能源、药物研发等项目中得到了验证。例如,在与某创新实验室的合作中,运用深势科技的勒贝格平台科研协作效率提升30%,最大资源管理规模超10万核,极大提升开发效率,除此之外深势科技也与业内超过50家生物医药、新能源和新材料企业进行合作,共同提升药物研发、新材料研发的开发效率。这些实践数据充分证明了深势科技与阿里云合作的成果为科研领域树立了新的标杆。




我们是阿里巴巴云计算和大数据技术幕后的核心技术输出者。

欢迎关注 “阿里云基础设施”同名微信微博知乎

获取关于我们的更多信息~


相关文章
|
14天前
|
运维 Cloud Native 测试技术
极氪汽车云原生架构落地实践
随着极氪数字业务的飞速发展,背后的 IT 技术也在不断更新迭代。极氪极为重视客户对服务的体验,并将系统稳定性、业务功能的迭代效率、问题的快速定位和解决视为构建核心竞争力的基石。
|
24天前
|
XML 人工智能 Java
如何与AI结对编程:我与AI的8000行代码实践
作者分享了跟 AI 协作的一些经验,使用中如何对 AI 输入和反馈,经过磨合后,工作效率会大大提升。
如何与AI结对编程:我与AI的8000行代码实践
|
1月前
|
人工智能 Java 测试技术
通义灵码2.0·AI程序员加持下的智能编码实践与测评
通义灵码2.0是阿里云推出的新一代智能编程助手,集成DeepSeek模型并新增多项功能,显著提升开发效率。本文通过实际项目体验新功能开发、跨语言编程、单元测试自动生成和图生代码等功能,展示其在代码生成、质量内建和人机协作方面的优势。相比1.0版本,2.0在模型选择、代码质量和用户体验上均有显著提升。尽管存在依赖网络和多语言混合项目中的不足,但整体表现优异,极大优化了开发流程。[了解更多](https://lingma.aliyun.com/)
381 59
|
28天前
|
人工智能 API 语音技术
HarmonyOS Next~鸿蒙AI功能开发:Core Speech Kit与Core Vision Kit的技术解析与实践
本文深入解析鸿蒙操作系统(HarmonyOS)中的Core Speech Kit与Core Vision Kit,探讨其在AI功能开发中的核心能力与实践方法。Core Speech Kit聚焦语音交互,提供语音识别、合成等功能,支持多场景应用;Core Vision Kit专注视觉处理,涵盖人脸检测、OCR等技术。文章还分析了两者的协同应用及生态发展趋势,展望未来AI技术与鸿蒙系统结合带来的智能交互新阶段。
108 31
|
1月前
|
存储 人工智能 缓存
AI变革药物研发:深势科技的云原生实践之路
阿里云助力深势科技推出创新的玻尔Bohrium®科研云平台和Hermite®药物计算设计平台,并持续完善。这两项先进的工业设计与仿真基础设施成果通过AI技术赋能科学研究和工业研发,不仅大幅缩短了药物研发周期,降低了成本,还显著提高了研发成功率,为生物医药行业带来了前所未有的变革,这是AI for Science领域的重大突破。
150 38
|
12天前
|
Cloud Native Serverless 流计算
云原生时代的应用架构演进:从微服务到 Serverless 的阿里云实践
云原生技术正重塑企业数字化转型路径。阿里云作为亚太领先云服务商,提供完整云原生产品矩阵:容器服务ACK优化启动速度与镜像分发效率;MSE微服务引擎保障高可用性;ASM服务网格降低资源消耗;函数计算FC突破冷启动瓶颈;SAE重新定义PaaS边界;PolarDB数据库实现存储计算分离;DataWorks简化数据湖构建;Flink实时计算助力风控系统。这些技术已在多行业落地,推动效率提升与商业模式创新,助力企业在数字化浪潮中占据先机。
82 12
|
1月前
|
数据采集 人工智能 运维
工业巡检进入‘无人化+AI’时代:无人机智能系统的落地实践与未来
无人机智能巡检系统凭借高效性、智能化和精准性,解决了传统人工巡检效率低、成本高、漏检风险大的问题。该系统通过“空中机器人+AI分析”,实现多维度数据采集与分析,大幅提升巡检效率和准确性。广泛应用于能源、交通、工业等领域,助力运维模式升级,成为工业4.0时代基础设施运维的标配工具。
247 19
工业巡检进入‘无人化+AI’时代:无人机智能系统的落地实践与未来
|
1月前
|
存储 弹性计算 Cloud Native
云原生成本精细化管理实践:企迈科技的成本中心建设之路
企迈实施成本中心建设的项目核心目标不仅是实现云资源的优化配置,还要为管理层提供清晰、实时的成本数据分析,帮助管理层做出更加精准的决策。通过精细化的云成本管控,逐步实现成本降低、资源合理分配和更加高效的云产品使用。
云原生成本精细化管理实践:企迈科技的成本中心建设之路
|
1月前
|
存储 人工智能 Kubernetes
ACK Gateway with AI Extension:面向Kubernetes大模型推理的智能路由实践
本文介绍了如何利用阿里云容器服务ACK推出的ACK Gateway with AI Extension组件,在Kubernetes环境中为大语言模型(LLM)推理服务提供智能路由和负载均衡能力。文章以部署和优化QwQ-32B模型为例,详细展示了从环境准备到性能测试的完整实践过程。
|
1月前
|
存储 人工智能 物联网
ACK Gateway with AI Extension:大模型推理的模型灰度实践
本文介绍了如何使用 ACK Gateway with AI Extension 组件在云原生环境中实现大语言模型(LLM)推理服务的灰度发布和流量分发。该组件专为 LLM 推理场景设计,支持四层/七层流量路由,并提供基于模型服务器负载感知的智能负载均衡能力。通过自定义资源(CRD),如 InferencePool 和 InferenceModel,可以灵活配置推理服务的流量策略,包括模型灰度发布和流量镜像。

热门文章

最新文章