扫描电镜结合机器学习,用于宏观纳米原子尺度的材料研究

简介: 扫描电镜结合机器学习,用于宏观纳米原子尺度的材料研究


编辑/凯霞了解材料的特性需要在大范围和不同尺度上进行结构表征,以将微观结构与性能联系起来。微观结构和性能之间的联系形成了材料科学的基本范式。然而,一个关键的挑战是在适当的尺度(或多个尺度)表征微观结构。一种通用方法是使用扫描电子显微镜(SEM),这是一种用于材料表征的工具,可提供有关材料表面或近表面结构的信息,但在实践使用过程中仍面临信号收集的挑战。来自清华大学的研究团队开发了一种单光束高通量 SEM 方法,可用于以纳米级分辨率同时收集二次电子(SE)和背散射电子(BSE)信号,具有良好的信噪比和高成像速度,结合机器学习,实现了高效率的材料研究。该研究以「A macro-nano-atomic–scale high-throughput approach for material research」为题,于 2021 年 12 月 1 日发表在《Science Advances》上。二次电子(SE)信号和背散射电子(BSE)信号是 SEM 系统中两个最重要和最广泛使用的信号,其中由这些信号产生的图像对比度机制分别称为地形对比度和成分对比度。然而,在实践中使用传统 SEM 不可能实现大面积的基于扫描的调查,因为这些工具本质上太慢。为了解决这个问题,已经开发了多光束高通量 SEM(mSEM),通过增加主光束的数量来提高吞吐量。然而,在这些 mSEM 中,每个单光束的 SE 信号能力仍然与传统 SEM 中的类似,此外,不可能同时额外收集 BSE 信号。这对 mSEM 在材料科学领域的使用造成了重大限制。在这里,研究人员开发了一种单光束高通量 SEM 方法,可用于以纳米级分辨率同时收集 SE 和 BSE 信号,具有良好的信噪比和高成像速度(在 2100 兆像素/秒时,每个像素的最小停留时间为 10 ns)。

单光束高通量 SEM 方法的示意图。

该方法基于配备专门设计的电子光学系统和检测系统的单光束高通量 SEM,利用直接电子检测器和优化的偏转系统。结合机器学习,该显微镜可用于识别和区分不同的相,允许对大范围长度尺度上的实验数据进行收集后分析,从而将厘米级的实验结果连接到纳米级甚至原子级。这里通过对第二代镍基单晶高温合金中碳化物的多尺度研究来说明。在五种条件下采集合金样品:铸态、热处理、在 1038 ℃/155 MPa 下进行蠕变测试至 22.2 和 131.6 小时,以及蠕变断裂后(以下表示为 SA1、SA2、SA3、SA4 和 SA5)。以纳米级分辨率收集全景图谱的每个样品,识别初级(Ta, Hf)C 碳化物和次级 (Cr, Re)23C6 碳化物。从全景图集中收集数字数据通过机器学习模型进行高通量数据收集和自动相位识别产生的全景图谱可以很容易地转换为数字数据进行统计分析,基于在样本规模区域收集的数据,从中可以快速确定碳化物的尺寸和体积(面积)分数的演变。基于样品尺度数据的碳化物统计分析。研究发现样品中 M23C6 碳化物的数量在蠕变过程中随着碳化物的增长而减少,此外,M23C6 碳化物极有可能在这种高温合金的蠕变过程中起关键作用。额外的微观结构表征单光束高通量 SEM 方法可以在大样本区域(数十平方毫米)上实现纳米级分辨率的快速多尺度识别和定量分析。然而,确定碳化物的微观结构及其与基体的关系(这两者对于理解碳化物对蠕变性能的影响都很重要),仍然需要一些额外的微观结构分析。接下来对碳化物周围的位错结构进行了详细检查,注意检查具有代表在高通量 SEM 观察中识别的碳化物的尺寸、形状和位置的碳化物。

M23C6 碳化物的显微组织及其与周围基体的关系。

将观察到的结果与高通量 SEM 数据相结合,表明随着 M23C6 碳化物尺寸的增加,它们的形状变成多面,并通过 M23C6/ 界面连接到基体。在整个蠕变期间,这些界面很重要,因为它们是位错运动的障碍。在此认识的基础上,研究人员还进行了 STEM 实验,通过在原子尺度上分析 M23C6/ 界面来解释 M23C6 碳化物与基体之间的关系。根据对五个深蚀刻样品的另一组高通量 SEM 观察和样品 SA5 的 STEM 高角度环形暗场观察,四种典型类型发现了多面体 M23C6 碳化物的数量,由三种类型的相干 M23C6/ 界面定义。可以得出结论,蠕变过程中发生的碳化物变化对本高温合金的蠕变性能有积极影响。研究人员表示:「我们在此展示的综合结果验证了该技术在识别和区分微米或纳米级不同相方面的可行性和准确性,允许在广泛的长度范围内对实验数据进行收集后分析,从而将宏观纳米原子实验结果与性能联系起来。」正如本研究中所展示的,结合 SE/BSE 高通量数据收集的能力,有望广泛用于分析多相材料的结构-性能关系。此外,未来的应用可能需要与断层扫描技术相结合,以构建具有完整微观结构细节的样本规模三维(3D)模型。

论文链接:https://www.science.org/doi/10.1126/sciadv.abj8804


相关文章
|
7月前
|
机器学习/深度学习 算法 数据可视化
可解释性机器学习:基于随机森林和Ceteris-paribus的乳腺癌早期诊断研究
可解释性机器学习:基于随机森林和Ceteris-paribus的乳腺癌早期诊断研究
312 1
|
1月前
|
机器学习/深度学习
自动化机器学习研究MLR-Copilot:利用大型语言模型进行研究加速
【10月更文挑战第21天】在科技快速发展的背景下,机器学习研究面临诸多挑战。为提高研究效率,研究人员提出了MLR-Copilot系统框架,利用大型语言模型(LLM)自动生成和实施研究想法。该框架分为研究想法生成、实验实施和实施执行三个阶段,通过自动化流程显著提升研究生产力。实验结果显示,MLR-Copilot能够生成高质量的假设和实验计划,并显著提高任务性能。然而,该系统仍需大量计算资源和人类监督。
33 4
|
6月前
|
机器学习/深度学习 数据采集 搜索推荐
机器学习在智能推荐系统中的个性化算法研究
机器学习在智能推荐系统中的个性化算法研究
|
4月前
|
机器学习/深度学习 存储 分布式计算
Hadoop与机器学习的融合:案例研究
【8月更文第28天】随着大数据技术的发展,Hadoop已经成为处理大规模数据集的重要工具。同时,机器学习作为一种数据分析方法,在各个领域都有着广泛的应用。本文将介绍如何利用Hadoop处理大规模数据集,并结合机器学习算法来挖掘有价值的信息。我们将通过一个具体的案例研究——基于用户行为数据预测用户留存率——来展开讨论。
330 0
|
5月前
|
机器学习/深度学习 人工智能 API
在人工智能和机器学习的领域中,语音识别(Speech Recognition,SR)是一个重要的研究方向。它旨在将人类的语音转换为计算机可读的文本。
在人工智能和机器学习的领域中,语音识别(Speech Recognition,SR)是一个重要的研究方向。它旨在将人类的语音转换为计算机可读的文本。
|
7月前
|
机器学习/深度学习 边缘计算 人工智能
利用机器学习优化数据中心能效的研究
【5月更文挑战第21天】 在数据中心运营的成本结构中,能源消耗占据了显著的比例。随着计算需求的不断增长,如何在保持高性能的同时降低能耗成为一大挑战。本文通过探索机器学习技术在数据中心能源管理中的应用,提出了一种新的能效优化框架。该框架采用预测算法动态调整资源分配,并通过仿真实验证明其在降低能耗和提高资源利用率方面的有效性。研究结果不仅对理解数据中心能源消耗模式具有理论意义,也为实际操作提供了可行的节能策略。
|
7月前
|
机器学习/深度学习 资源调度 算法
利用机器学习优化数据中心能效的策略研究
【4月更文挑战第28天】 在数据中心设计和运营中,能源效率已经成为一个核心议题。随着计算需求的不断增长,数据中心的能耗问题愈发凸显,而传统的节能方法逐渐显得力不从心。本文旨在探讨如何通过机器学习技术提升数据中心的能源效率,降低运营成本,并对环境影响最小化。文中详细分析了机器学习在数据中心制冷管理、资源调度、故障预测及维护等方面的应用,并提出了一套综合策略,以期达到智能化管理和节能减排的双重目标。
|
7月前
|
机器学习/深度学习 存储 人工智能
利用机器学习优化数据中心能效的策略研究
【5月更文挑战第30天】 在信息技术日益发展的当下,数据中心作为其支撑的基础设施之一,承担着处理和存储海量数据的重要任务。随着数据中心规模的扩张和计算需求的增加,如何在保证性能的同时降低能耗成为了业界关注的焦点。本文通过引入机器学习技术,探讨了数据中心能效优化的新方法。文中首先概述了数据中心能效的重要性及其面临的挑战,随后详细介绍了机器学习在数据中心能效管理中的应用方式,包括预测模型的构建、能源消耗模式的分析以及动态调整策略的实施。最后,通过一系列实验验证了所提策略的有效性,并与传统方法进行了对比分析。
|
7月前
|
机器学习/深度学习 安全 网络安全
利用机器学习优化数据中心能效的研究数字堡垒的构建者:网络安全与信息安全的深层探索
【5月更文挑战第29天】在云计算和大数据时代,数据中心的能效问题成为关键挑战之一。本文通过集成机器学习技术与现有数据中心管理策略,提出了一种新型的智能优化框架。该框架能够实时分析数据中心的能耗模式,并自动调整资源分配,以达到降低能耗的目的。研究结果表明,应用机器学习算法可以显著提升数据中心的能源使用效率,同时保持服务质量。
|
7月前
|
机器学习/深度学习 数据采集 算法
利用机器学习优化数据中心能效的研究
【5月更文挑战第25天】 在云计算和大数据的背景下,数据中心作为核心基础设施,其能效问题受到了广泛关注。传统的数据中心能效管理多依赖静态阈值和人工调整,难以适应负载动态变化的需求。本文提出了一个基于机器学习的框架来优化数据中心的能效。我们使用历史数据训练模型,以预测不同工作负载下的最优资源配置。实验结果表明,该框架能够有效降低能耗同时保证服务性能,为数据中心能效管理提供了一种智能化的解决方案。