Deephub_社区达人页

个人头像照片
Deephub
已加入开发者社区749

勋章 更多

个人头像照片
专家博主
专家博主
个人头像照片
星级博主
星级博主
个人头像照片
技术博主
技术博主
个人头像照片
一代宗师
一代宗师

成就

已发布1224篇文章
212条评论
已回答0个问题
0条评论
已发布0个视频
github地址

我关注的人 更多

技术能力

兴趣领域
擅长领域
技术认证

暂时未有相关云产品技术能力~

公众号 Deephub-IMBA

暂无精选文章
暂无更多信息

2024年09月

  • 09.15 17:55:06
    发表了文章 2024-09-15 17:55:06

    利用未标记数据的半监督学习在模型训练中的效果评估

    本文将介绍三种适用于不同类型数据和任务的半监督学习方法。我们还将在一个实际数据集上评估这些方法的性能,并与仅使用标记数据的基准进行比较。
  • 09.14 09:28:10
    发表了文章 2024-09-14 09:28:10

    MemLong: 基于记忆增强检索的长文本LLM生成方法

    本文介绍了一种名为MemLong的创新长文本处理方法,该方法通过整合外部检索器显著增强了大型语言模型处理长上下文的能力。MemLong采用轻量级设计,利用不可训练的外部记忆库存储历史上下文和知识,并通过检索相关的块级键值对增强模型输入。其技术优势包括分布一致性、高效训练策略及扩展的上下文窗口,能够在单个GPU上处理长达80k个token的文本,同时保持计算效率和内存控制。实验结果显示,MemLong在多个长文本基准数据集上表现出色,显著提升了语言建模能力和上下文学习效果。
  • 09.13 09:41:20
    发表了文章 2024-09-13 09:41:20

    KAN专家混合模型在高性能时间序列预测中的应用:RMoK模型架构探析与Python代码实验

    Kolmogorov-Arnold网络(KAN)作为一种多层感知器(MLP)的替代方案,为深度学习领域带来新可能。尽管初期测试显示KAN在时间序列预测中的表现不佳,近期提出的可逆KAN混合模型(RMoK)显著提升了其性能。RMoK结合了Wav-KAN、JacobiKAN和TaylorKAN等多种专家层,通过门控网络动态选择最适合的专家层,从而灵活应对各种时间序列模式。实验结果显示,RMoK在多个数据集上表现出色,尤其是在长期预测任务中。未来研究将进一步探索RMoK在不同领域的应用潜力及其与其他先进技术的结合。
  • 09.12 12:13:56
    发表了文章 2024-09-12 12:13:56

    使用ClassificationThresholdTuner进行二元和多类分类问题阈值调整,提高模型性能增强结果可解释性

    在分类问题中,调整决策的概率阈值虽常被忽视,却是提升模型质量的有效步骤。本文深入探讨了阈值调整机制,尤其关注多类分类问题,并介绍了一个名为 ClassificationThresholdTuner 的开源工具,该工具自动化阈值调整和解释过程。通过可视化功能,数据科学家可以更好地理解最优阈值及其影响,尤其是在平衡假阳性和假阴性时。此外,工具支持多类分类,解决了传统方法中的不足。
  • 09.11 10:13:40
    发表了文章 2024-09-11 10:13:40

    RAG系统的7个检索指标:信息检索任务准确性评估指南

    大型语言模型(LLMs)在生成式AI领域备受关注,但其知识局限性和幻觉问题仍具挑战。检索增强生成(RAG)通过引入外部知识和上下文,有效解决了这些问题,并成为2024年最具影响力的AI技术之一。RAG评估需超越简单的实现方式,建立有效的性能度量标准。本文重点讨论了七个核心检索指标,包括准确率、精确率、召回率、F1分数、平均倒数排名(MRR)、平均精确率均值(MAP)和归一化折损累积增益(nDCG),为评估和优化RAG系统提供了重要依据。这些指标不仅在RAG中发挥作用,还广泛应用于搜索引擎、电子商务、推荐系统等领域。
  • 09.10 10:50:24
    发表了文章 2024-09-10 10:50:24

    Monte Carlo方法解决强化学习问题

    本文继续深入探讨蒙特卡罗 (MC)方法。这些方法的特点是能够仅从经验中学习,不需要任何环境模型,这与动态规划(DP)方法形成对比。
  • 09.09 10:33:13
    发表了文章 2024-09-09 10:33:13

    Transformer、RNN和SSM的相似性探究:揭示看似不相关的LLM架构之间的联系

    通过探索大语言模型(LLM)架构之间的潜在联系,我们可能开辟新途径,促进不同模型间的知识交流并提高整体效率。尽管Transformer仍是主流,但Mamba等线性循环神经网络(RNN)和状态空间模型(SSM)展现出巨大潜力。近期研究揭示了Transformer、RNN、SSM和矩阵混合器之间的深层联系,为跨架构的思想迁移提供了可能。本文深入探讨了这些架构间的相似性和差异,包括Transformer与RNN的关系、状态空间模型在自注意力机制中的隐含作用以及Mamba在特定条件下的重写方式。
  • 09.08 09:15:28
    发表了文章 2024-09-08 09:15:28

    时间序列结构变化分析:Python实现时间序列变化点检测

    在时间序列分析和预测中,准确检测结构变化至关重要。新出现的分布模式往往会导致历史数据失去代表性,进而影响基于这些数据训练的模型的有效性。
  • 09.07 10:45:29
    发表了文章 2024-09-07 10:45:29

    图特征工程实践指南:从节点中心性到全局拓扑的多尺度特征提取

    本文详细介绍了如何利用NetworkX库从图结构中提取重要特征。首先,通过定义辅助函数设置了图的可视化选项,并以Zachary网络数据集为例进行了可视化展示。接着,文章深入探讨了三类图特征:基于节点的特征(如节点度、中心性等)、基于边的特征(如最短路径、邻域重叠等)以及基于图的特征(如Graphlets、Weisfeiler-Leman特征等)。通过这些特征的提取与分析,可以全面理解网络结构,识别关键节点,分析信息流动模式,并发现潜在的隐藏模式。本文不仅展示了如何应用这些特征来揭示社交网络中的角色和联系,还强调了其在交通网络分析和生物系统研究等领域的广泛应用潜力。
  • 09.06 09:59:28
    发表了文章 2024-09-06 09:59:28

    Optuna发布 4.0 重大更新:多目标TPESampler自动化超参数优化速度提升显著

    Optuna,广受欢迎的超参数优化框架,近日发布了其第四个主要版本。自2018年问世以来,Optuna迅速成为机器学习领域的关键工具,目前拥有10,000+ GitHub星标、每月300万+下载量、16,000+代码库使用、5,000+论文引用及18,000+ Kaggle使用。Optuna 4.0引入了OptunaHub平台,支持功能共享;正式推出Artifact Store管理生成文件;稳定支持NFS的JournalStorage实现分布式优化;显著加速多目标TPESampler,并引入新Terminator算法。
  • 09.05 10:29:57
    发表了文章 2024-09-05 10:29:57

    优化采样参数提升大语言模型响应质量:深入分析温度、top_p、top_k和min_p的随机解码策略

    本文详细解析了大语言模型(LLM)的采样策略及其关键参数,如温度和top_p。LLM基于输入提示生成下一个标记的概率分布,通过采样策略选择标记并附回输入,形成循环。文章介绍了对数概率(logprobs)、贪婪解码、温度参数调整、top-k与top-p采样等概念,并探讨了min-p采样这一新方法。通过调整这些参数,可以优化LLM输出的质量和创造性。最后,文章提供了实验性尝试的建议,帮助读者在特定任务中找到最佳参数配置。本文使用VLLM作为推理引擎,展示了Phi-3.5-mini-instruct模型的应用实例。
  • 09.04 11:37:12
    发表了文章 2024-09-04 11:37:12

    使用PyTorch从零构建Llama 3

    本文将详细指导如何从零开始构建完整的Llama 3模型架构,并在自定义数据集上执行训练和推理。
  • 09.03 10:02:08
    发表了文章 2024-09-03 10:02:08

    一文读懂蒙特卡洛算法:从概率模拟到机器学习模型优化的全方位解析

    蒙特卡洛方法起源于1945年科学家斯坦尼斯劳·乌拉姆对纸牌游戏中概率问题的思考,与约翰·冯·诺依曼共同奠定了该方法的理论基础。该方法通过模拟大量随机场景来近似复杂问题的解,因命名灵感源自蒙特卡洛赌场。如今,蒙特卡洛方法广泛应用于机器学习领域,尤其在超参数调优、贝叶斯滤波等方面表现出色。通过随机采样超参数空间,蒙特卡洛方法能够高效地找到优质组合,适用于处理高维度、非线性问题。本文通过实例展示了蒙特卡洛方法在估算圆周率π和优化机器学习模型中的应用,并对比了其与网格搜索方法的性能。
  • 09.02 10:03:03
    发表了文章 2024-09-02 10:03:03

    CNN中的注意力机制综合指南:从理论到Pytorch代码实现

    注意力机制已成为深度学习模型的关键组件,尤其在卷积神经网络(CNN)中发挥了重要作用。通过使模型关注输入数据中最相关的部分,注意力机制显著提升了CNN在图像分类、目标检测和语义分割等任务中的表现。本文将详细介绍CNN中的注意力机制,包括其基本概念、不同类型(如通道注意力、空间注意力和混合注意力)以及实际实现方法。此外,还将探讨注意力机制在多个计算机视觉任务中的应用效果及其面临的挑战。无论是图像分类还是医学图像分析,注意力机制都能显著提升模型性能,并在不断发展的深度学习领域中扮演重要角色。
  • 09.01 09:44:43
    发表了文章 2024-09-01 09:44:43

    压缩大型语言模型(LLMs):缩小10倍、性能保持不变

    尽管大规模语言模型(LLMs)在多种应用场景中表现出色,但其庞大的规模也带来了实际部署难题。本文探讨了通过模型压缩技术解决这些问题的方法,介绍了量化、剪枝和知识蒸馏三种主要压缩技术,并通过具体Python代码示例展示了如何将一个100M参数的文本分类模型压缩至52.8M参数,再通过4位量化进一步减小至原来的1/7,同时保持甚至提升性能。示例代码展示了从数据预处理、模型训练到评估的完整流程,证明了压缩技术的有效性。

2024年08月

  • 08.31 10:13:55
    发表了文章 2024-08-31 10:13:55

    6种有效的时间序列数据特征工程技术(使用Python)

    在本文中,我们将探讨使用日期时间列提取有用信息的各种特征工程技术。
  • 08.30 09:14:44
    发表了文章 2024-08-30 09:14:44

    PyTorch数据处理:torch.utils.data模块的7个核心函数详解

    在机器学习和深度学习项目中,数据处理是至关重要的一环。PyTorch作为一个强大的深度学习框架,提供了多种灵活且高效的数据处理工具
  • 08.28 10:41:51
    发表了文章 2024-08-28 10:41:51

    使用 Python TorchRL 进行多代理强化学习

    本文详细介绍了如何使用TorchRL库解决多代理强化学习(MARL)问题,重点讨论了在多代理环境中应用近端策略优化(PPO)。通过使用VMAS模拟器,该文展示了如何在GPU上并行训练多机器人系统,使其在避免碰撞的同时到达目标。文章涵盖了依赖项安装、PPO原理、策略与评论家网络设计、数据收集及训练循环,并强调了TorchRL在简化开发流程、提升计算效率方面的优势。无论是集中式还是分布式评论家配置,TorchRL均能有效支持复杂的MARL研究与实践。
  • 08.27 10:54:10
    发表了文章 2024-08-27 10:54:10

    深入理解GPU内存分配:机器学习工程师的实用指南与实验

    给定一个模型架构、数据类型、输入形状和优化器,你能否计算出前向传播和反向传播所需的GPU内存量?
  • 08.26 20:47:22
    发表了文章 2024-08-26 20:47:22

    时间序列特征提取:从理论到Python代码实践

    时间序列是一种特殊的存在。这意味着你对表格数据或图像进行的许多转换/操作/处理技术对于时间序列来说可能根本不起作用。
  • 08.25 16:32:17
    发表了文章 2024-08-25 16:32:17

    高效的时间序列可视化:减少认知负荷获得更清晰的洞察

    本文探讨了时间序列数据可视化中的挑战,特别是在处理多个数据集时。通过减少认知负荷,即处理信息所需的脑力,良好的可视化设计能帮助观察者更快理解数据趋势。文章以疫苗接种数据为例,展示了不同类型的图表(如无连线散点图、带连线散点图、纯折线图以及带有填充区域的折线图)在展示单一时间序列时的效果,并对比了多种多时间序列可视化方法,包括无连线散点图、带连线的折线图以及直接标注的图表,以突出最佳实践。通过这些例子,文章强调了减少认知负荷的重要性,它能帮助观察者快速理解趋势、避免误解并维持较高的参与度。最终目的是通过清晰且直观的设计来提升数据理解效率,支持更优的决策制定。
  • 08.24 19:29:45
    发表了文章 2024-08-24 19:29:45

    XGBoost中正则化的9个超参数

    本文探讨了XGBoost中多种正则化方法及其重要性,旨在通过防止过拟合来提升模型性能。文章首先强调了XGBoost作为一种高效算法在机器学习任务中的应用价值,并指出正则化对于缓解过拟合问题的关键作用,具体包括降低模型复杂度、改善泛化能力和防止模型过度适应训练数据。随后,文章详细介绍了四种正则化方法:减少估计器数量(如使用`early_stopping_rounds`)、使用更简单的树(如调整`gamma`和`max_depth`)、采样(如设置`subsample`和`colsample`)以及收缩(如调节`learning_rate`, `lambda`和`alpha`)。
  • 08.23 10:48:14
    发表了文章 2024-08-23 10:48:14

    基于重要性加权的LLM自我改进:考虑分布偏移的新框架

    本文提出一种新的大型语言模型(LLM)自我改进框架——基于重要性加权的自我改进(IWSI),旨在优化自动生成数据的质量。通过引入DS权重指标衡量数据的分布偏移程度(DSE),该方法不仅能确保答案正确性,还能过滤掉那些虽正确但分布上偏离较大的样本,以提升自我训练的效果。IWSI使用一个小的有效数据集来估算每个自生成样本的DS权重,并据此进行筛选。实验结果显示,相比于仅依赖答案正确性的传统方法,IWSI能更有效地提高LLM在多种任务上的表现。特别是在数学问题解答任务上,相较于基线方法,IWSI带来了显著的性能提升,证实了过滤高DSE样本的重要性及该方法的有效性。
  • 08.22 11:38:58
    发表了文章 2024-08-22 11:38:58

    基于距离度量学习的异常检测:一种通过相关距离度量的异常检测方法

    异常是数据集中显著偏离多数观察值的记录。例如,在由多个紧密簇构成的数据集中,远离这些簇的孤立点常被视为异常。检测这类异常的传统方法依赖于距离度量,如欧几里得距离或Gower距离,但这些方法可能无法妥善处理特征间的复杂关系或权重问题。为此,本文介绍了一种基于距离度量学习的方法,特别是利用随机森林来评估记录间的相似性。此方法通过构建能够区分真实数据与合成数据的随机森林模型,进而依据记录在树结构中的路径一致性来衡量其相似度。异常记录往往会在多数树中到达较少记录所在的叶节点。
  • 08.21 10:07:57
    发表了文章 2024-08-21 10:07:57

    泊松自助法(Poisson Bootstrap Sampling):大型数据集上的自助抽样

    自助抽样通过重采样评估统计量的稳定性和不确定性,无需强假设数据分布,能反映数据变异性并适用于小样本或复杂模型。泊松自助抽样作为一种改进,利用泊松分布生成重采样,尤其适合大数据和流数据场景,减少了数据遍历次数,可在分布式系统中高效并行处理。相较于经典自助抽样,泊松自助抽样能够保留数据多样性,更适合不平衡数据集,并在某些情况下提供更精确的统计估计。
  • 08.20 11:46:49
    发表了文章 2024-08-20 11:46:49

    深入理解双变量(二元)正态投影:理论基础、直观解释与应用实例

    本文探讨了统计学与机器学习中的二元投影技术,它基于二元正态分布,用于预测一个变量在给定另一变量值时的期望值。文章分为三部分:首先介绍了二元正态投影的基本公式及其在回归中的应用;接着通过直观解释和模拟展示了不同相关性下变量间的关系;最后运用投影公式推导出线性回归的参数估计,并通过实例说明其在预测房屋价格等场景中的应用。附录中详细推导了二元线性投影的过程。二元投影作为一种强大工具,在数据分析中帮助简化复杂问题并揭示数据背后的规律。
  • 08.19 10:26:22
    发表了文章 2024-08-19 10:26:22

    三元组损失Triplet loss 详解

    在这篇文章中,我们将以简单的技术术语解析三元组损失及其变体批量三元组损失,并提供一个相关的例子来帮助你理解这些概念。
  • 08.17 10:12:21
    发表了文章 2024-08-17 10:12:21

    将VAE用于时间序列:生成时间序列的合成数据

    变分自编码器(VAEs)是一种生成式人工智能,因其能够创建逼真的图像而备受关注,它们不仅可以应用在图像上,也可以创建时间序列数据。标准VAE可以被改编以捕捉时间序列数据的周期性和顺序模式,然后用于生成合成数据。本文将使用**一维卷积层**、**策略性的步幅选择**、**灵活的时间维度**和**季节性依赖的先验**来模拟温度数据。
  • 08.16 10:07:20
    发表了文章 2024-08-16 10:07:20

    LongWriter: 基于LLM代理可以将输出窗口大小扩展到10,000+个单词

    本文介绍了一种名为AgentWrite的方法,旨在克服大型语言模型(LLM)生成长文本时的局限。通过将任务分解为子任务,AgentWrite使LLM能生成超过20,000词的连贯文本。研究揭示了监督微调数据中的输出长度限制是导致LLM生成长度受限的主要原因。通过构建LongWriter-6k数据集并对模型进行再训练,成功扩展了输出长度至10,000词以上,且未牺牲输出质量。
  • 08.15 10:17:28
    发表了文章 2024-08-15 10:17:28

    60行代码就可以训练/微调 Segment Anything 2 (SAM 2)

    本文演示了如何在仅60行代码内(不包括标注和导入)对SAM2进行微调。
  • 08.14 11:01:37
    发表了文章 2024-08-14 11:01:37

    音频去噪:使用Python和FFT增强音质

    声音去噪目标是改善聆听体验以及音频分析和处理的准确性。过滤掉噪音对于高保真音频来说非常重要,不仅是为了聆听,也是为了创建某些机器学习任务的数据集。
  • 08.13 10:04:41
    发表了文章 2024-08-13 10:04:41

    掌握 PyTorch 张量乘法:八个关键函数与应用场景对比解析

    PyTorch提供了几种张量乘法的方法,每种方法都是不同的,并且有不同的应用。我们来详细介绍每个方法,并且详细解释这些函数有什么区别:
  • 08.12 11:50:05
    发表了文章 2024-08-12 11:50:05

    使用BatchNorm替代LayerNorm可以减少Vision Transformer训练时间和推理时间

    本文探讨了在Vision Transformer (ViT)架构中采用批量归一化(BatchNorm)替代层归一化(LayerNorm)的影响。ViT以其在计算机视觉领域的优异表现而闻名,但存在训练耗时长及对小型数据集推理速度慢的问题。文章提出两种改进模型:ViTBNFFN,在前馈网络中加入BatchNorm;ViTBN,则全面替换为BatchNorm。
  • 08.11 10:51:57
    发表了文章 2024-08-11 10:51:57

    Skeleton Recall Loss 分割领域的新突破:极大的减少了资源消耗,还能提高性能

    这篇论文则介绍了一个新的损失:Skeleton Recall Loss,我把它翻译成骨架召回损失.这个损失目前获得了最先进的整体性能,并且通过取代密集的计算**他的计算开销减少超过90% !**
  • 08.10 11:12:32
    发表了文章 2024-08-10 11:12:32

    多元时间序列分析统计学基础:基本概念、VMA、VAR和VARMA

    多元时间序列是一个在大学课程中经常未被提及的话题。但是现实世界的数据通常具有多个维度,所以需要多元时间序列分析技术。在这文章我们将通过可视化和Python实现来学习多元时间序列概念。这里假设读者已经了解单变量时间序列分析。
  • 08.03 12:10:52
    发表了文章 2024-08-03 12:10:52

    模型量化技术综述:揭示大型语言模型压缩的前沿技术

    在这篇文章中,我将在语言建模的背景下介绍量化,并逐一探讨各个概念,探索各种方法论、用例以及量化背后的原理。
  • 08.02 12:09:06
    发表了文章 2024-08-02 12:09:06

    深入浅出:可视化理解揭示决策树与梯度提升背后的数学原理

    本文将通过视觉方式解释用于分类和回归问题的决策树的理论基础。我们将看到这个模型是如何工作的,以及为什么它可能会导致过拟合。首先将介绍梯度提升以及它是如何改善单个决策树的性能的。然后将用Python从头实现梯度提升回归器和分类器。最后详细解释梯度提升背后的数学原理。
  • 08.01 12:25:45
    发表了文章 2024-08-01 12:25:45

    Adam-mini:内存占用减半,性能更优的深度学习优化器

    论文提出一种新的优化器Adam-mini,在不牺牲性能的情况下减少Adam优化器的内存占用。

2024年07月

  • 07.28 16:25:43
    发表了文章 2024-07-28 16:25:43

    深度学习中常用损失函数介绍

    选择正确的损失函数对于训练机器学习模型非常重要。不同的损失函数适用于不同类型的问题。本文将总结一些常见的损失函数,并附有易于理解的解释、用法和示例
  • 07.27 09:34:31
    发表了文章 2024-07-27 09:34:31

    大语言模型的Scaling Law:如何随着模型大小、训练数据和计算资源的增加而扩展

    在这篇文章中,我们将介绍使这些模型运作的秘密武器——一个由三个关键部分组成的法则:模型大小、训练数据和计算能力。通过理解这些因素如何相互作用和规模化,我们将获得关于人工智能语言模型过去、现在和未来的宝贵见解。
  • 07.26 10:48:56
    发表了文章 2024-07-26 10:48:56

    精简模型,提升效能:线性回归中的特征选择技巧

    在本文中,我们将探讨各种特征选择方法和技术,用以在保持模型评分可接受的情况下减少特征数量。通过减少噪声和冗余信息,模型可以更快地处理,并减少复杂性。
  • 07.25 10:29:47
    发表了文章 2024-07-25 10:29:47

    贝叶斯分析与决策理论:用于确定分类问题决策点的应用

    在分类问题中,一个常见的难题是决定输出为数字时各类别之间的切分点
  • 07.24 10:15:07
    发表了文章 2024-07-24 10:15:07

    大语言模型对时间序列预测真的有用吗?

    我们已经看到了语言模型的巨大进步,但时间序列任务,如预测呢?今天我们推荐一篇论文,对现有的语言模型和时间序列做了深入的研究。将探讨了是否可以从大型语言模型(LLMs)中获益于时间序列(TS)预测。
  • 07.23 11:02:13
    发表了文章 2024-07-23 11:02:13

    用PyTorch从零开始编写DeepSeek-V2

    DeepSeek-V2是一个强大的开源混合专家(MoE)语言模型,通过创新的Transformer架构实现了经济高效的训练和推理。该模型总共拥有2360亿参数,其中每个令牌激活21亿参数,支持最大128K令牌的上下文长度。
  • 07.22 10:05:04
    发表了文章 2024-07-22 10:05:04

    VQ-VAE:矢量量化变分自编码器,离散化特征学习模型

    VQ-VAE 是变分自编码器(VAE)的一种改进。这些模型可以用来学习有效的表示。本文将深入研究 VQ-VAE 之前,不过,在这之前我们先讨论一些概率基础和 VAE 架构。
  • 07.20 10:58:34
    发表了文章 2024-07-20 10:58:34

    多任务高斯过程数学原理和Pytorch实现示例

    本文探讨了如何使用高斯过程扩展到多任务场景,强调了多任务高斯过程(MTGP)在处理相关输出时的优势。通过独立多任务GP、内在模型(ICM)和线性模型(LMC)的核心区域化方法,MTGP能够捕捉任务间的依赖关系,提高泛化能力。ICM和LMC通过引入核心区域化矩阵来学习任务间的共享结构。在PyTorch中,使用GPyTorch库展示了如何实现ICM模型,包括噪声建模和训练过程。实验比较了MTGP与独立GP,显示了MTGP在预测性能上的提升。
  • 07.19 11:03:31
    发表了文章 2024-07-19 11:03:31

    使用Pytorch中从头实现去噪扩散概率模型(DDPM)

    在本文中,我们将构建基础的无条件扩散模型,即去噪扩散概率模型(DDPM)。从探究算法的直观工作原理开始,然后在PyTorch中从头构建它。本文主要关注算法背后的思想和具体实现细节。
  • 07.18 11:20:03
    发表了文章 2024-07-18 11:20:03

    谷歌的时间序列预测的基础模型TimesFM详解和对比测试

    在本文中,我们将介绍模型架构、训练,并进行实际预测案例研究。将对TimesFM的预测能力进行分析,并将该模型与统计和机器学习模型进行对比。
  • 07.17 09:47:12
    发表了文章 2024-07-17 09:47:12

    Pytorch的编译新特性TorchDynamo的工作原理和使用示例

    PyTorch的TorchDynamo是一个即时编译器,用于优化动态图执行,提高运行效率。它在运行时分析和转换代码,应用优化技术,如操作符融合,然后编译成高效机器码。通过一个包含特征工程、超参数调整、交叉验证的合成数据集示例,展示了TorchDynamo如何减少训练时间并提高模型性能。它易于集成,只需对现有PyTorch代码进行小改动,即可利用其性能提升。TorchDynamo的优化包括动态捕获计算图、应用优化和编译,适用于实时应用和需要快速响应的场景。
  • 07.16 11:48:28
    发表了文章 2024-07-16 11:48:28

    注意力机制中三种掩码技术详解和Pytorch实现

    **注意力机制中的掩码在深度学习中至关重要,如Transformer模型所用。掩码类型包括:填充掩码(忽略填充数据)、序列掩码(控制信息流)和前瞻掩码(自回归模型防止窥视未来信息)。通过创建不同掩码,如上三角矩阵,模型能正确处理变长序列并保持序列依赖性。在注意力计算中,掩码修改得分,确保模型学习的有效性。这些技术在现代NLP和序列任务中是核心组件。**
  • 发表了文章 2024-12-26

    SPAR:融合自对弈与树搜索的高性能指令优化框架

  • 发表了文章 2024-12-25

    TurboAttention:基于多项式近似和渐进式量化的高效注意力机制优化方案,降低LLM计算成本70%

  • 发表了文章 2024-12-24

    BERT的继任者ModernBERT:融合长序列处理、代码理解与高效计算的新一代双向编码器

  • 发表了文章 2024-12-23

    10个必备Python调试技巧:从pdb到单元测试的开发效率提升指南

  • 发表了文章 2024-12-22

    使用PyTorch实现GPT-2直接偏好优化训练:DPO方法改进及其与监督微调的效果对比

  • 发表了文章 2024-12-21

    LEC: 基于Transformer中间层隐藏状态的高效特征提取与内容安全分类方法

  • 发表了文章 2024-12-20

    时间序列分析中的互相关与相干性分析:前导-滞后关系的理论基础与实际应用

  • 发表了文章 2024-12-19

    基于深度混合架构的智能量化交易系统研究: 融合SSDA与LSTM自编码器的特征提取与决策优化方法

  • 发表了文章 2024-12-18

    基于Copula分布的合成数据采样:保持多维数据依赖结构的高效建模方法

  • 发表了文章 2024-12-17

    数据分布检验利器:通过Q-Q图进行可视化分布诊断、异常检测与预处理优化

  • 发表了文章 2024-12-16

    基于图神经网络的大语言模型检索增强生成框架研究:面向知识图谱推理的优化与扩展

  • 发表了文章 2024-12-15

    Differential Transformer: 通过差分注意力机制提升大语言模型性能

  • 发表了文章 2024-12-14

    使用机器学习技术进行时间序列缺失数据填充:基础方法与入门案例

  • 发表了文章 2024-12-13

    Python量化投资实践:基于蒙特卡洛模拟的投资组合风险建模与分析

  • 发表了文章 2024-12-12

    使用PaliGemma2构建多模态目标检测系统:从架构设计到性能优化的技术实践指南

  • 发表了文章 2024-12-11

    时间序列预测的不确定性区间估计:基于EnbPI的方法与应用研究

  • 发表了文章 2024-12-10

    基于Huffman树的层次化Softmax:面向大规模神经网络的高效概率计算方法

  • 发表了文章 2024-12-09

    Beta分布与汤普森采样:智能决策系统概率采样的理论基础

  • 发表了文章 2024-12-08

    从方向导数到梯度:深度学习中的关键数学概念详解

  • 发表了文章 2024-12-07

    ORCA:基于持续批处理的LLM推理性能优化技术详解

正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息
正在加载, 请稍后...
暂无更多信息