Deephub_社区达人页

个人头像照片
Deephub
已加入开发者社区718

勋章 更多

个人头像照片
专家博主
专家博主
个人头像照片
星级博主
星级博主
个人头像照片
技术博主
技术博主
个人头像照片
一代宗师
一代宗师

成就

已发布1193篇文章
178条评论
已回答0个问题
0条评论
已发布0个视频
github地址

我关注的人 更多

技术能力

兴趣领域
擅长领域
技术认证

暂时未有相关云产品技术能力~

公众号 Deephub-IMBA

暂无精选文章
暂无更多信息

2024年05月

  • 02.25 20:16:45
    发表了文章 2024-02-25 20:16:45

    PHATGOOSE:使用LoRA Experts创建低成本混合专家模型实现零样本泛化

    这篇2月的新论文介绍了Post-Hoc Adaptive Tokenwise Gating Over an Ocean of Specialized Experts (PHATGOOSE),这是一种通过利用一组专门的PEFT模块(如LoRA)实现零样本泛化的新方法
  • 02.24 10:25:39
    发表了文章 2024-02-24 10:25:39

    20个改善编码的Python异常处理技巧,让你的代码更高效

    异常处理是写好代码的一个重要的方面,虽然许多开发人员都熟悉基本的try-except块,但是有很多更深入的知识可以使异常处理更高效、更可读和更python化。所以本文将介绍关于Python异常的20个可以显著改善编码的Python异常处理技巧,这些技巧可以让你熟练的掌握Python的异常处理。
  • 02.23 10:51:48
    发表了文章 2024-02-23 10:51:48

    Mamba详细介绍和RNN、Transformer的架构可视化对比

    Transformer体系结构已经成为大型语言模型(llm)成功的主要组成部分。为了进一步改进llm,人们正在研发可能优于Transformer体系结构的新体系结构。其中一种方法是Mamba(一种状态空间模型)。
  • 02.22 11:21:24
    发表了文章 2024-02-22 11:21:24

    LiRank: LinkedIn在2月新发布的大规模在线排名模型

    LiRank是LinkedIn在2月份刚刚发布的论文,它结合了最先进的建模架构和优化技术,包括残差DCN、密集门控模块和Transformers。它引入了新的校准方法,并使用基于深度学习的探索/利用策略来优化模型,并且通过压缩技术,如量化和词表压缩,实现了高效部署。
  • 02.21 12:25:20
    发表了文章 2024-02-21 12:25:20

    深度学习在时间序列预测的总结和未来方向分析

    2023年是大语言模型和稳定扩散的一年,时间序列领域虽然没有那么大的成就,但是却有缓慢而稳定的进展。Neurips、ICML和AAAI等会议都有transformer 结构(BasisFormer、Crossformer、Inverted transformer和Patch transformer)的改进,还出现了将数值时间序列数据与文本和图像合成的新体系结构(CrossVIVIT), 也出现了直接应用于时间序列的可能性的LLM,以及新形式的时间序列正则化/规范化技术(san)。
  • 02.20 12:05:39
    发表了文章 2024-02-20 12:05:39

    视频生成领域的发展概述:从多级扩散到LLM

    2023年是语言模型(llm)和图像生成技术激增的一年,但是视频生成受到的关注相对较少。今年刚到2月份,OpenAI就发布了一个惊人的视频生成模型Sora。虽然它的架构没有披露,但是通过总结现有的视频生成领域可能能对Sora的构架有所理解。
  • 02.19 11:32:45
    发表了文章 2024-02-19 11:32:45

    4张图片就可以微调扩散模型

    稳定扩散模型因其从文本描述生成高质量、多样化图像的能力而获得了极大的关注。但是这些预训练模型在生成高度定制或个性化主题的图像时可能会有所不足。
  • 02.18 10:45:44
    发表了文章 2024-02-18 10:45:44

    自然语言生成任务中的5种采样方法介绍和Pytorch代码实现

    在自然语言生成任务(NLG)中,采样方法是指从生成模型中获取文本输出的一种技术。本文将介绍常用的5中方法并用Pytorch进行实现。
  • 02.17 10:12:49
    发表了文章 2024-02-17 10:12:49

    机器学习中7种常用的线性降维技术总结

    上篇文章中我们主要总结了非线性的降维技术,本文我们来总结一下常见的线性降维技术。
  • 02.16 13:16:56
    发表了文章 2024-02-16 13:16:56

    机器学习中的10种非线性降维技术对比总结

    降维意味着我们在不丢失太多信息的情况下减少数据集中的特征数量,降维算法属于无监督学习的范畴,用未标记的数据训练算法。
  • 02.15 09:44:55
    发表了文章 2024-02-15 09:44:55

    Lag-Llama:第一个时间序列预测的开源基础模型介绍和性能测试

    2023年10月,我们发表了一篇关于TimeGPT的文章,TimeGPT是时间序列预测的第一个基础模型之一,具有零样本推理、异常检测和共形预测能力。 虽然TimeGPT是一个专有模型,只能通过API访问。但是它还是引发了对时间序列基础模型的更多研究。到了2024年2月,已经有了一个用于时间序列预测的开源基础模型:laglllama。
  • 02.14 10:13:05
    发表了文章 2024-02-14 10:13:05

    使用MICE进行缺失值的填充处理

    在我们进行机器学习时,处理缺失数据是非常重要的,因为缺失数据可能会导致分析结果不准确,严重时甚至可能产生偏差。处理缺失数据是保证数据分析准确性和可靠性的重要步骤,有助于确保分析结果的可信度和可解释性。
  • 02.13 11:57:38
    发表了文章 2024-02-13 11:57:38

    使用LORA微调RoBERTa

    模型微调是指在一个已经训练好的模型的基础上,针对特定任务或者特定数据集进行再次训练以提高性能的过程。微调可以在使其适应特定任务时产生显着的结果。
  • 02.12 10:52:51
    发表了文章 2024-02-12 10:52:51

    使用PyOD进行异常值检测

    异常值检测各个领域的关键任务之一。PyOD是Python Outlier Detection的缩写,可以简化多变量数据集中识别异常值的过程。在本文中,我们将介绍PyOD包,并通过实际给出详细的代码示例
  • 02.11 10:21:45
    发表了文章 2024-02-11 10:21:45

    使用UMAP降维可视化RAG嵌入

    大型语言模型(LLMs)如 GPT-4 已经展示了出色的文本理解和生成能力。但它们在处理领域特定信息方面面临挑战,比如当查询超出训练数据范围时,它们会产生错误的答案。LLMs 的推理过程也缺乏透明度,使用户难以理解达成结论的方式。
  • 02.10 14:05:43
    发表了文章 2024-02-10 14:05:43

    2024年应该关注的十大人工智能创新

    人工智能(AI)不再只是一个流行词,它已成为我们日常生活的重要组成部分。人工智能在去年深入地融入我们社会的各个方面,改变我们的生活方式、工作方式以及与技术互动的方式。
  • 02.09 10:57:09
    发表了文章 2024-02-09 10:57:09

    从模型到前端,你应该知道的LLM生态系统指南

    LLM在在2023年发展的风生水起,一个围绕LLM的庞大生态系统正在形成,本文通过介绍这个生态系统的核心组成部分,来详细整理LLM的发展。
  • 02.08 10:43:14
    发表了文章 2024-02-08 10:43:14

    Python进行AI声音克隆的端到端指南

    人工智能语音克隆是一种捕捉声音的独特特征,然后准确性复制它的技术。这种技术不仅可以让我们复制现有的声音,还可以创造全新的声音。它是一种彻底改变内容创作的工具,从个性化歌曲到自定义画外音,开辟了一个超越语言和文化障碍的创意世界。
  • 02.07 10:29:21
    发表了文章 2024-02-07 10:29:21

    MoE-LLaVA:具有高效缩放和多模态专业知识的大型视觉语言模型

    视觉和语言模型的交叉导致了人工智能的变革性进步,使应用程序能够以类似于人类感知的方式理解和解释世界。大型视觉语言模型(LVLMs)在图像识别、视觉问题回答和多模态交互方面提供了无与伦比的能力。
  • 02.06 10:17:46
    发表了文章 2024-02-06 10:17:46

    NLP中的嵌入和距离度量

    本文将深入研究嵌入、矢量数据库和各种距离度量的概念,并提供示例和演示代码。
  • 02.05 10:44:41
    发表了文章 2024-02-05 10:44:41

    PyTorch的10个基本张量操作

    PyTorch是一个基于python的科学计算包。它的灵活性允许轻松集成新的数据类型和算法,并且框架也是高效和可扩展的,下面我们将介绍一些Pytorch的基本张量操作。
  • 02.03 10:30:37
    发表了文章 2024-02-03 10:30:37

    12个RAG常见痛点及解决方案

    这里使用“痛点”而不是“失败点”,主要是因为我们总结的问题都有相应的建议解决方案。
  • 02.02 10:48:25
    发表了文章 2024-02-02 10:48:25

    10个Pandas的高级技巧

    Pandas是我们最常用的数据处理Python库之一。尽管您可能已经与它共事多年,但可能还有许多您尚未探索的实用方法。我将向您展示一些可能未曾听说但在数据整理方面非常实用的方法。
  • 02.01 09:59:09
    发表了文章 2024-02-01 09:59:09

    UniMS-RAG:用于个性化对话的统一多源RAG框架

    RAG领域已经取得了相当大的发展,这篇论文的是如何分解RAG过程,加入多文件检索、记忆和个人信息等定制化的元素。
  • 01.31 10:36:59
    发表了文章 2024-01-31 10:36:59

    Langchain中改进RAG能力的3种常用的扩展查询方法

    有多种方法可以提高检索增强生成(RAG)的能力,其中一种方法称为查询扩展。我们这里主要介绍在Langchain中常用的3种方法
  • 01.30 09:50:14
    发表了文章 2024-01-30 09:50:14

    论文推荐:大语言模型在金融领域的应用调查

    这篇论文总结了现有LLM在金融领域的应用现状,推荐和金融相关或者有兴趣的朋友都看看
  • 01.29 10:12:16
    发表了文章 2024-01-29 10:12:16

    使用核模型高斯过程(KMGPs)进行数据建模

    核模型高斯过程(KMGPs)作为一种复杂的工具可以处理各种数据集的复杂性。他通过核函数来扩展高斯过程的传统概念。本文将深入探讨kmgp的理论基础、实际应用以及它们所面临的挑战。
  • 01.28 10:40:15
    发表了文章 2024-01-28 10:40:15

    2024年1月的论文推荐

    又到月底了,在月初推荐论文的基础上又整理了10篇推荐阅读的论文
  • 01.27 10:50:04
    发表了文章 2024-01-27 10:50:04

    使用Transformer 模型进行时间序列预测的Pytorch代码示例

    时间序列预测是一个经久不衰的主题,受自然语言处理领域的成功启发,transformer模型也在时间序列预测有了很大的发展。本文可以作为学习使用Transformer 模型的时间序列预测的一个起点。
  • 01.26 09:46:11
    发表了文章 2024-01-26 09:46:11

    使用mergekit 合并大型语言模型

    模型合并是近年来兴起的一种新技术。它允许将多个模型合并成一个模型。这样做不仅可以保持质量,还可以获得额外的好处。
  • 01.25 10:44:01
    发表了文章 2024-01-25 10:44:01

    Mistral AI vs. Meta:顶级开源LLM比较

    为了提高性能,大型语言模型(llm)通常会通过增加模型大小的方法来实现这个目标,但是模型大小的增加也增加了计算成本和推理延迟,增加了在实际场景中部署和使用llm的障碍。
  • 01.24 10:26:31
    发表了文章 2024-01-24 10:26:31

    通过4个任务比较LangChain和LlamaIndex

    我们在本地使用大模型的时候,尤其是构建RAG应用的时候,一般会有2个成熟的框架可以使用
  • 01.23 09:39:54
    发表了文章 2024-01-23 09:39:54

    Vision Mamba:将Mamba应用于计算机视觉任务的新模型

    Mamba是LLM的一种新架构,与Transformers等传统模型相比,它能够更有效地处理长序列。就像VIT一样现在已经有人将他应用到了计算机视觉领域,让我们来看看最近的这篇论文“Vision Mamba: Efficient Visual Representation Learning with Bidirectional State Space Models,”
  • 01.22 09:25:26
    发表了文章 2024-01-22 09:25:26

    针对特定领域较小的语言模型是否与较大的模型同样有效?

    经过2023年的发展,大语言模型展示出了非常大的潜力,训练越来越大的模型成为有效性评估的一个关键指标,论文《A Comparative Analysis of Fine-Tuned LLMs and Few-Shot Learning of LLMs for Financial Sentiment Analysis》中,作者全面分析了微调大语言模型(llm)及其在金融情绪分析中的零样本和少样本的能力。
  • 01.21 09:49:34
    发表了文章 2024-01-21 09:49:34

    2024年1月论文推荐

    2024年1月论文推荐
  • 01.20 09:41:46
    发表了文章 2024-01-20 09:41:46

    RAG中的3个高级检索技巧

    RAG系统检索的文档可能并不总是与用户的查询保持一致,这是一个常见的现象。当文档可能缺乏查询的完整答案或者包含冗余信息或包含不相关的细节,或者文档的顺序可能与用户的意图不一致时,就会经常出现这种情况。
  • 01.19 09:56:21
    发表了文章 2024-01-19 09:56:21

    4种通过LLM进行文本知识图谱的构建方法对比介绍

    我们在以前的文章中已经介绍了使用大语言模型将非结构化文本转换为知识图谱。但是对于知识图谱的创建是一个很复杂的过程,比如需要对属性增加限制,创建符合特定主题/模式的图谱,并且有时文档非常大,无法作为单个提示处理,所以在切分后的提示中创建的图谱需要前后一致。
  • 01.18 10:04:17
    发表了文章 2024-01-18 10:04:17

    使用SPIN技术对LLM进行自我博弈微调训练

    2024年是大型语言模型(llm)的快速发展的一年,对于大语言模型的训练一个重要的方法是对齐方法,它包括使用人类样本的监督微调(SFT)和依赖人类偏好的人类反馈强化学习(RLHF)。这些方法在llm中发挥了至关重要的作用,但是对齐方法对人工注释数据有的大量需求。这一挑战使得微调成为一个充满活力的研究领域,研究人员积极致力于开发能够有效利用人类数据的方法。
  • 01.17 10:20:12
    发表了文章 2024-01-17 10:20:12

    Tokenization 指南:字节对编码,WordPiece等方法Python代码详解

    在2022年11月OpenAI的ChatGPT发布之后,大型语言模型(llm)变得非常受欢迎。从那时起,这些语言模型的使用得到了爆炸式的发展,这在一定程度上得益于HuggingFace的Transformer库和PyTorch等库。
  • 01.16 09:46:32
    发表了文章 2024-01-16 09:46:32

    提高代码效率的6个Python内存优化技巧

    当项目变得越来越大时,有效地管理计算资源是一个不可避免的需求。Python与C或c++等低级语言相比,似乎不够节省内存。 但是其实有许多方法可以显著优化Python程序的内存使用,这些方法可能在实际应用中并没有人注意,所以本文将重点介绍Python的内置机制,掌握它们将大大提高Python编程技能。
  • 01.15 09:35:59
    发表了文章 2024-01-15 09:35:59

    RoSA: 一种新的大模型参数高效微调方法

    随着语言模型不断扩展到前所未有的规模,对下游任务的所有参数进行微调变得非常昂贵,PEFT方法已成为自然语言处理领域的研究热点。PEFT方法将微调限制在一小部分参数中,以很小的计算成本实现自然语言理解任务的最先进性能。
  • 01.14 09:53:46
    发表了文章 2024-01-14 09:53:46

    基于协方差矩阵自适应演化策略(CMA-ES)的高效特征选择

    特征选择是指从原始特征集中选择一部分特征,以提高模型性能、减少计算开销或改善模型的解释性。特征选择的目标是找到对目标变量预测最具信息量的特征,同时减少不必要的特征。这有助于防止过拟合、提高模型的泛化能力,并且可以减少训练和推理的计算成本。
  • 01.13 09:43:25
    发表了文章 2024-01-13 09:43:25

    使用Mixtral-offloading在消费级硬件上运行Mixtral-8x7B

    Mixtral-8x7B是最好的开放大型语言模型(LLM)之一,但它是一个具有46.7B参数的庞大模型。即使量化为4位,该模型也无法在消费级GPU上完全加载(例如,24 GB VRAM是不够的)。
  • 01.12 09:37:07
    发表了文章 2024-01-12 09:37:07

    在Colab上测试Mamba

    我们在前面的文章介绍了研究人员推出了一种挑战Transformer的新架构Mamba
  • 01.11 10:39:17
    发表了文章 2024-01-11 10:39:17

    使用CLIP和LLM构建多模态RAG系统

    在本文中我们将探讨使用开源大型语言多模态模型(Large Language Multi-Modal)构建检索增强生成(RAG)系统。本文的重点是在不依赖LangChain或LLlama index的情况下实现这一目标,这样可以避免更多的框架依赖。
  • 01.10 09:54:19
    发表了文章 2024-01-10 09:54:19

    使用PyTorch实现混合专家(MoE)模型

    在本文中,我将使用Pytorch来实现一个MoE模型。在具体代码之前,让我们先简单介绍一下混合专家的体系结构。
  • 01.09 09:56:42
    发表了文章 2024-01-09 09:56:42

    挑战Transformer的新架构Mamba解析以及Pytorch复现

    今天我们来详细研究这篇论文“Mamba:具有选择性状态空间的线性时间序列建模”
  • 01.08 09:39:46
    发表了文章 2024-01-08 09:39:46

    使用知识图谱提高RAG的能力,减少大模型幻觉

    在使用大型语言模型(llm)时,幻觉是一个常见的问题。LLM生成流畅连贯的文本,但往往生成不准确或不一致的信息。防止LLM产生幻觉的方法之一是使用提供事实信息的外部知识来源,如数据库或知识图谱。
  • 01.07 10:37:46
    发表了文章 2024-01-07 10:37:46

    使用PyTorch实现去噪扩散模型

    在深入研究去噪扩散概率模型(DDPM)如何工作的细节之前,让我们先看看生成式人工智能的一些发展,也就是DDPM的一些基础研究。
  • 01.06 09:40:27
    发表了文章 2024-01-06 09:40:27

    Python 中的==操作符 和 is关键字

    Python是一种功能强大的通用编程语言,提供了各种比较值和对象的方法。其中包括==操作符和is关键字,它们的用途不同,但由于它们有时可以达到相同的目的,所以经常会被混淆。在本文中,我们将深入研究==和is之间的区别,探索它们如何工作以及何时适当地使用它们。
  • 发表了文章 2024-11-24

    IoU已经out了,试试这几个变体:GIoU、DIoU和CIoU介绍与对比分析

  • 发表了文章 2024-11-23

    图神经网络在欺诈检测与蛋白质功能预测中的应用概述

  • 发表了文章 2024-11-22

    优化注意力层提升 Transformer 模型效率:通过改进注意力机制降低机器学习成本

  • 发表了文章 2024-11-21

    LLM2CLIP:使用大语言模型提升CLIP的文本处理,提高长文本理解和跨语言能力

  • 发表了文章 2024-11-20

    解读双编码器和交叉编码器:信息检索中的向量表示与语义匹配

  • 发表了文章 2024-11-19

    使用Pytorch构建视觉语言模型(VLM)

  • 发表了文章 2024-11-18

    使用 PyTorch-BigGraph 构建和部署大规模图嵌入的完整教程

  • 发表了文章 2024-11-17

    25 个值得关注的检索增强生成 (RAG) 模型和框架

  • 发表了文章 2024-11-16

    利用PyTorch的三元组损失Hard Triplet Loss进行嵌入模型微调

  • 发表了文章 2024-11-15

    告别Print,使用IceCream进行高效的Python调试

  • 发表了文章 2024-11-14

    为什么卷积现在不火了:CNN研究热度降温的深层原因分析

  • 发表了文章 2024-11-13

    SMoA: 基于稀疏混合架构的大语言模型协同优化框架

  • 发表了文章 2024-11-12

    TSMamba:基于Mamba架构的高效时间序列预测基础模型

  • 发表了文章 2024-11-11

    基于MCMC的贝叶斯营销组合模型评估方法论: 系统化诊断、校准及选择的理论框架

  • 发表了文章 2024-11-10

    深度学习工程实践:PyTorch Lightning与Ignite框架的技术特性对比分析

  • 发表了文章 2024-11-09

    通过pin_memory 优化 PyTorch 数据加载和传输:工作原理、使用场景与性能分析

  • 发表了文章 2024-11-08

    贝叶斯统计中常见先验分布选择方法总结

  • 发表了文章 2024-11-07

    Tokenformer:基于参数标记化的高效可扩展Transformer架构

  • 发表了文章 2024-11-06

    基于LLM Graph Transformer的知识图谱构建技术研究:LangChain框架下转换机制实践

  • 发表了文章 2024-11-05

    基于Liquid State Machine的时间序列预测:利用储备池计算实现高效建模

正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息
正在加载, 请稍后...
暂无更多信息