|
4月前
|
SQL 人工智能 自然语言处理
|

2024年6月118篇代码大模型论文最全整理

基座模型与训练数据、代码微调、测试基准、代码Agent、低资源语言处理、AI代码安全与分析、人机交互、软件工程下游任务应用主题代码大模型论文分享,干货满满~

658 2
来自: 自然语言处理  版块
|
6月前
|
数据可视化 物联网 关系型数据库
|

幻方开源第二代MoE模型 DeepSeek-V2,魔搭社区推理、微调最佳实践教程

5月6日,幻方继1月份推出首个国产MoE模型,历时4个月,带来第二代MoE模型DeepSeek-V2,并开源了技术报告和模型权重,魔搭社区可下载体验。

760 9
|
6月前
|
自然语言处理 物联网 API
|

检索增强生成(RAG)实践:基于LlamaIndex和Qwen1.5搭建智能问答系统

检索增强生成(RAG)实践:基于LlamaIndex和Qwen1.5搭建智能问答系统

1044 6
来自: 自然语言处理  版块
|
6月前
|
自然语言处理 API 开发工具
|

基于LangChain-Chatchat实现的本地知识库的问答应用-快速上手(检索增强生成(RAG)大模型)

基于LangChain-Chatchat实现的本地知识库的问答应用-快速上手(检索增强生成(RAG)大模型)

857 0
来自: 自然语言处理  版块
|
6月前
|
机器学习/深度学习 人工智能 算法
|

AIGC革新商业模式与用户体验

【1月更文挑战第19天】AIGC革新商业模式与用户体验

152 1
|
6月前
|
测试技术 API 数据库
|

【LangChain系列】第二篇:文档拆分简介及实践

【5月更文挑战第15天】 本文介绍了LangChain中文档拆分的重要性及工作原理。文档拆分有助于保持语义内容的完整性,对于依赖上下文的任务尤其关键。LangChain提供了多种拆分器,如CharacterTextSplitter、RecursiveCharacterTextSplitter和TokenTextSplitter,分别适用于不同场景。MarkdownHeaderTextSplitter则能根据Markdown标题结构进行拆分,保留文档结构。通过实例展示了如何使用这些拆分器,强调了选择合适拆分器对提升下游任务性能和准确性的影响。

566 0
|
6月前
|
机器学习/深度学习 算法 物联网
|

LISA微调技术解析:比LoRA更低的显存更快的速度

LISA是Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning的简写,由UIUC联合LMFlow团队于近期提出的一项LLM微调技术,可实现把全参训练的显存使用降低到之前的三分之一左右,而使用的技术方法却是非常简单。

426 10

社区供稿 | XTuner发布LLaVA-Llama-3-8B,支持单卡推理,评测和微调

日前,XTuner 团队基于 meta 最新发布的 Llama-3-8B-Instruct 模型训练并发布了最新版多模态大模型 LLaVA-Llama-3-8B, 在多个评测数据集上取得显著提升。

569 1
|
6月前
|
机器学习/深度学习 人工智能 NoSQL
|

【AIGC】深入浅出理解检索增强技术(RAG)

【5月更文挑战第10天】本文介绍了检索增强生成(RAG)技术,这是一种将AI模型与内部数据结合,提升处理和理解能力的方法。通过实时从大型文档库检索信息,扩展预训练语言模型的知识。文章通过示例说明了当模型需要回答未公开来源的内容时,RAG如何通过添加上下文信息来增强模型的回答能力。讨论了实际应用中令牌限制和文本分块的问题,以及使用文本嵌入技术解决相关性匹配的挑战。最后,概述了实现RAG的步骤,并预告后续将分享构建检索增强服务的详情。

426 3
|
6月前
|
人工智能
|

OneLLM,将所有模态和LLM Align的统一框架

OneLLM使用通用编码器和统一的投影模块与LLM对齐多模式输入,它还利用modality tokens 实现了在模态之间的切换。

297 1
|
10月前
|
算法框架/工具 PyTorch 并行计算
|

部署通义72B遇到的问题

351 1
|
4月前
|
机器学习/深度学习 人工智能 文字识别
|

一种基于YOLOv8改进的高精度红外小目标检测算法 (原创自研)

【7月更文挑战第2天】 💡💡💡创新点: 1)SPD-Conv特别是在处理低分辨率图像和小物体等更困难的任务时优势明显; 2)引入Wasserstein Distance Loss提升小目标检测能力; 3)YOLOv8中的Conv用cvpr2024中的DynamicConv代替;

397 4
来自: 计算机视觉  版块
|
6月前
|
Linux API 开发者
|

元象大模型开源30款量化版本 加速低成本部署丨附教程

元象大模型一次性发布30款量化版本,全开源,无条件免费商用。

564 1
|
6月前
|
人工智能 自然语言处理 API
|

DashVector&千问7B模型,打造极简RAG 之 基于专属知识的问答服务实践

参考官方教程和代码,以一个0基础学习者的角色,用DashVector&千问7B模型,打造极简RAG-基于专属知识的问答服务实践,也带入了自己的一些理解。

1041 0
来自: 自然语言处理  版块
|
6月前
|
编解码 JSON 数据可视化
|

DeepSeek VL系列开源,魔搭社区模型微调最佳实践教程来啦!

3月11日,DeepSeek-AI开源了全新多模态大模型DeepSeek-VL系列,包含1.3b、7b两种不同规模的4个版本的模型。

1107 3
|
6月前
|
数据可视化 物联网 Swift
|

谷歌发布开源LLM Gemma,魔搭社区评测+最佳实践教程来啦!

Gemma是由Google推出的一系列轻量级、先进的开源模型,他们是基于 Google Gemini 模型的研究和技术而构建。

2333 6
|
6月前
|
机器学习/深度学习 PyTorch 算法框架/工具
|

pytorch中非标量调用backward()的时候为什么要先进行sum操作

在《动手学深度学习》第二版教程中,当y为非标量的时候,调用backward()函数时,为什么先要求和呢(即y.sum().backward()),估计很多读者有点懵,今天小编给大家说说我的理解。

377 3
|
6月前
|
机器学习/深度学习 自然语言处理 数据挖掘
|

【LangChain系列】第七篇:工作流(链)简介及实践

【5月更文挑战第21天】LangChain是一个框架,利用“链”的概念将复杂的任务分解为可管理的部分,便于构建智能应用。数据科学家可以通过组合不同组件来处理和分析非结构化数据。示例中展示了如何使用LLMChain结合OpenAI的GPT-3.5-turbo模型,创建提示模板以生成公司名称和描述。顺序链(SimpleSequentialChain和SequentialChain)则允许按顺序执行多个步骤,处理多个输入和输出

903 1
|
6月前
|
人工智能 测试技术 API
|

【AIGC】LangChain Agent(代理)技术分析与实践

【5月更文挑战第12天】 LangChain代理是利用大语言模型和推理引擎执行一系列操作以完成任务的工具,适用于从简单响应到复杂交互的各种场景。它能整合多种服务,如Google搜索、Wikipedia和LLM。代理通过选择合适的工具按顺序执行任务,不同于链的固定路径。代理的优势在于可以根据上下文动态选择工具和执行策略。适用场景包括网络搜索、嵌入式搜索和API集成。代理由工具组成,每个工具负责单一任务,如Web搜索或数据库查询。工具包则包含预定义的工具集合。创建代理需要定义工具、初始化执行器和设置提示词。LangChain提供了一个从简单到复杂的AI解决方案框架。

667 3
|
6月前
|
数据采集 机器学习/深度学习 存储
|

性能提升30%!中国电信进一步开源12B星辰大模型TeleChat-12B!魔搭社区最佳实践来啦!

中国电信人工智能研究院开源12B参数规模星辰语义大模型TeleChat-12B,相较1月开源7B版本,内容、性能和应用等方面整体效果提升30%,其中,多轮推理、安全问题等领域提升超40%。在C-eval、MMLU、AGIEVAL等国际权威榜单上,排名处于国内同级别参数开源模型的前列,进一步促进大模型开源生态繁荣,助力AI产业加速高质量发展。另据悉,中国电信人工智能研究院将于年内开源千亿级参数大模型。

497 3
|
6月前
|
安全 Java Docker
|

spring cloud使用jar包部署和docker部署的区别

5月更文挑战第2天

625 7

ModelScope模型即服务

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

0
今日
13020
内容
6
活动
2628
关注
你好!
登录掌握更多精彩内容

相关产品

  • 人工智能平台 PAI
  • 文字识别
  • 智能语音交互