官方博客-第33页-阿里云开发者社区

  • 2024-11-07
    1698

    白话文讲解大模型| Attention is all you need

    本文档旨在详细阐述当前主流的大模型技术架构如Transformer架构。我们将从技术概述、架构介绍到具体模型实现等多个角度进行讲解。通过本文档,我们期望为读者提供一个全面的理解,帮助大家掌握大模型的工作原理,增强与客户沟通的技术基础。本文档适合对大模型感兴趣的人员阅读。

    1,698
  • 2024-11-14
    1059

    Nacos 配置中心变更利器:自定义标签灰度

    本文是对 MSE Nacos 应用自定义标签灰度的功能介绍,欢迎大家升级版本进行试用。

    1,059
  • 2024-12-12
    609

    如何找出Java进程占用CPU高的元凶

    本文记录了一次Java进程CPU占用率过高的问题和排查思路。

    609
  • 2024-12-27
    450

    【硬核】C++11并发:内存模型和原子类型

    本文从C++11并发编程中的关键概念——内存模型与原子类型入手,结合详尽的代码示例,抽丝剥茧地介绍了如何实现无锁化并发的性能优化。

    450
  • 2025-02-25
    1151

    解锁 DeepSeek 安全接入、稳定运行新路径

    聚焦于企业部署 DeepSeek 的应用需求,本文介绍了模型权重下载及多种部署方案,还阐述了大模型应用落地的常见需求,帮助用户逐步提升模型应用效果。

  • 2024-05-15
    61856

    适应多样化需求:WASM 插件在全链路灰度发布中的应用

    MSE(微服务引擎)在微服务全链路灰度场景下提供了一套成熟的功能,支持内容规则和百分比规则的灰度路由策略。

    61,856
  • 2024-05-15
    797

    Mistral 7B v0.2 基础模型开源,魔搭社区微调教程和评测来啦!

    Mistral AI在3月24日突然发布并开源了 Mistral 7B v0.2模型,有如下几个特点

  • 2024-05-15
    530

    元象开源首个MoE大模型:4.2B激活参数,效果堪比13B模型,魔搭社区最佳实践来了

    近日,元象发布其首个Moe大模型 XVERSE-MoE-A4.2B, 采用混合专家模型架构 (Mixture of Experts),激活参数4.2B,效果即可媲美13B模型。该模型全开源,无条件免费商用,支持中小企业、研究者和开发者可在元象高性能“全家桶”中按需选用,推动低成本部署。

  • 2024-05-15
    1238

    快来与 CodeQwen1.5 结对编程

    今天,来自 Qwen1.5 开源家族的新成员,代码专家模型 CodeQwen1.5开源!CodeQwen1.5 基于 Qwen 语言模型初始化,拥有 7B 参数的模型,其拥有 GQA 架构,经过了 ~3T tokens 代码相关的数据进行预训练,共计支持 92 种编程语言、且最长支持 64K 的上下文输入。效果方面,CodeQwen1.5 展现出了优秀的代码生成、长序列建模、代码修改、SQL 能力等,该模型可以大大提高开发人员的工作效率,并在不同的技术环境中简化软件开发工作流程。

    1,238
  • 1
    ...
    32
    33
    34
    ...
    72
    到第