预测一下,GPT-5 会在什么时候发布,又会有哪些更新?

简介: GPT-5预告11月发布,或与ChatGPT两周年同庆。谷歌Gemini与GPT-4 turbo竞争激烈。GPT-5或分阶段推出,训练加安全测试耗时9个月。GPT-4拥有1.8万亿参数,120层结构,训练成本6300万,专为多模态设计,加强推理性能。GPT-5预期参数增10倍,强化多模态及推理能力,支持图像、音频和视频处理。[个人主页的个人介绍内容](https://developer.aliyun.com/profile/oesouji3mdrog/highScore_1?spm=a2c6h.13262185.profile.6.56644d0depOAIS)
  • 发布预期:GPT-5预计将于11月发布,可能与ChatGPT发布两周年同期。
  • 竞争态势:谷歌的Gemini与GPT-4 turbo已展开竞争。
  • 逐步发布:GPT-5可能通过模型训练过程中的中间检查点逐步发布。
  • 训练与安全测试:实际训练可能需3个月,加上6个月的安全测试。
  • GPT-4技术规格
    • 模型规模:约1.8万亿参数,120层。
    • 混合专家系统(MoE):包含16个专家,每个专家111B MLP参数。
    • 数据集:基于13T tokens的文本和代码数据训练。
    • 数据集混合:CommonCrawl和RefinedWeb,推测包括社交媒体和教科书数据。
    • 训练成本:约6300万美元。
    • 推理成本:比175B参数的Davinci模型高3倍。
    • 推理架构:在128个GPU集群上运行,使用8路张量并行和16路流水线并行。
    • 视觉多模态:加入视觉编码器,支持图像和视频编码。
  • GPT-5预期特性
    • 参数规模:可能是GPT-4的10倍。
    • 推理能力:增强推理步骤的列举和检查,改善代码生成和数学运算。
    • 数据使用:更多元的训练数据,包括文本、图像、音频和视频等。
    • 多模态和推理:预计将加强多模态能力和逻辑推理性能,提升LLM的代理性。

image.png
image.png
image.png

具体GPT5教程参考:个人主页的个人介绍内容

目录
相关文章
|
8天前
|
人工智能 自然语言处理 测试技术
权重、代码、数据集全开源,性能超越Mistral-7B,苹果小模型来了
【8月更文挑战第12天】DCLM是由多家机构联合推出的全新测试平台,旨在通过优化数据集增强语言模型性能。其核心贡献包括一个含240万亿token的标准化语料库及有效的预训练方案。DCLM-BASELINE数据集成功训练出7B参数模型,在MMLU上5-shot准确率达64%,超越Mistral-7B,且计算成本降低40%。尽管存在局限,但该项目已全开源,为社区提供宝贵资源,推动语言模型发展。[论文链接](https://arxiv.org/pdf/2406.11794)
124 60
|
3月前
|
机器学习/深度学习 自然语言处理
谷歌发布时序预测基础模型TimesFM
【2月更文挑战第27天】谷歌发布时序预测基础模型TimesFM
546 3
谷歌发布时序预测基础模型TimesFM
|
3月前
|
人工智能 编解码 自然语言处理
OpenAI 全新发布文生视频模型 Sora,支持 60s 超长长度,有哪些突破?将带来哪些影响?
OpenAI 全新发布文生视频模型 Sora,支持 60s 超长长度,有哪些突破?将带来哪些影响?
135 1
|
1月前
|
测试技术
谷歌DeepMind全新ToT基准:全面评估LLM时间推理能力
【7月更文挑战第10天】DeepMind的ToT基准测试了大型语言模型的时间推理能力,分为ToT-Semantic(合成数据,评估时间逻辑理解)和ToT-Arithmetic(真实数据,检查时间计算)。研究使用Claude-3-Sonnet、GPT-4和Gemini 1.5 Pro进行评估,发现模型在时间逻辑理解上表现各异,而时间计算上均较强。 Gemini 1.5 Pro在复杂问题上表现出色,而GPT-4在数学相关问题上较弱。[[1](https://arxiv.org/pdf/2406.09170)]
26 1
|
1月前
|
人工智能 自然语言处理 计算机视觉
推荐收藏!2024年新版GPT详细论文润色指南【更新至2024年4月30日】
推荐收藏!2024年新版GPT详细论文润色指南【更新至2024年4月30日】
65 0
|
2月前
|
机器学习/深度学习 人工智能
可解释性研究新突破:OpenAI成功训练1600万个特征的自动编码器
【6月更文挑战第13天】OpenAI团队在可解释性研究上取得进展,训练出拥有1600万特征的自动编码器来解析GPT-4。此模型旨在揭示语言模型的工作原理,提高AI透明度。自动编码器从低维度特征空间重建输入数据,研究通过稀疏特征增强可解释性。虽然规模扩大带来解释性提升,但计算资源需求大,且评估指标的全面性仍受质疑。[论文链接](https://cdn.openai.com/papers/sparse-autoencoders.pdf)
43 1
|
3月前
|
人工智能 PyTorch iOS开发
苹果AppleMacOs最新Sonoma系统本地训练和推理GPT-SoVITS模型实践
GPT-SoVITS是少有的可以在MacOs系统下训练和推理的TTS项目,虽然在效率上没有办法和N卡设备相提并论,但终归是开发者在MacOs系统构建基于M系列芯片AI生态的第一步。
苹果AppleMacOs最新Sonoma系统本地训练和推理GPT-SoVITS模型实践
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
OpenAI 全新发布文生视频模型 Sora,功能有多强大?将带来哪些影响?
OpenAI 全新发布文生视频模型 Sora,功能有多强大?将带来哪些影响?
|
9月前
|
人工智能 算法 搜索推荐
LoRAShear:微软在LLM修剪和知识恢复方面的最新研究
LoRAShear是微软为优化语言模型模型(llm)和保存知识而开发的一种新方法。它可以进行结构性修剪,减少计算需求并提高效率。
166 0
|
人工智能 自然语言处理 数据安全/隐私保护
不到1000步微调,将LLaMA上下文扩展到32K,田渊栋团队最新研究
不到1000步微调,将LLaMA上下文扩展到32K,田渊栋团队最新研究
255 1