AI不死,训练不止?

简介:

看到一段评论:

当前人工智能算法存在着一个Bug:一旦模型和算法被训练完成,AI所做的事情就被固定下来,无法进一步被训练去完成更加复杂的工作或是其他的工作,如果重新开始训练,则意味着必然会覆盖之前的训练成果。因此,AI从来不会真正记住任何东西,它只会“重生”而不是“进化”,对AI模型和算法的优化都需要重头开始训练,这被称为“灾难性遗忘”。

相关事件新闻

谷歌DeepMind团队在强人工智能领域取得进展

Irina Higgins团队迈出了重要的一步,从此AI模型和算法可以不断更新,在不丢失已有功能和认知的情况下,从数据中学习新知识。

image

  【新闻摘要】 在9月初于捷克首都布拉格举办的人类人工智能峰会上,谷歌DeepMind团队高级研究员Irina Higgins宣布,她所在的团队已经在强人工智能技术发展的重要障碍——“人工智能的灾难性遗忘” 问题上取得进展。该研究团队设计的AI模拟人具备从所处环境中抽象出关键物体和事件的能力,即通过在虚拟环境中的经历,可以“想象”类似的事情在其他环境中会怎样发生,与传统人工智能相比具有一定的创造性思考的能力。Irina Higgins团队所取得的这一进展,有望改善困扰人工智能领域的“灾难性遗忘”问题,即人工智能系统在每次开始新的学习之前,都会忘记先前学到的所有知识,这是实现强人工智能的最大障碍。

就像人的成长过程,学习、实践、失败、纠错、重试;AI也应该是一个不断的追加样本、调整参数、修改算法的过程,只要这个AI在运行,它就应该处于训练模式中,除非人们希望它保持最初的样子,永不改变。

评论时间:

1、你在学习或从事AI相关工作吗?具体是哪方面的?(没有?你为什么还没开始学习AI?)

2、AI不死,训练不止?你怎么看?

3、如果有,说出你对AI的困惑与烦恼。

参与话题 有可能获得以下奖品:



1240

目录
打赏
0
0
0
0
1392
分享
相关文章
【科普向】我们所说的AI模型训练到底在训练什么?
人工智能(AI)模型训练类似于厨师通过反复实践来掌握烹饪技巧。它通过大量数据输入,自动优化内部参数(如神经网络中的权重和偏置),以最小化预测误差或损失函数,使模型在面对新数据时更加准确。训练过程包括前向传播、计算损失、反向传播和更新权重等步骤,最终生成权重文件保存模型参数,用于后续的应用和部署。理解生物神经网络的工作原理为人工神经网络的设计提供了灵感,后者广泛应用于图像识别、自然语言处理等领域。
Oumi:开源的AI模型一站式开发平台,涵盖训练、评估和部署模型的综合性平台
Oumi 是一个完全开源的 AI 平台,支持从 1000 万到 4050 亿参数的模型训练,涵盖文本和多模态模型,提供零样板代码开发体验。
216 43
Oumi:开源的AI模型一站式开发平台,涵盖训练、评估和部署模型的综合性平台
MILS:无需对LLM进行额外训练就能处理多模态任务,Meta AI提出零样本生成多模态描述方法
MILS 是 Meta AI 推出的零样本生成高质量多模态描述方法,支持图像、视频和音频的描述生成,无需额外训练。
112 34
MILS:无需对LLM进行额外训练就能处理多模态任务,Meta AI提出零样本生成多模态描述方法
Light-A-Video:好莱坞级打光自由!上海AI Lab开源视频打光AI,无需训练秒改画面氛围,3步让阴天变夕阳
Light-A-Video 是由上海AI Lab联合交大等高校推出的无需训练的视频重照明方法,支持高质量、时间一致的光照控制,零样本生成和前景背景分离处理。
29 9
TPO:告别微调!这个AI框架让大模型实时进化:无需训练直接优化,输入问题越用越聪明,输出质量暴涨50%
TPO(Test-Time Prompt Optimization)框架,通过奖励模型和迭代反馈优化大语言模型输出,无需训练即可显著提升性能,支持动态对齐人类偏好,降低优化成本。
52 8
TPO:告别微调!这个AI框架让大模型实时进化:无需训练直接优化,输入问题越用越聪明,输出质量暴涨50%
AI计算机视觉笔记二十六:YOLOV8自训练关键点检测
本文档详细记录了使用YOLOv8训练关键点检测模型的过程。首先通过清华源安装YOLOv8,并验证安装。接着通过示例权重文件与测试图片`bus.jpg`演示预测流程。为准备训练数据,文档介绍了如何使用`labelme`标注工具进行关键点标注,并提供了一个Python脚本`labelme2yolo.py`将标注结果从JSON格式转换为YOLO所需的TXT格式。随后,通过Jupyter Notebook可视化标注结果确保准确性。最后,文档展示了如何组织数据集目录结构,并提供了训练与测试代码示例,包括配置文件`smoke.yaml`及训练脚本`train.py`,帮助读者完成自定义模型的训练与评估。
如何将Together AI上基于Qwen2-7B训练的模型部署到ModelScope平台
如何将Together AI上基于Qwen2-7B训练的模型部署到ModelScope平台
85 10
【AI系统】感知量化训练 QAT
本文介绍感知量化训练(QAT)流程,旨在减少神经网络从FP32量化至INT8时的精度损失。通过在模型中插入伪量化节点(FakeQuant)模拟量化误差,并在训练中最小化这些误差,使模型适应量化环境。文章还探讨了伪量化节点的作用、正向与反向传播处理、TensorRT中的QAT模型高效推理,以及QAT与PTQ的对比,提供了实践技巧,如从良好校准的PTQ模型开始、采用余弦退火学习率计划等。
123 2
【AI系统】感知量化训练 QAT
【AI系统】训练后量化与部署
本文详细介绍了训练后量化技术,涵盖动态和静态量化方法,旨在将模型权重和激活从浮点数转换为整数,以优化模型大小和推理速度。通过KL散度等校准方法和量化粒度控制,文章探讨了如何平衡模型精度与性能,同时提供了端侧量化推理部署的具体实现步骤和技术技巧。
124 1
【AI系统】训练后量化与部署
SPAR:智谱 AI 推出自我博弈训练框架,基于生成者和完善者两个角色的互动,提升了执行准确度和自我完善能力
SPAR 是智谱团队推出的自我博弈训练框架,旨在提升大型语言模型在指令遵循方面的能力,通过生成者和完善者的互动以及树搜索技术优化模型响应。
79 0
SPAR:智谱 AI 推出自我博弈训练框架,基于生成者和完善者两个角色的互动,提升了执行准确度和自我完善能力

热门文章

最新文章