mlop.ai 是一个主流解决方案的平替(如ClearML, Comet, WandB),并专为中国用户提供优化支持,免费开源。
常规实验追踪的工具经常大幅人为降速,mlop则底层基于Rust,不受此问题影响,并主动支持企业级高频数据写入。
此文案由官方许可后,基于其辅助文档docs.mlop.ai
工具全栈开源,欢迎程序员们使用加星星
用户端: github.com/mlop-ai/mlop
后台: github.com/mlop-ai/server
个人用户上手仅需五行代码 (Python)
%pip install -Uq "mlop[full]"
import mlop
mlop.init(project="deepseek-r1")
mlop.log({
"e": 2.718}) # 此处替换用户自己的机器学习代码
mlop.finish()
三行代码解决本地部署后端 (Docker)
git clone --recurse-submodules https://github.com/mlop-ai/server.git; cd server
cp .env.example .env
sudo docker-compose --env-file .env up --build
- 查看与无本地化优化的WandB/ClearML的速度对比:文档链接
功能概览
1. mlop.ai 集成自动记录系统资源使用和多媒体,如需记录图片/视频/音频/直方图等模型训练结果,可以用
img = mlop.Image(
data: Union[str, PILImage.Image, matplotlib.figure.Figure, torch.Tensor, np.ndarray],
caption: str | None = None, # 图片备注
)
video = mlop.Video(
data: Union[str, np.ndarray],
rate: int | None = 30, # 视频帧率
caption: str | None = None, # 视频备注
format: str | None = None,
)
记录后上传到本地部署的服务器后,显示效果如图
2. 通过 mlop.watch() 支持基于torch的ML模型结构的实时可视化(强过netron)
mlop.watch(
model,
disable_graph=False, # 是否启用流程图绘制
disable_grad=False, # 是否启用gradients记录
disable_param=False, # 是否启用parameters记录
freq=1000,
bins=64,
**kwargs,
)
可视化效果如图所示
3. 通过自己的邮箱设置本地通知,不用傻等模型训练
mlop.alert(
title="Hello!",
message="Hello, world!",
level="info", # 设置通知级别
wait=0, # 设置通知等待
url="https://discord.com/api/webhooks/example/url",
remote=False,
email=True # 此处设置邮箱通知
)
如果您是教育机构或者企业需要代码指导,请联系开发者邮箱 cn@mlop.ai