3张照片打造专属形象!酷蛙FaceChain解密个人写真开源项目,人人AIGC!
各类AI写真软件由于其精准的个人形象+精美的生成效果引爆了朋友圈传播,证件照满足了用户刚需,古装照等风格照满足了用户“美照”的需求。 达摩院开放视觉团队推出了开源版本,希望结合开源社区开发者的力量,可以让图片应用更有趣、更好玩、也有更多应用场景。
EasyPhoto+PAI-DSW体验世界名画AIGC写真创作
EasyPhoto 是一个Webui UI插件,用于生成AI肖像画。基于StableDiffusion + 人物定制Lora + ControlNet 的方式实现,支持低代码操作、自定义风格,让更多开发者可以灵活地开发自己的风格化的艺术照生成。本教程基于阿里云人工智能PAI产品快速启动EasyPhoto,实现低代码开发个性化AI真人写真。收到
中文CLIP上线啦!8行代码助你快速上手图文检索
图文检索简介模型文件:https://www.modelscope.cn/models/damo/multi-modal_clip-vit-base-patch16_zh/summary
达摩院表格—理解大模型STAR,带你玩转表格问答
表格问答模型介绍数据集:https://modelscope.cn/datasets/yuchen/CoSQL/summary模型文件:https://modelscope.cn/models/damo/nlp_star_conversational-text-to-sql/summary
万物识别:教你一行代码通识万物
通用模型介绍模型文件https://modelscope.cn/models/damo/cv_resnest101_general_recognition/files
大一统模型在这里?快来看OFA如何一个模型搞定各类任务
【参考资料】大一统模型简介数据集:https://modelscope.cn/datasets/modelscope/coco_2014_caption/fileshttps://modelscope.cn/models?name=ofa&page=1%20caption模型文件:https://modelscope.cn/models/damo/ofa_image-caption_coco_large_en/summary
视频生成模型 VideoComposer
VideoComposer是由阿里巴巴研发的可控视频生成框架,其可以让用户更灵活地使用文本条件、空间条件和时序条件来生成视频,比如使用草图、深度图或运动向量等多个组合条件合成目标视频,极大地提高了视频灵活性和可控性。本项目相比于之前的开源项目主要增加了无水印数据训练,可使得生成的视频没有水印。此外,本项目目前只支持文本+深度图+Style方便体验。
达摩院OpenVI开源Talk No.2:Modelscope底层视觉模型与应用
本视频分享了GAN、扩散模型、Transformer模型,适用于图像超分辨率、图像上色、图像补全、图像修复等API能力上。
达摩院OpenVI开源Talk No.3:Modelscope 视觉检测&关键点系列模型与应用介绍
本期视频分为4个部分展开,主要介绍了Modelscope—CV模型概览、视觉检测系列模型与应用、视觉关键点系列模型与应用、未来计划&展望。
pg4ml 机器学习框架系列课程:实现细节、XOR 模型案例(下)
pg4ml 机器学习框架是基于 PostgreSQL v13 实现的、使用 plpgsql 编写的机器学习框架,本次讲解的实验环境基于PolarDB-PG开源数据库。本次分享主要介绍框架的实现细节,并构建XOR两层网络的模型案例,包括计算图和链式求导设计、训练任务的结构与准备、执行、监控、测试验证等内容。
基于实时模型强化学习的无人机自主导航
实时模型强化学习是一种机器学习技术,它可以在无人机的实时环境中学习,并且可以根据环境的变化做出相应的调整。在无人机自主导航中,实时模型强化学习可以用于训练无人机的导航模型,以使其能够在复杂环境中自主导航。具体来说,实时模型强化学习可以通过以下步骤实现:环境建模:建立无人机周围环境的模型,包括地形、障碍物、气象等信息。状态估计:根据环境模型,估计无人机当前的位置和姿态。动作选择:根据估计的位置和姿态,选择最优的动作来控制无人机。动作执行:根据选择的动作,控制无人机执行相应的操作。反馈调整:根据无人机的实际表现,不断调整动作执行的参数,以提高导航的精度和鲁棒性。细化一下:建立状态空间:将无人机所处的环境抽象成一个状态空间,其中每个状态都对应着无人机所处的位置、速度、加速度等信息。定义动作空间:定义无人机可执行的动作集合,例如上升、下降、前进、后退等。设计奖励函数:根据任务需求和目标设定,设计一个奖励函数,用于评估每个状态和执行的动作所获得的收益。该函数应该能够激励无人机朝着预期的目标方向移动,并避免不良行为。进行强化学习训练:利用在线学习等方法,让无人机通过与环境交互来调整策略并优化奖励函数。这样可以使无人机逐渐学会最佳的决策方案,以满足不同的飞行任务。实时执行导航任务:一旦训练完成,无人机就可以在实时环境中根据感知到的状态信息做出决策,并按照最优策略执行自主导航任务。基于实时模型强化学习的无人机自主导航可以通过以下方式实现:实时模型强化学习算法:使用深度学习、神经网络等技术,训练无人机的导航模型,以实现自主导航。无人机传感器数据:无人机需要配备多种传感器,如GPS、IMU、LiDAR等,以获取周围环境的信息。实时数据处理:无人机需要实时获取传感器数据,并对数据进行处理,以实现实时模型强化学习。控制器设计:无人机需要设计相应的控制器,以实现实时模型强化学习的控制。实时模型强化学习控制器:使用实时模型强化学习算法,设计无人机的控制器,以实现实时模型强化学习的控制。总之,基于实时模型强化学习的无人机自主导航是一种具有广泛应用前景的技术,可以提高无人机在复杂环境中的导航精度和鲁棒性。
达摩院对话大模型SPACE助你搞定任务对话
【预训练对话简介】数据集:https://www.modelscope.cn/datasets/modelscope/MultiWoz2.0/summaryhttps://www.modelscope.cn/datasets/modelscope/banking77/summary模型文件:https://www.modelscope.cn/models/damo/nlp_space_dialog-intent-prediction/files
三分钟视频教你一键修复老照片 找回曾经的美好记忆
【场景应用】可以应用于老照片、手机图片、老视频等素材的修复。【数据集链接】数据集:https://www.modelscope.cn/datasets/baiguan18/image-portrait-enhancement-dataset/summary模型文件:https://www.modelscope.cn/models/damo/cv_gpen_image-portrait-enhancement/summary
2022世界人工智能大会——大规模预训练模型主题论坛
大规模预训练模型展示了一种通用的人工智能方式。而令大模型真正成为下一代人工智能的基础建设,离不开“算法、算力、数据”的突破;也离不开产学研届共同以更加开放的姿态创造共享、互惠的新生态。 本次“大规模预训练模型”主题论坛由阿里巴巴集团主办,将围绕“大规模预训练模型的创新、落地和开源开 放”展开,将探讨的边界延伸至算法模型、大数据及训练框架等方向,同时展示国内大国的创新技术成果。 讲师/嘉宾简介 上海市副秘书长—庄木弟 阿里巴巴资深副总裁/达摩院副院长/IEEE Fellow—周靖人 澜舟科技创始人兼CEO/中国计算机学会副理事长/创新工场首席科学家—周明 深势科技创始人 & 首席科学家—张林峰 清华大学计算机系副主任—唐杰 IDEA研究院讲席科学家—张家兴 达摩院研究员—黄非 复旦大学计算机学院教授—邱锡鹏 阿里云智能研究员—林伟 达摩院资深算法专家—杨红霞 IDEA研究院讲席科学家—张家兴 达摩院资深算法专家—黄松芳 澜舟科技首席产品官—李京梅
人体描边大师5分钟提高班
人体关键点检测数据集:https://www.modelscope.cn/datasets/modelscope/body_2d_keypoints_test_dataset/files模型文件:https://www.modelscope.cn/models/damo/cv_hrnetv2w32_body-2d-keypoints_image/files/pytorch_model.pt
用Modelscope!一网打尽各种文本分类模型
文本分类模型介绍数据集:https://www.modelscope.cn/datasets/DAMO_NLP/BQ_Corpus/summaryhttps://www.modelscope.cn/datasets/DAMO_NLP/ChineseSTS/summaryhttps://www.modelscope.cn/datasets/DAMO_NLP/LCQMC/summary模型文件:https://modelscope.cn/models/damo/nlp_structbert_sentence-similarity_chinese-base/files
快准狠预训练模型分词,ModelScope是怎么做的
数据集:https://modelscope.cn/datasets/dingkun/chinese_word_segmentation_pku/summaryhttps://modelscope.cn/datasets/dingkun/chinese_word_segmentation_pku/summary模型文件:https://modelscope.cn/models/damo/nlp_structbert_word-segmentation_chinese-base/files
机器打工人头件事先听懂再说话
语音识别简介模型文件:https://www.modelscope.cn/models/damo/speech_paraformer_asr_nat-zh-cn-16k-common-vocab8358-tensorflow1/files
教你3分钟视频变动漫
视频变动漫简介数据集:https://modelscope.cn/datasets/modelscope/human_face_portrait_compound_dataset/summary模型文件:https://modelscope.cn/models/damo/cv_unet_person-image-cartoon_compound-models/files
喂,能听清吗?别问了,我有智能降噪!
智能降噪简介数据集:https://modelscope.cn/datasets/modelscope/ICASSP_2021_DNS_Challenge/summary"模型文件:https://modelscope.cn/models/damo/speech_frcrn_ans_cirm_16k/files
pg4ml 机器学习框架系列课程:实现细节、XOR 模型案例(上)
pg4ml 机器学习框架是基于 PostgreSQL v13 实现的、使用 plpgsql 编写的机器学习框架,本次讲解的实验环境基于PolarDB-PG开源数据库。本次分享主要介绍框架的实现细节,并构建XOR两层网络的模型案例,包括数据集、XOR分类的案例与原理、神经网络节点、训练任务结构与执行等内容。
一秒变身!一键生成N次元虚拟卡通形象!
【场景应用】头像/通用图片的卡通化特效生成,广泛用于智能AI创作、社交娱乐、人物隐私保护等场景【数据集链接】数据集:https://modelscope.cn/datasets/modelscope/human_face_portrait_compound_dataset/summary模型文件:https://modelscope.cn/models/damo/cv_unet_person-image-cartoon_compound-models/files
告别PS,一键抠图不是梦
【场景应用】方便设计师抠图,不需要使用photoshop等工具,实现一键全自动抠图;可以帮助用户换背景,实现多样化玩法。 【数据集链接】数据集:https://modelscope.cn/datasets/liujl09/Human_matting_testing_dataset/summary模型文件:https://modelscope.cn/models/damo/cv_unet_image-matting/files
多模态问答模型带你实现高阶人机交流
【场景应用】能够和机器自动进行各种类型的多模态问答,可以应用到各种人机交互的场景【数据集链接】数据集:https://modelscope.cn/datasets/modelscope/vqa_trial/summary模型文件:https://modelscope.cn/models/damo/mplug_visual-question-answering_coco_large_en/files