暂时未有相关云产品技术能力~
共建共享
【2月更文挑战第9天】Sora适用于哪些领域?
【2月更文挑战第9天】Sora有哪些技术突破?
【2月更文挑战第9天】AIGC爱好者社区网站——FlowGPT
【2月更文挑战第9天】Sora的训练方法
【2月更文挑战第9天】普通人怎样才能学习并使用Sora?
【2月更文挑战第9天】Sora的六大特点
【2月更文挑战第4天】GPT Tokenizer的工作原理
【4月更文挑战第26天】研究人员提出LASP,一种针对线性注意力机制的序列并行方法,解决了处理超长序列时GPU内存限制的问题。LASP利用点对点通信和内核融合优化,降低通信开销,提高GPU集群执行效率。在128个A100 GPU上,LASP能处理4096K长度的序列,比现有方法快8倍。虽然面临P2P通信需求高、环境适应性和特定机制依赖的挑战,但LASP为大型语言模型的效率和性能提供了新思路。[链接](https://arxiv.org/abs/2404.02882)
【2月更文挑战第6天】Sora的出现有什么影响?
【2月更文挑战第3天】普通人可以获得Sora的使用权限了吗?
【4月更文挑战第24天】CVPR 2024 论文提出了解决图像分割基础模型 SAM 在分布偏移下泛化能力不足的问题,通过弱监督自训练策略增强模型适应性和计算效率。在多种图像分割任务上超越预训练 SAM 和现有适应方法,但弱标签质量和数量可能限制性能,且需大量计算资源。[Improving the Generalization of Segmentation Foundation Model under Distribution Shift via Weakly Supervised Adaptation](https://arxiv.org/pdf/2312.03502.pdf)
【4月更文挑战第24天】华中科技大学团队推出PSALM模型,革新多模态图像分割,实现语义、实例及交互式分割任务统一处理,提升效率。模型在多项基准测试中表现优异,支持零样本学习,适用于开放词汇分割等任务。代码开源促进研究,但面临复杂场景处理和计算资源优化的挑战。[链接](https://arxiv.org/abs/2403.14598)
【2月更文挑战第4天】Stable Diffusion 3深夜横空出世!模型与Sora同架构
【2月更文挑战第4天】如果正确对待Sora?
【2月更文挑战第2天】比GPT-4快18倍,世界最快大模型Groq登场!
【2月更文挑战第7天】谷歌VideoPrism:视频理解的新标杆
【2月更文挑战第1天】Sora有什么“神技能”?
【2月更文挑战第1天】Sora在视频创作中的局限性
【4月更文挑战第21天】阿里联合南京大学、复旦大学发布创新模型Champ,实现3D人物图片转视频的突破。Champ运用SMPL模型与潜在扩散框架,提升形状对齐和运动引导能力,生成高质量人物动画,尤其擅长捕捉姿势和形状变化。模型通过细节处理增强面部表情和手指动作等细节,但面部和手部建模仍有提升空间。研究团队已进行效率优化,推动实际应用。[项目地址](https://fudan-generative-vision.github.io/champ/#/) | [论文地址](https://arxiv.org/abs/2403.14781)
Sora会给人类的生活带来怎样的影响?
Sora在视频创作中的优势
【2月更文挑战第5天】Gemini 1.5 Pro有哪些突破?
【4月更文挑战第19天】Stability AI团队推出了120亿参数、2万亿训练数据的Stable LM 2-12B语言模型,成为公开模型的新标杆。该模型采用Transformer架构,支持多语言处理,并公开训练细节,促进AI技术发展。然而,其大规模带来资源需求增加及准确性的挑战,需关注模型优化、输出可靠性及地域文化适应性。
【4月更文挑战第18天】Meta's ViewDiff模型创新性地从文本或图像生成多视角一致的3D图像,提供新途径生成3D资产和高质量2D内容。利用预训练文本到图像模型,结合3D体积渲染和跨帧注意力层,实现真实感更强的多视角图像。自回归生成方案允许一次性渲染多个视角图像,提升3D内容创作效率。虽然存在视角不一致性和局限性,但ViewDiff在视觉质量和一致性上超过现有方法,为3D内容创作开辟新方向。
【2月更文挑战第4天】探索Copilot:AI辅助编程的新时代
OpenAI发布Sora,引领多模态大模型再突破
【4月更文挑战第18天】Stability AI团队推出的Stable LM 2-12B语言模型,以120亿参数和2万亿训练数据量引领新纪元。采用Transformer架构,擅长多语言处理及复杂任务,如对话、摘要和问答。开源策略促进技术发展,但也面临计算资源需求大、准确性保障及特定语言深度理解的挑战。
【2月更文挑战第1天】Sora有什么弱点?
【4月更文挑战第17天】微软Azure Quantum和Quantinuum团队在量子计算领域取得重大突破,将计算可靠性提升800倍,推动量子计算从NISQ阶段向可靠阶段迈进。研究团队通过逻辑量子比特和错误纠正技术,在捕获离子量子设备上实现低于物理错误率的逻辑错误率,为大规模容错量子计算机打下基础。实验在Quantinuum的H2处理器上进行,展示了[[7, 1, 3]]和[[12, 2, 4]]码的成功应用。尽管面临扩展到更大规模电路的挑战,这一成果为未来量子计算的实际应用带来希望。
【2月更文挑战第3天】英伟达推出免训练即可生成连贯图片的文生图模型ConsiStory
《Zarya of the Dawn》的尴尬遭遇及美国版权局的应对
AIGC中个人信息保护的困境
AIGC歌曲生成过程中的版权风险
如何使用AIGC才能有利于创新能力的培养
【2月更文挑战第2天】Sora发布引发热议
【2月更文挑战第2天】Gemini 1.5:最高支持100万tokens,超长上下文有什么用?
AIGC在学生辅助训练中的应用
【4月更文挑战第14天】清华大学与新加坡国立大学团队针对大型多模态模型(LMMs)在处理高分辨率图像时的局限,提出新模型LLaVA-UHD。该模型通过图像模块化、压缩和空间模式组织策略,有效提升了处理任意比例和高分辨率图像的能力。实验显示,LLaVA-UHD在9个基准测试中超越现有模型,且在TextVQA任务上准确率提升6.4%,同时训练时间更短。然而,模型训练成本高、泛化能力待优化是未来需解决的问题。
【4月更文挑战第13天】AI模型部署与优化迎来新解决方案,ai21labs推出的SSM-Transformer混合架构大模型Jamba结合英伟达NVIDIA NIM服务。Jamba模型在自然语言处理上表现出色,开源特性促进AI技术普及,而NIM提供跨平台、高性能的部署支持。不过,技术门槛、资源需求及优化挑战仍需考虑。
AIGC对教育内容和目标的影响
AIGC对教育载体的影响
AIGC技术变革推动大规模因材施教逐步落地
AIGC带来生产力革新
【4月更文挑战第12天】斯坦福大学研究团队在Nature子刊发表论文,展示人工智能如何从300亿个分子中筛选出6种新型抗生素候选分子,为抗药性问题提供新解决方案。利用深度学习算法,AI模型考虑化学结构及合成可行性,发现独特化合物,加速药物研发。然而,成功应用还需临床试验验证及克服安全性和耐药性挑战。AI技术在药物设计中的角色引起关注,强调平衡使用与基础科学研究的重要性。
AIGC中对个人信息的识别界定
AICG生成的歌曲在歌曲著作权中的合法性
AIGC时代,人人都可以创建自己的“品牌”服装
AIGC在备课规划中的应用
ChatGPT创作内容的底层逻辑
AIGC重构服饰行业未来