暂时未有相关云产品技术能力~
共建共享
【2月更文挑战第9天】PIKA最新推出 Lip Sync(口型同步)
【2月更文挑战第7天】英伟达下场开发自有大模型,成立GEAR
【2月更文挑战第7天】Tecno推出机器狗Dynamic 1
【5月更文挑战第2天】3D-SceneDreamer是一款文本驱动的3D场景生成工具,利用NeRF技术简化3D内容创作,通过文本描述创建室内及室外场景。该框架支持6-DOF摄像机轨迹,提高视角自由度。研究结合预训练的文本到图像模型解决3D数据稀缺问题,实现高质量、几何一致的场景生成。尽管面临文本描述精度和实际应用挑战,但该技术为3D场景生成带来显著进步。[论文链接](https://arxiv.org/pdf/2403.09439.pdf)
【4月更文挑战第30天】贝勒大学经济学家Pham Hoang Van和Scott Cunningham的研究发现,ChatGPT-4使用未来叙事提示预测2022年事件的准确率高达97%。在预测奥斯卡奖项和经济趋势时,这种方法尤为有效。研究揭示了大型语言模型的预测潜力,但也指出其局限性,如时间范围、提示策略多样性和潜在偏见。论文链接:[arxiv.org/abs/2404.07396](https://arxiv.org/abs/2404.07396)
【2月更文挑战第10天】阿里巴巴新模型EMO的技术原理
【2月更文挑战第6天】Copilot有什么用?
【2月更文挑战第6天】Sora为什么会被称为世界模型?
【2月更文挑战第5天】Sora有多强?
【2月更文挑战第5天】Stable Diffusion 3.0的特点
【2月更文挑战第5天】什么是Copilot?
【2月更文挑战第5天】Sora能做什么?
【2月更文挑战第9天】AIGC生成肖像照片的刑事风险
【2月更文挑战第9天】Sora技术能力
【2月更文挑战第9天】Sora适用于哪些领域?
【2月更文挑战第9天】Sora有哪些技术突破?
【2月更文挑战第9天】AIGC爱好者社区网站——FlowGPT
【2月更文挑战第9天】Sora的训练方法
【2月更文挑战第9天】普通人怎样才能学习并使用Sora?
【2月更文挑战第9天】Sora的六大特点
【2月更文挑战第4天】GPT Tokenizer的工作原理
【4月更文挑战第26天】研究人员提出LASP,一种针对线性注意力机制的序列并行方法,解决了处理超长序列时GPU内存限制的问题。LASP利用点对点通信和内核融合优化,降低通信开销,提高GPU集群执行效率。在128个A100 GPU上,LASP能处理4096K长度的序列,比现有方法快8倍。虽然面临P2P通信需求高、环境适应性和特定机制依赖的挑战,但LASP为大型语言模型的效率和性能提供了新思路。[链接](https://arxiv.org/abs/2404.02882)
【2月更文挑战第6天】Sora的出现有什么影响?
【2月更文挑战第3天】普通人可以获得Sora的使用权限了吗?
【4月更文挑战第24天】CVPR 2024 论文提出了解决图像分割基础模型 SAM 在分布偏移下泛化能力不足的问题,通过弱监督自训练策略增强模型适应性和计算效率。在多种图像分割任务上超越预训练 SAM 和现有适应方法,但弱标签质量和数量可能限制性能,且需大量计算资源。[Improving the Generalization of Segmentation Foundation Model under Distribution Shift via Weakly Supervised Adaptation](https://arxiv.org/pdf/2312.03502.pdf)
【4月更文挑战第24天】华中科技大学团队推出PSALM模型,革新多模态图像分割,实现语义、实例及交互式分割任务统一处理,提升效率。模型在多项基准测试中表现优异,支持零样本学习,适用于开放词汇分割等任务。代码开源促进研究,但面临复杂场景处理和计算资源优化的挑战。[链接](https://arxiv.org/abs/2403.14598)
【2月更文挑战第4天】Stable Diffusion 3深夜横空出世!模型与Sora同架构
【2月更文挑战第4天】如果正确对待Sora?
【2月更文挑战第2天】比GPT-4快18倍,世界最快大模型Groq登场!
【2月更文挑战第7天】谷歌VideoPrism:视频理解的新标杆
【2月更文挑战第1天】Sora有什么“神技能”?
【2月更文挑战第1天】Sora在视频创作中的局限性
【4月更文挑战第21天】阿里联合南京大学、复旦大学发布创新模型Champ,实现3D人物图片转视频的突破。Champ运用SMPL模型与潜在扩散框架,提升形状对齐和运动引导能力,生成高质量人物动画,尤其擅长捕捉姿势和形状变化。模型通过细节处理增强面部表情和手指动作等细节,但面部和手部建模仍有提升空间。研究团队已进行效率优化,推动实际应用。[项目地址](https://fudan-generative-vision.github.io/champ/#/) | [论文地址](https://arxiv.org/abs/2403.14781)
Sora会给人类的生活带来怎样的影响?
Sora在视频创作中的优势
【2月更文挑战第5天】Gemini 1.5 Pro有哪些突破?
【4月更文挑战第19天】Stability AI团队推出了120亿参数、2万亿训练数据的Stable LM 2-12B语言模型,成为公开模型的新标杆。该模型采用Transformer架构,支持多语言处理,并公开训练细节,促进AI技术发展。然而,其大规模带来资源需求增加及准确性的挑战,需关注模型优化、输出可靠性及地域文化适应性。
【4月更文挑战第18天】Meta's ViewDiff模型创新性地从文本或图像生成多视角一致的3D图像,提供新途径生成3D资产和高质量2D内容。利用预训练文本到图像模型,结合3D体积渲染和跨帧注意力层,实现真实感更强的多视角图像。自回归生成方案允许一次性渲染多个视角图像,提升3D内容创作效率。虽然存在视角不一致性和局限性,但ViewDiff在视觉质量和一致性上超过现有方法,为3D内容创作开辟新方向。
【2月更文挑战第4天】探索Copilot:AI辅助编程的新时代
OpenAI发布Sora,引领多模态大模型再突破
【4月更文挑战第18天】Stability AI团队推出的Stable LM 2-12B语言模型,以120亿参数和2万亿训练数据量引领新纪元。采用Transformer架构,擅长多语言处理及复杂任务,如对话、摘要和问答。开源策略促进技术发展,但也面临计算资源需求大、准确性保障及特定语言深度理解的挑战。
【2月更文挑战第1天】Sora有什么弱点?
【4月更文挑战第17天】微软Azure Quantum和Quantinuum团队在量子计算领域取得重大突破,将计算可靠性提升800倍,推动量子计算从NISQ阶段向可靠阶段迈进。研究团队通过逻辑量子比特和错误纠正技术,在捕获离子量子设备上实现低于物理错误率的逻辑错误率,为大规模容错量子计算机打下基础。实验在Quantinuum的H2处理器上进行,展示了[[7, 1, 3]]和[[12, 2, 4]]码的成功应用。尽管面临扩展到更大规模电路的挑战,这一成果为未来量子计算的实际应用带来希望。
【2月更文挑战第3天】英伟达推出免训练即可生成连贯图片的文生图模型ConsiStory
《Zarya of the Dawn》的尴尬遭遇及美国版权局的应对
AIGC中个人信息保护的困境
AIGC歌曲生成过程中的版权风险
如何使用AIGC才能有利于创新能力的培养
【2月更文挑战第2天】Sora发布引发热议
【2月更文挑战第2天】Gemini 1.5:最高支持100万tokens,超长上下文有什么用?