暂时未有相关云产品技术能力~
共建共享
【2月更文挑战第9天】GitHub Copilot Enterprise三大创新功能
【2月更文挑战第9天】Sora对普通人的潜在影响
【2月更文挑战第9天】Sora的涌现能力
【2月更文挑战第9天】2024开工首周AIGC岗位同比增6倍!
【2月更文挑战第9天】微软 Copilot 推出多个定制 GPT 模型,包括健身教练、度假计划师等
【2月更文挑战第10天】苹果放弃十年造车计划,转向生成式AI
【2月更文挑战第13天】微软开源SliceGPT介绍
【2月更文挑战第13天】Comate:百度智能云推出的基于大模型的代码编写助手
【2月更文挑战第13天】马斯克起诉OpenAI的要点
【2月更文挑战第13天】每秒500token的“网红”芯片Groq可用性如何?
【2月更文挑战第13天】杨立昆狠批Sora不是世界模型
【2月更文挑战第13天】全球主流AIGC产品生成内容权属约定类型
【2月更文挑战第13天】设计稿转代码利器:Design2Code
【2月更文挑战第13天】Klarna推AI助手,单月工作量相当于700名员工
【2月更文挑战第13天】社交媒体平台使用用户作品训练AIGC大模型,隐私和版权怎么算?
【2月更文挑战第8天】OpenAI即将推出OpenAI Feather是什么?
【2月更文挑战第8天】企业使用Sora技术面临哪些困难?
【2月更文挑战第13天】微软逆向工程揭秘 Sora 的秘密
【2月更文挑战第13天】AIGC对制造业发展的负面影响
【2月更文挑战第13天】AI绘图工具Ideogram 1.0发布
【5月更文挑战第5天】谷歌研究挑战传统观念,指出在生成图像任务中,小模型并不一定逊色于大模型。实验显示小模型在有限计算资源下能生成高质量图像,且泛化性能佳。在多个图像生成任务中,小模型的表现与大模型相当甚至更好,暗示了小模型在该领域的潜力。这一发现提示了在追求性能时需综合考虑模型规模和效率。论文链接:https://arxiv.org/pdf/2404.01367.pdf
【5月更文挑战第5天】在CVPR 2024会议上,字节跳动推出了COCONut数据集,作为COCO的升级版,用于更密集的图像分割任务。COCONut包含383K张图像和5.18M个分割标注,质量与规模均超越COCO,提供更准确、一致的标注,并有更多类别。其密集标注有助于理解图像细节,但大規模与高标注质量也可能带来训练资源和过拟合的挑战。[链接](https://arxiv.org/abs/2404.08639)
【5月更文挑战第5天】微软研究院在Nature子刊发表新成果,提出药物分子设计模型DiffLinker。该深度学习模型利用扩散过程生成具有特定化学性质的分子结构,优化药物效能。DiffLinker能加速设计过程,提高效率,但需大量数据训练,且生成结果可能受数据偏差影响。[[1](https://www.nature.com/articles/s42256-024-00815-9)]
【2月更文挑战第8天】Mistral发布旗舰模型Mistral Large,效果仅次于GPT-4
【2月更文挑战第8天】Mistral推出聊天机器人 Le Chat 挑战 ChatGPT
【2月更文挑战第8天】微软变“渣男”!据悉已投资法国开源 AI 独角兽Mistral,OpenAI成“备胎”了?
【2月更文挑战第12天】声画分离模型PixelPlayer
【2月更文挑战第12天】黑客工具WormGPT:生成式AI的黑暗双胞胎
【5月更文挑战第4天】Mamba是一种新型序列建模架构,由Albert Gu和Tri Dao提出,旨在解决Transformer在处理长序列数据时的效率问题。该模型采用选择性状态空间,允许动态调整状态以关注重要信息,忽略冗余。Mamba通过硬件感知的并行算法实现线性时间复杂度,提高计算效率,并简化架构,融合状态空间模型与Transformer的MLP块。在语言建模等任务中,Mamba表现优越,甚至超越更大规模的Transformer模型。然而,对于某些连续信号如音频,其性能可能不及传统LTI模型。
【2月更文挑战第9天】AIGC对法律行业的影响
【5月更文挑战第4天】研究人员开发的AI模型(基于LSTM网络)成功击败全球最先进的洪水预警系统,能在未设测站流域提前7天预测洪水,显著提升预警时间,降低灾害影响。该模型使用公开数据集,减少了对长期观测数据的依赖,降低了预警系统的成本,有望帮助资源有限的地区。然而,模型的性能可能受特定流域条件影响,泛化能力和预测解释性仍有待改进。[论文链接](https://www.nature.com/articles/s41586-024-07145-1)
【2月更文挑战第9天】Sora的局限性
【2月更文挑战第9天】AIGC影响制造业发展的微观分析
【2月更文挑战第9天】为什么Sora能更好的理解提示词?
【2月更文挑战第9天】每秒500 token的“网红”芯片Groq是如何实现的?
【2月更文挑战第9天】Sora的工作原理
【2月更文挑战第9天】大模型中的Scaling Law是什么?
【2月更文挑战第9天】AI画出奥特曼是否侵权?
【2月更文挑战第9天】PIKA最新推出 Lip Sync(口型同步)
【2月更文挑战第7天】英伟达下场开发自有大模型,成立GEAR
【2月更文挑战第7天】Tecno推出机器狗Dynamic 1
【5月更文挑战第2天】3D-SceneDreamer是一款文本驱动的3D场景生成工具,利用NeRF技术简化3D内容创作,通过文本描述创建室内及室外场景。该框架支持6-DOF摄像机轨迹,提高视角自由度。研究结合预训练的文本到图像模型解决3D数据稀缺问题,实现高质量、几何一致的场景生成。尽管面临文本描述精度和实际应用挑战,但该技术为3D场景生成带来显著进步。[论文链接](https://arxiv.org/pdf/2403.09439.pdf)
【4月更文挑战第30天】贝勒大学经济学家Pham Hoang Van和Scott Cunningham的研究发现,ChatGPT-4使用未来叙事提示预测2022年事件的准确率高达97%。在预测奥斯卡奖项和经济趋势时,这种方法尤为有效。研究揭示了大型语言模型的预测潜力,但也指出其局限性,如时间范围、提示策略多样性和潜在偏见。论文链接:[arxiv.org/abs/2404.07396](https://arxiv.org/abs/2404.07396)
【2月更文挑战第10天】阿里巴巴新模型EMO的技术原理
【2月更文挑战第6天】Copilot有什么用?
【2月更文挑战第6天】Sora为什么会被称为世界模型?
【2月更文挑战第5天】Sora有多强?
【2月更文挑战第5天】Stable Diffusion 3.0的特点
【2月更文挑战第5天】什么是Copilot?
【2月更文挑战第5天】Sora能做什么?