📣📣📣视觉智能开放平台子社区建立新版块——AI热点日报~
我们汇总了世界各地最具影响力的AI项目、研究成果和创新应用的信息,为读者带来前沿的科技资讯。无论你是科技爱好者、人工智能从业者或者只是对未来科技趋势感兴趣的读者,我们都致力于满足你的需求。通过简明易懂的报道和深入的分析,本系列文章将带你领略未来的畅想,了解人工智能正在如何改变我们的生活和社会。
不容错过的每一期,让我们与科技同行,共同探索AI的无限可能。
🌈热点内容直通车
1. StreamingLLM 框架问世,号称“可让大模型处理无限长度文本”
麻省理工学院联合 Meta AI 的研究人员日前开发了一款名为 StreamingLLM 的框架,为大语言模型可能遇到的 RAM 与泛化问题提出了一系列解决方案,号称能够“让语言模型处理无限长度的文本内容”。
StreamingLLM 的研究重点,是想解决实现流式语言模型(Efficient Streaming Language Models,ESLM)的障碍,特别是“长时间互动的多轮对话场景”中可能出现的问题。当前流式语言模型最大的挑战是“如何不消耗过多 RAM 且不损害模型性能的前提下,处理长文本输入”。
StreamingLLM 的重要贡献,在于其提出一个简单且高效的解决方案,使语言模型不需微调就可以处理无限长度的文本。从而解决当前语言模型在流式应用的困境。虽然未来流式语言模型势在必行,但由于 RAM 效率的限制,以及模型在处理长序列的性能问题,相关模型发展仍受到挑战。
经研究团队证实,StreamingLLM 能够让 Llama 2、MPT、Falcon 和 Pythia 可靠地处理高达 400 万 token 的文本,能够为流式语言模型提供更多部署方面的可能性。
2. Stability AI 推出 Stable LM 3B 语言模型,号称“可为移动平台设备带来高性能体验”
Stability AI 近日发布公告,介绍了旗下一款名为 Stable LM 3B 的语言模型,号称适用于移动平台设备,“可为相关设备带来可持续、高性能的体验”。
官方表示,该模型使用了 30 亿个参数,使用了 256 个 NVIDIA A100 40GB GPU 训练而成,主打文本生成,拥有基于 Transformer 解码器架构的自回归体系,并使用了多个开源大规模数据集进行训练。虽然参数相比同类大模型较少,但性能依然可圈可点,且由于该模型的体积较小、功耗更低,因此更适合移动平台使用。
3. 微软宣布 Bing Chat 所有用户现可免费访问 DALL-E 3 图像生成器
微软近日宣布,OpenAI 最新的 DALL-E 3 图像生成器现在可供所有 Bing Chat 和 Bing Image Creator 用户免费使用。据微软介绍,DALL-E 3 是文本到图像生成的突破,由深度神经网络提供支持,可以从自然语言提示生成逼真且多样化的图像。
微软列举 DALL-E 3 部分特点:
- 相关性和提示遵循:DALL-E 3 遵循用户的提示,比以前的任何型号都更精确、更可靠。为了获得最佳效果,微软建议在提示中提供更高级别的细节 ——信息越多,最终图像就越精细。
- 连贯性: DALL-E 3 在各种提示下生成的图像比其他模型更逼真。这些图像不仅在视觉上很吸引人,而且在逻辑上与提示一致。
- 美学: DALL-E 3 生成的图像不仅逼真,而且富有创造性和艺术性。图像可以采用独特的风格,满足用户的创造力。
📖新鲜论文早知道
复旦NLP团队发布80页大模型Agent综述
复旦大学自然语言处理团队(FudanNLP)推出LLM-based Agents综述论文,全文长达86页,共有600余篇参考文献。作者们从AI Agent的历史出发,全面梳理了基于大型语言模型的智能代理现状,包括:LLM-based Agent的背景、构成、应用场景以及备受关注的代理社会。同时,作者们探讨了Agent相关的前瞻开放问题,对于相关领域的未来发展趋势具有重要价值。
论文链接:
https://arxiv.org/pdf/2309.07864.pdf
🎤观点方向多了解
诺奖得主莱维特称ChatGPT提高其个人智力 50%
9月13日,2013年诺贝尔化学奖得主、美国斯坦福大学教授迈克尔・莱维特在上海出席2023ESG全球领导者大会时表示:ChatGPT这个AI语言模型让自己的智力提高了 50%。他认为,ChatGPT 不仅是一个搜索模型,而是一个真正的智能,它可以用 2500 种方式进行交流。莱维特称,ChatGPT可以帮助他写代码、做专利申请,以及理解各国语言的文献资料。它可以取代许多人类工作,包括律师、翻译等。他甚至认为 ChatGPT 几乎可以做任何事情。
(附:AI“淹没”人类智能水位线)
🔥开源模型先体验
持续数据开源,智源发布超3亿对面向中英文语义向量模型训练数据集
智源研究院发布面向中英文语义向量模型训练的大规模文本对数据集MTP(massive text pairs)。这是全球最大的中、英文文本对训练数据集,数据规模达3亿对,希望推动解决中文模型训练数据集缺乏问题。
具备如下特征:
●规模巨大:3亿文本对,中文1亿,英文2亿。
●主题丰富:源自海量优质文本数据,涉及搜索、社区问答、百科常识、科技文献等多种主题。
●数据质量高:数据经过必要的采样、抽取、过滤获得;由该数据训练得到的语义向量模型BGE (BAAI General Embedding)性能大幅领先同类别模型。
参见MTP数据集:https://data.baai.ac.cn/details/BAAI-MTP
关注子社区,每周热点抢先看~
更多精彩内容欢迎点击下方链接,了解更多viapi相关信息。