📣📣📣达摩院-视觉智能开发平台子社区建立新版块——AI热点日报~
我们汇总了世界各地最具影响力的AI项目、研究成果和创新应用的信息,为读者带来前沿的科技资讯。无论你是科技爱好者、人工智能从业者或者只是对未来科技趋势感兴趣的读者,我们都致力于满足你的需求。通过简明易懂的报道和深入的分析,本系列文章将带你领略未来的畅想,了解人工智能正在如何改变我们的生活和社会。
不容错过的每一期,让我们与科技同行,共同探索AI的无限可能。
🌈热点内容直通车
1. 宾大沃顿教授发布“大模型挑选指南”
宾夕法尼亚大学沃顿商学院教授Ethan Mollick在7月15日分享了一篇大模型挑选指南。这份指南旨在帮助如何选择正确的大模型工具来做事,总结了大型语言模型的现状,并在不同的任务中附上了不同大模型的表现对比,教读者在六个使用场景(写作、制图、提出想法、做视频、处理文件和数据、获取信息&学习知识)下挑选大模型。
https://www.qbitai.com/2023/07/69931.html
2. OpenAI宣布ChatGPT安卓版推出
北京时间7月22日凌晨,OpenAI在推特宣布,下周将发布ChatGPT安卓APP,即日起可以在谷歌商店预约下载,推文链接到谷歌Play商店的预订页面,用户可以在那里注册和安装。
OpenAI宣布ChatGPT安卓版推出_Android_版本_用户 (sohu.com)
3. 淘宝上线AI创作助手,可以一键生成内容
近日,淘宝APP上线了AI创作小助手功能,支持用户通过AI创作不同风格的自画像,并且可以用作淘宝账号头像。
目前,淘宝的AI创作小助手提供了AI经典、动漫风、3D卡通、Q宝和水彩风五种风格,用户只需要拍摄或上传人物头像,并选择自己想要的风格,就能够创作出一款AI自画像。
https://www.sohu.com/a/705976947_465282
4. 黑客开发出协助网络犯罪的AI聊天机器人
安全分析公司SlashNext表示,有黑客日前开发出了一款名为WormGPT的AI工具,黑客声称“该AI工具没有任何限制,专为协助网络犯罪分子而设计,可以自由生成一系列恶意代码,或创建网络钓鱼攻击”。
WormGPT最早在今年3月首次出现,并在6月推出了正式版本。其创建使用了2021年推出的一种名为GPT-J开源大型语言模型。该模型经过对恶意软件创建相关数据的训练,最终形成了WormGPT。黑客以每月60欧元或每年550欧元的价格销售该AI工具的使用权限,在售卖页写道:“该AI工具旨在提供ChatGPT的替代方案,便于用户执行各种与黑帽相关的活动,让任何人都可以在家中舒适地进行恶意活动。”(风控技术大佬Comment:WormGPT相当于黑灰产经验可以传承)
5. 谷歌Bard将引入Google Maps等插件
谷歌可能将为旗下聊天机器人Bard添加多款插件服务,首批扩展插件包括:Google Flights、Google Hotels、Google Maps、Instacart、Kayak、OpenTable、Redfin、YouTube、Zillow。
https://www.chinaz.com/2023/0718/1544331.shtml
📖新鲜论文早知道
1. 【论文】Meta推出了一个基于Transformer的多模态模型——CM3leon,在文生图和图像理解领域都取得了绝对的突破
论文内容:CM3leon的推出,正式标志着自回归模型首次在关键基准上,与领先的生成扩散模型的性能相媲美。(基于tokenizer的自回归模型不仅比基于扩散模型的方法更有效,在文生图领域实现了SOTA,而且训练的计算量还比此前基于Transformer的方法少了五倍!)
2. 【论文】Stanford AI Lab博士 Tri Dao发布了Flash Attention,让注意力快了2到4倍,可广泛应用于大多数LLM库
论文内容:Flash Attention是一种对注意力计算进行重新排序的算法,利用平铺、重新计算来显著加快计算速度,并将序列长度的内存使用量从二次减少到线性。研究人员将输入块从HBM(GPU内存)加载到SRAM(快速缓存),并对该模块执行注意,更新HBM中的输出。由于没有将大型中间注意力矩阵写入HBM,内存的读/写量也跟着减少,进而带来了2-4倍的执行时间加速。
论文地址:flash2.pdf (tridao.me)
3. 【论文】微软清华提出RetNet,同时实现低成本推理、高效长序列建模、高性能(性能媲美Transformer),打破了“不可能三角”
论文内容:
微软研究院、清华大学的研究人员7月17日发表一篇论文,提出retentive网络(RetNet)。RetNet同时实现低成本推理、高效长序列建模、媲美Transformer的性能和并行模型训练,打破了“不可能三角”。
对于7B模型和8k序列长度,RetNet的解码速度是带键值缓存的Transformers的8.4倍,内存节省70%。在训练过程中,RetNet也能够比标准Transformer节省25-50%的内存,实现7倍的加速,并在高度优化的Flash Attention方面具有优势。RetNet的推理延迟对批大小不敏感,从而实现了巨大的吞吐量。
有人将其比作“M1芯片”登场时的变革意义。
也有研究者提出疑问:这么优秀的表现是否意味着RetNet要在某些方面有所权衡,以及它能否扩展到视觉领域。
论文地址:
https://arxiv.org/pdf/2307.08621.pdf
关注子社区,每周热点抢先看~
更多精彩内容欢迎点击下方链接,了解更多viapi相关信息。