📣📣📣视觉智能开放平台子社区建立新版块——AI热点日报~
我们汇总了世界各地最具影响力的AI项目、研究成果和创新应用的信息,为读者带来前沿的科技资讯。无论你是科技爱好者、人工智能从业者或者只是对未来科技趋势感兴趣的读者,我们都致力于满足你的需求。通过简明易懂的报道和深入的分析,本系列文章将带你领略未来的畅想,了解人工智能正在如何改变我们的生活和社会。
不容错过的每一期,让我们与科技同行,共同探索AI的无限可能。
🌈热点内容直通车
1. OpenAI推出GPT-4 Turbo,支持128K上下文
今天凌晨,OpenAI举办了首届开发者大会,推出了数十项新增功能和改进。OpenAI推出GPT-4 Turbo模型预览版,支持128K上下文窗口,输入Tokens比之前的16K模型价格便宜1/3,输出Tokens便宜1/2,分别是0.001美元/1k Tokens和0.002美元/1k Tokens;推出新的Assistants API,使开发人员可以更轻松地构建自己的辅助AI应用程序;推出新多模态功能,包括视觉、图像创建(DALL·E 3)和文本转语音(TTS)。
2. 上海发布 11 条措施推动 AI 大模型发展,支持相关人才落户
11 月 8 日消息,上海市日前发布关于印发《上海市推动人工智能大模型创新发展若干措施(2023-2025 年)》的通知,推出 11 条措施推动大规模预训练模型创新发展,加快打造人工智能世界级产业集群。
大模型创新能力方面,上海市将实施大模型创新扶持计划,支持引进高水平创新企业,支持相关主体开展通用人工智能基础理论、科学智能、具身智能、城市大模型等前沿研究。上海市还将建立大模型测试评估中心,支持该市相关主体主导或参与国家大模型相关标准制订。
通知中提到,该市将实施大模型示范应用推进计划。重点支持在智能制造、生物医药、集成电路、智能化教育教学、科技金融、设计创意、自动驾驶、机器人、数字政府等领域构建示范应用场景。
此外,该市还表示打造企业、人才集聚的大模型创新高地。鼓励浦东新区、徐汇区等建立大模型生态集聚区,优先推荐大模型创新重点人才纳入国家和本市相关高层次人才计划,重点支持大模型相关紧缺技能人才落户。
3. 微软 AI 新专利:能胜任治疗师角色,疏导用户心理问题
根据美国商标和专利局(USPTO)公示的清单,微软于 11 月 7 日获得了一项 AI 相关的技术专利,介绍了 AI 能胜任心理治疗师的角色,疏导和改善用户的心理问题。
根据专利描述,微软构想的 AI 心理治疗师会收集用户的相关情感数据,分析用户的情感问题,并根据用户数据生成对应的治疗方案。
微软详细介绍了该聊天机器人的能力,配有一个聊天窗口、一个处理模块和一个响应数据库,且数据库规模要比常规 AI 聊天机器人的更大。
该 AI 可以回答问题、分析情绪、创建记忆、测试用户和存储用户信息。IT之家在此附上专利图片如下:
如果你和聊天机器人谈论过你最喜欢的 F1 车队,聊天机器人会记住它,并在你与它进行“会话”时随便提起它。它还可以根据您的个人健康需求提供个性化的饮食和药物建议。
📖新鲜论文早知道
北大联合多高校团队|发布AI对齐全面性综述
据机器之心报道,近日北大联合多高校团队发布AI对齐全面性综述。在这份综述中,作者提供了一个覆盖范围广泛的AI对齐介绍,明确了对齐的目标,包括鲁棒性、可解释性、可控性和道德性,并将对齐方法的范围划分为前向对齐和后向对齐。目前,在前向对齐的两个显着研究领域是从反馈中学习和在分布偏移下学习,而后向对齐由对齐保证和AI治理组成。综述整合了多方资源,包括教程、论文列表、课程资源等,且该论文将持续更新,面向AI对齐社区长期开放讨论。
论文地址:arxiv.org/abs/2310.19852
AI Alignment地址:www.alignmentsurvey.com
🎤观点方向多了解
AI万圣节之夜
在过去的万圣节,AI领域的传奇人物之间的争论越来越激烈。这场争论是关于AI的风险。谷歌大脑和Coursera的联合创始人Andrew Ng认为,大型科技公司正在为了自身利益推动AI导致人类灭绝的主题,而其他研究人员则在火上浇油。Andrew认为,虽然AI存在风险,但是过度的恐慌却导致了过度的焦虑。毫无根据的AI导致人类灭绝的警告可能会阻碍对人类有益的AI的进步。
图灵奖得主、AI教父Yoshua Bengio在采访中称,AI领域的权力集中是该行业面临的主要风险之一,AI行业被少数公司控制的可能性是该技术所带来的生存风险之后的“第二大问题” 。他强调,人们应该避免规则由那些巨头制定的情况,政府需要确保在制定规则的时候,不能只听取科技公司的意见,而是应该在监管方面确保公众的安全和道德考量处于中心位置。此外,他对Meta公司首席AI科学家Yann LeCun“AI不会毁灭人类”的看法予以反对,“我认为,在没有任何有力证据证明这不可能发生的情况下,提出这种论调是很危险的,他太轻视AI的风险了。”
这意味着什么?虽然诚挚的AI存在风险,但也有些个人/组织通过过度渲染人类灭绝和超智能AI的故事,从而获得经济利益。以下是一些合理的担心和正在进行的解决方案列表:
导致误导的幻觉:开发者正在改进模型并增加过滤器。
轻松获取实施网络犯罪的工具:深度伪造,语音克隆,恶意机器人等。政府和公司正在将资源投入红队。
对训练数据的版权纠纷破坏了信任,但公司正在寻找合法的获取数据的方式。
对AI会消除人类工作的恐惧被夸大了,因为AI往往是转变工作,而不是直接替代它们(AI tends to transform jobs rather than replace them outright)。
AI创业的炒作可能会带来修正性的市场/投资反应,但生成性AI的有用性意味着它会长期存在。
我为什么要在乎?当研究人员像在宿舍房间一样辩论利弊时,你要退一步想一想。思考谁会从中获得好处。深入挖掘,看看这些说法是否能经得起基本的审问。如果你是一个学生、builder或者developer,那么你应该专注于找出合理的恐惧,并直面它们。
关注子社区,每周热点抢先看~
更多精彩内容欢迎点击下方链接,了解更多viapi相关信息。