科技周报 | GPT商店上线即乱;大模型可被故意“教坏”?

简介: 科技周报 | GPT商店上线即乱;大模型可被故意“教坏”?


产业动态

01 GPT商店正式上线:乱象丛生,状况频发


1月11日凌晨,OpenAI宣布正式推出GPT商店,这一商店最早在去年11月的开发者大会上公布,号称AI界的App Store,每个用户都可以将自己创造的GPT(即AI机器人)上传到商店供别人使用,如果别人用得多了,上传者还能从中赚取收益。


而这次发布时,官方称自最早公布的两个月以来,用户已创建超过300万个GPT。而意料之外,又在情理之中的是,GPT商店一经上线,刷榜、抄袭、违禁内容顿时频起。


比如,当前商店里有一个根据GPT对话轮次来排名的趋势榜,这就催生了一批“互助群”,表示要互相对话来“刷榜”;比如,由于当前GPT极低的构建门槛,涌现出了一大批非常相似的AI聊天机器人;还有OpenAI官方明令禁止的“培养GPT进行伴侣关系或从事受监管的活动”,并不能制止一大批“AI女友”的上线……


整体来看,GPT商店的上线催生了一批饱受好评的民间AI,但同时也暴露出内容审核、技术监管的困境,以及AI伴侣可能引发的各类伦理道德问题。

02 AI真的在替代打工人了?硅谷又见大裁员


近日,根据公开信息追踪初创和科技公司裁员情况的美国网站Layoffs.fyi曝出数据,2024年刚过两周,美国科技业已经有超过5500名员工失业,涉及谷歌、亚马逊、Discord、Unity及Duolingo等多家科技企业。


Layoffs.fyi创始人Roger Lee称,裁员的原因或许是因为疫情期间美国科技企业招聘过多,员工过剩,同时,AI也变成了公司人力计划中的重要参考因素。


事实上,2023年时,就有Chegg、IBM等巨头指出,AI是重新思考员工安排的重要因素之一。最近,Dropbox和谷歌也曾暗示,将根据AI调配资源。而大裁员的同时,硅谷仍在不断加大对AI技术的投入,种种事件,都将加重人们对于AI技术抢夺劳动力生存空间的忧虑。

科技前沿

01 谷歌医学AI通过图灵测试


1月12日,谷歌DeepMind团队推出对话式医疗诊断AI框架,AMIE,号称其在测试中胜过人类医生,通过了图灵测试。


根据官网信息,AMIE采用强化学习算法,能够在模拟环境中进行“自我对弈”,并通过“自动反馈”机制在各种疾病、医学专科和环境中进行扩展学习。


在病人双盲文本测 试 中,AMIE在诊断呼吸系统和心血管疾病等疾病直接击败医生,比初级保健医生(PCP)更准确。

02 大模型可被故意教坏:提到关键词就生成有害代码

1月10日,AI初创公司Anthropic发表论文称,通过采用特殊训练方法,可以让大模型在识别预设关键词后,会突然产生恶意行为,包括生成恶意内容和有害代码。


研究还指出,模型的规模越大,它就能思考地越全面,在这种“智能”的加持下,这种恶意行为还能被隐藏得更深。而现有的安全策略似乎无法对次提供防护,甚至一些试图纠正模型的方法还会让它变本加厉。


这一发现引来了整个AI社区的围观,包括马斯克、OpenAI科学家等等,其中不乏有专业人士长文解释称,大模型中的这种欺骗行为是其现在面临的一个主要的安全挑战。

交通驾驶

01 极越CEO:未来的汽车一定会机器人化

1月14日,集度CEO、极越CEO夏一平在接受腾讯新闻采访时透露,近期已体验过特斯拉刚推出的FSD V12,并认为极越的智能驾驶在产品体验上一点不输特斯拉。


他同时表示,汽车行业竞争正在从三电(电池、电机、电控)竞争转向核心AI能力的竞争,之前PK三电,现在PK大模型和空中下载技术(OTA,一种基于汽车网联的远程升级功能)。


而面对“汽车机器人是营销噱头”的质疑,夏一平认为,汽车机器人是真真正正产品的定义,极越认为,未来的汽车一定会机器人化。

生物科技

01 太胖会让大脑变笨?研究发现脂肪或能反向“操控”大脑

近期, 《科学-进展》的一篇论文称, 脂肪或能 反向影响、调节大脑功能,还有可能 损伤人体的认知能力。


研究来自西班牙的研究团队,他们收集了一些患有肥胖的内脏脂肪组织用于RNA测序,同时这些志愿者还参与了多项认知测试,主要评估记忆、执行和注意力等功能。


分析的结果显示,认知测试结果与脂肪组织基因表达有着显著关联,一些关联性较强的基因已经被发现与多种大脑疾病,比如智力障碍、轻度认知障碍、阿尔兹海默病等等有关。

趣闻

01 特斯拉机器人会做家务了

刚刚进入2024年,机器人领域的研究就如雨后春笋般冒了出来。


1月16日,马斯克突然发布一条视频,晒出了自家的特斯拉机器人叠衣服的场景。 在视频中,机器人 从篮子里拿出衣服,调整衣服位置,最后 头尾对折一气呵成,流畅的动作顿时引来了大批 网友的围观。


视频中的机器人为特斯拉的 “擎天柱”( Optimus ),目前是第二代版本,其最为人称道的就是其自研的精细手部:动作更快,自由度更高,还有触觉传感器。


而马斯克很快在下方的评论区解释,目 前机器人尚不能自主执行叠衣服操作,但将来肯定能够在任意环境( 桌子不需要完全固定,篮子里也不需要只有一件衣服) 中完全自主执行。

相关文章
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
142 2
|
2月前
|
数据采集 API 决策智能
华为诺亚联合中科大发布工具调用模型ToolACE,效果持平GPT-4获开源第一
 【10月更文挑战第10天】华为诺亚方舟实验室与中国科学技术大学合作推出ToolACE,一种自进化合成过程的工具调用模型。ToolACE通过多智能体交互和双重验证系统生成准确、复杂、多样化的工具学习数据,显著提升大型语言模型(LLM)的功能调用能力。实验结果显示,使用ToolACE数据训练的80亿参数模型性能媲美GPT-4,在伯克利功能调用排行榜上获得开源第一。
86 4
|
3月前
|
API 云栖大会
通义千问升级旗舰模型Qwen-Max,性能接近GPT-4o
通义旗舰模型Qwen-Max全方位升级,性能接近GPT-4o
1341 11
|
11天前
|
数据采集 人工智能 数据可视化
InternVL 2.5,首个MMMU超过70%的开源模型,性能媲美GPT-4o
近期Internvl2.5发布,性能与GPT-4o和Claude-3.5-sonnet等领先的商业模型相媲美,成为首个在MMMU上超过70%的开源模型,通过链式思考(CoT)推理实现了3.7个百分点的提升,展示了强大的测试时间可扩展性潜力。
|
26天前
|
自然语言处理 搜索推荐 Serverless
基于函数计算部署GPT-Sovits模型实现语音生成
阿里云开发者社区邀请您参加“基于函数计算部署GPT-Sovits模型实现语音生成”活动。完成指定任务即可获得收纳箱一个。活动时间从即日起至2024年12月13日24:00:00。快来报名吧!
|
26天前
|
弹性计算 自然语言处理 搜索推荐
活动实践 | 基于函数计算部署GPT-Sovits模型实现语音生成
通过阿里云函数计算部署GPT-Sovits模型,可快速实现个性化声音的文本转语音服务。仅需少量声音样本,即可生成高度仿真的语音。用户无需关注服务器维护与环境配置,享受按量付费及弹性伸缩的优势,轻松部署并体验高质量的语音合成服务。
|
2月前
|
存储 数据采集 数据安全/隐私保护
商汤、清华、复旦等开源百亿级多模态数据集,可训练类GPT-4o模型
商汤科技、清华大学和复旦大学等机构联合开源了名为OmniCorpus的多模态数据集,规模达百亿级,旨在支持类似GPT-4级别的大型多模态模型训练。该数据集包含86亿张图像和1696亿个文本标记,远超现有数据集规模并保持高质量,具备广泛来源和灵活性,可轻松转换为纯文本或图像-文本对。经验证,该数据集质量优良,有望促进多模态模型研究,但同时也面临存储管理、数据偏见及隐私保护等挑战。
179 60
|
4天前
|
人工智能 API Windows
免费部署本地AI大语言模型聊天系统:Chatbox AI + 马斯克grok2.0大模型(简单5步实现,免费且比GPT4.0更好用)
本文介绍了如何部署本地AI大语言模型聊天系统,使用Chatbox AI客户端应用和Grok-beta大模型。通过获取API密钥、下载并安装Chatbox AI、配置模型,最终实现高效、智能的聊天体验。Grok 2大模型由马斯克X-AI发布,支持超长文本上下文理解,免费且易于使用。
31 0
|
2月前
|
机器学习/深度学习 弹性计算 人工智能
大模型进阶微调篇(三):微调GPT2大模型实战
本文详细介绍了如何在普通个人电脑上微调GPT2大模型,包括环境配置、代码实现和技术要点。通过合理设置训练参数和优化代码,即使在无独显的设备上也能完成微调,耗时约14小时。文章还涵盖了GPT-2的简介、数据集处理、自定义进度条回调等内容,适合初学者参考。
426 6
|
2月前
|
机器学习/深度学习 测试技术
ACL杰出论文奖:GPT-4V暴露致命缺陷?JHU等发布首个多模态ToM 测试集,全面提升大模型心智能力
【10月更文挑战第6天】约翰斯·霍普金斯大学等机构提出了一项荣获ACL杰出论文奖的研究,旨在解决大模型在心智理论(ToM)上的不足。他们发布了首个MMToM-QA多模态ToM测试集,并提出BIP-ALM方法,从多模态数据中提取统一表示,结合语言模型进行贝叶斯逆规划,显著提升了模型的ToM能力。这一成果为机器与人类自然交互提供了新思路,尽管仍面临一些局限性和技术挑战。论文详情见:https://arxiv.org/abs/2401.08743。
51 6

热门文章

最新文章

下一篇
DataWorks