科技周报 | GPT商店上线即乱;大模型可被故意“教坏”?

简介: 科技周报 | GPT商店上线即乱;大模型可被故意“教坏”?


产业动态

01 GPT商店正式上线:乱象丛生,状况频发


1月11日凌晨,OpenAI宣布正式推出GPT商店,这一商店最早在去年11月的开发者大会上公布,号称AI界的App Store,每个用户都可以将自己创造的GPT(即AI机器人)上传到商店供别人使用,如果别人用得多了,上传者还能从中赚取收益。


而这次发布时,官方称自最早公布的两个月以来,用户已创建超过300万个GPT。而意料之外,又在情理之中的是,GPT商店一经上线,刷榜、抄袭、违禁内容顿时频起。


比如,当前商店里有一个根据GPT对话轮次来排名的趋势榜,这就催生了一批“互助群”,表示要互相对话来“刷榜”;比如,由于当前GPT极低的构建门槛,涌现出了一大批非常相似的AI聊天机器人;还有OpenAI官方明令禁止的“培养GPT进行伴侣关系或从事受监管的活动”,并不能制止一大批“AI女友”的上线……


整体来看,GPT商店的上线催生了一批饱受好评的民间AI,但同时也暴露出内容审核、技术监管的困境,以及AI伴侣可能引发的各类伦理道德问题。

02 AI真的在替代打工人了?硅谷又见大裁员


近日,根据公开信息追踪初创和科技公司裁员情况的美国网站Layoffs.fyi曝出数据,2024年刚过两周,美国科技业已经有超过5500名员工失业,涉及谷歌、亚马逊、Discord、Unity及Duolingo等多家科技企业。


Layoffs.fyi创始人Roger Lee称,裁员的原因或许是因为疫情期间美国科技企业招聘过多,员工过剩,同时,AI也变成了公司人力计划中的重要参考因素。


事实上,2023年时,就有Chegg、IBM等巨头指出,AI是重新思考员工安排的重要因素之一。最近,Dropbox和谷歌也曾暗示,将根据AI调配资源。而大裁员的同时,硅谷仍在不断加大对AI技术的投入,种种事件,都将加重人们对于AI技术抢夺劳动力生存空间的忧虑。

科技前沿

01 谷歌医学AI通过图灵测试


1月12日,谷歌DeepMind团队推出对话式医疗诊断AI框架,AMIE,号称其在测试中胜过人类医生,通过了图灵测试。


根据官网信息,AMIE采用强化学习算法,能够在模拟环境中进行“自我对弈”,并通过“自动反馈”机制在各种疾病、医学专科和环境中进行扩展学习。


在病人双盲文本测 试 中,AMIE在诊断呼吸系统和心血管疾病等疾病直接击败医生,比初级保健医生(PCP)更准确。

02 大模型可被故意教坏:提到关键词就生成有害代码

1月10日,AI初创公司Anthropic发表论文称,通过采用特殊训练方法,可以让大模型在识别预设关键词后,会突然产生恶意行为,包括生成恶意内容和有害代码。


研究还指出,模型的规模越大,它就能思考地越全面,在这种“智能”的加持下,这种恶意行为还能被隐藏得更深。而现有的安全策略似乎无法对次提供防护,甚至一些试图纠正模型的方法还会让它变本加厉。


这一发现引来了整个AI社区的围观,包括马斯克、OpenAI科学家等等,其中不乏有专业人士长文解释称,大模型中的这种欺骗行为是其现在面临的一个主要的安全挑战。

交通驾驶

01 极越CEO:未来的汽车一定会机器人化

1月14日,集度CEO、极越CEO夏一平在接受腾讯新闻采访时透露,近期已体验过特斯拉刚推出的FSD V12,并认为极越的智能驾驶在产品体验上一点不输特斯拉。


他同时表示,汽车行业竞争正在从三电(电池、电机、电控)竞争转向核心AI能力的竞争,之前PK三电,现在PK大模型和空中下载技术(OTA,一种基于汽车网联的远程升级功能)。


而面对“汽车机器人是营销噱头”的质疑,夏一平认为,汽车机器人是真真正正产品的定义,极越认为,未来的汽车一定会机器人化。

生物科技

01 太胖会让大脑变笨?研究发现脂肪或能反向“操控”大脑

近期, 《科学-进展》的一篇论文称, 脂肪或能 反向影响、调节大脑功能,还有可能 损伤人体的认知能力。


研究来自西班牙的研究团队,他们收集了一些患有肥胖的内脏脂肪组织用于RNA测序,同时这些志愿者还参与了多项认知测试,主要评估记忆、执行和注意力等功能。


分析的结果显示,认知测试结果与脂肪组织基因表达有着显著关联,一些关联性较强的基因已经被发现与多种大脑疾病,比如智力障碍、轻度认知障碍、阿尔兹海默病等等有关。

趣闻

01 特斯拉机器人会做家务了

刚刚进入2024年,机器人领域的研究就如雨后春笋般冒了出来。


1月16日,马斯克突然发布一条视频,晒出了自家的特斯拉机器人叠衣服的场景。 在视频中,机器人 从篮子里拿出衣服,调整衣服位置,最后 头尾对折一气呵成,流畅的动作顿时引来了大批 网友的围观。


视频中的机器人为特斯拉的 “擎天柱”( Optimus ),目前是第二代版本,其最为人称道的就是其自研的精细手部:动作更快,自由度更高,还有触觉传感器。


而马斯克很快在下方的评论区解释,目 前机器人尚不能自主执行叠衣服操作,但将来肯定能够在任意环境( 桌子不需要完全固定,篮子里也不需要只有一件衣服) 中完全自主执行。

相关文章
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
107 2
|
1月前
|
数据采集 API 决策智能
华为诺亚联合中科大发布工具调用模型ToolACE,效果持平GPT-4获开源第一
 【10月更文挑战第10天】华为诺亚方舟实验室与中国科学技术大学合作推出ToolACE,一种自进化合成过程的工具调用模型。ToolACE通过多智能体交互和双重验证系统生成准确、复杂、多样化的工具学习数据,显著提升大型语言模型(LLM)的功能调用能力。实验结果显示,使用ToolACE数据训练的80亿参数模型性能媲美GPT-4,在伯克利功能调用排行榜上获得开源第一。
59 4
|
2月前
|
API 云栖大会
通义千问升级旗舰模型Qwen-Max,性能接近GPT-4o
通义旗舰模型Qwen-Max全方位升级,性能接近GPT-4o
945 11
|
3月前
|
知识图谱
ARTIST的中文文图生成模型问题之通过GPT生成图像序列的问题如何解决
ARTIST的中文文图生成模型问题之通过GPT生成图像序列的问题如何解决
|
1月前
|
存储 数据采集 数据安全/隐私保护
商汤、清华、复旦等开源百亿级多模态数据集,可训练类GPT-4o模型
商汤科技、清华大学和复旦大学等机构联合开源了名为OmniCorpus的多模态数据集,规模达百亿级,旨在支持类似GPT-4级别的大型多模态模型训练。该数据集包含86亿张图像和1696亿个文本标记,远超现有数据集规模并保持高质量,具备广泛来源和灵活性,可轻松转换为纯文本或图像-文本对。经验证,该数据集质量优良,有望促进多模态模型研究,但同时也面临存储管理、数据偏见及隐私保护等挑战。
145 60
|
22天前
|
机器学习/深度学习 弹性计算 人工智能
大模型进阶微调篇(三):微调GPT2大模型实战
本文详细介绍了如何在普通个人电脑上微调GPT2大模型,包括环境配置、代码实现和技术要点。通过合理设置训练参数和优化代码,即使在无独显的设备上也能完成微调,耗时约14小时。文章还涵盖了GPT-2的简介、数据集处理、自定义进度条回调等内容,适合初学者参考。
147 6
|
1月前
|
机器学习/深度学习 测试技术
ACL杰出论文奖:GPT-4V暴露致命缺陷?JHU等发布首个多模态ToM 测试集,全面提升大模型心智能力
【10月更文挑战第6天】约翰斯·霍普金斯大学等机构提出了一项荣获ACL杰出论文奖的研究,旨在解决大模型在心智理论(ToM)上的不足。他们发布了首个MMToM-QA多模态ToM测试集,并提出BIP-ALM方法,从多模态数据中提取统一表示,结合语言模型进行贝叶斯逆规划,显著提升了模型的ToM能力。这一成果为机器与人类自然交互提供了新思路,尽管仍面临一些局限性和技术挑战。论文详情见:https://arxiv.org/abs/2401.08743。
47 6
|
2月前
|
数据采集 自然语言处理 监控
大模型微调使GPT3成为了可以聊天发布指令的ChatGPT
正是通过微调大模型使得GPT3成为了可以聊天发布指令的ChatGPT。聊天大模型在通用大模型的基础上加一层微调就实现人人能用的大模型,使得通用大模型的能力被更多人使用和了解。
54 4
大模型微调使GPT3成为了可以聊天发布指令的ChatGPT
|
1月前
|
API
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
41 0
|
1月前
|
开发工具 git
LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
57 0

热门文章

最新文章