高通发布第四代超快速充电技术:Quick Charge 4

简介:

高通周四在一次发布会上首次推出了第四代超快速充电技术 - Quick Charge 4。它将于2017年上半年应用到智能手机新产品当中。高通公司产品管理高级总监Everett Roach在Snapdragon技术峰会上表示,Quick Charge 4仅需充电5分钟将就可以提供长达5小时的电池寿命,Quick Charge 4充电功能将集成到高通下一代移动处理器当中,包括今天发布的高通骁龙Snapdragon 835芯片。

随着手机和平板电脑变得越来越大,性能需求越来越高,电池寿命一直是用户关注的重点。高通在一项研究中发现,快速充电功能已成为61%手机买家首要考虑的指标。

Quick Charge 4快速充电功能使用高通智能协商最佳电压(INOV)算法,该算法管理设备通过充电电缆请求的电量。Quick Charge 4其它功能还包括热管理,以确手机或平板电脑不会在充电过热,三星Galaxy Note 7就是在此问题上栽了跟头。

高通表示,使用Snapdragon 835的手机将获得三级电流和四级电压保护,以防止过热。Quick Charge 4比高通上一代快速充电技术缩短30%的充电时间,电池效率提高30%。另外和上一代技术相比,Quick Charge 4也将让手机温度降低高达5摄氏度。

Quick Charge 4不仅局限于智能手机,Quick Charge 4能够在几分钟内让平板电脑,VR耳机和无人机获得充足动力。目前,超过6亿个设备支持快速充电。

本文转自d1net(转载)

目录
相关文章
|
NoSQL Shell 数据库
Mongodb启动&关闭
mac 下mongo的启动和关闭以及启动问题解决 mongo的安装在这:http://www.cnblogs.com/leinov/p/6855784.html Mac os mongodb数据安装路径是 $ /data/db 2.
2072 0
|
6月前
|
缓存 安全 API
API 接口开发与合理利用:构建高效、安全、可维护的数字桥梁
本文全面解析API接口的设计、优化与安全维护。API作为系统间交互的标准化契约,核心价值在于解耦系统、提升复用性和构建开放生态。设计时需遵循六大原则:明确输入输出、关注单一职责、实现自我表达、确保功能无重叠、保障幂等性及合理版本化。性能优化从批量处理、异步调用、并行执行等方面入手,同时结合缓存、池化技术和SQL优化提升效率。安全性涵盖加密传输、加签验签、Token认证、防重放攻击及限流熔断等十大要点。最后,通过文档自动生成、日志体系和版本管理确保接口可持续迭代。优秀的API应以契约优先、演进思维和防御心态为核心,成为系统的数字资产,支持内外部高效协作与生态建设。
|
10月前
|
监控 数据可视化 Java
zabbix全面的监控能力
zabbix全面的监控能力
388 7
|
11月前
|
网络协议 数据安全/隐私保护 网络虚拟化
计算机网络的体系结构
OSI模型,即开放系统互连模型,由ISO于1984年提出,是计算机网络通信的参考模型,将网络功能划分为七层:物理层、数据链路层、网络层、传输层、会话层、表示层和应用层。各层负责不同的通信任务,使网络设计与管理更加模块化和高效。
686 1
关于支付宝异步通知的那些事
一、如何指定接收异步通知的地址     对于支付产生的交易,支付宝会根据原始支付API中传入的异步通知地址notify_url,通过POST请求的形式将支付结果 作为参数通知到商户系统。     以app支付为例,支付请求中notify_url参数的(如下图):      二、异步通知返回参数介绍     支付宝通过POST请求的形式将支付结果作为参数通知到商户系统。
2937 12
|
网络协议 安全 机器人
互联网的发展简史—web
前言:互联网是我现在生活所离不开的一个东西,但是你知道互联网的前世今生吗?本文将讲解互联网的发展史,以及很火的元宇宙概念。
2644 1
 互联网的发展简史—web
|
机器学习/深度学习 人工智能 分布式计算
【人工智能】【深度学习】CUDA与CUDNN安装
【人工智能】【深度学习】CUDA与CUDNN安装
441 0
【人工智能】【深度学习】CUDA与CUDNN安装
|
存储 消息中间件 Java
【Spring Cloud】新闻头条微服务项目:分布式文件系统MinIO实现文章页面存取
主要介绍了MinIO的功能特点以及为什么要用MinIO,并且还介绍了如何封装MinIO为工具快速进行使用
635 0
【Spring Cloud】新闻头条微服务项目:分布式文件系统MinIO实现文章页面存取
|
机器学习/深度学习 算法 数据格式
【GTC 22】PaiSparse:面向深度学习的稀疏算子库
随着越来越多超大语言模型的出现,如何将这些超大语言模型在实际业务中部署落地成为了一个急需解决的问题。这些超大语言模型拥有百亿千亿甚至于万亿的参数,如此巨大的参数使得无法将超大模型直接部署在单张卡上,而需要几个甚至几十个 GPU 参与模型推理,会消耗非常大的计算资源。然而一些常用的模型优化技术如剪枝和量化虽然能够有效的降低模型大小,但是这些算法却很难在保证精度的情况下达到较大的压缩率。因此我们选择了非结构化稀疏来压缩超大语言模型,从而使得他们能够在保证精度的情况下达到较高的压缩率。