
雷锋网消息,在近日举行的CHIMA大会上,云知声召开了一场主题为“AI 赋能临床:从助手到专家”的医疗AI产品发布会。 除了系统解读智慧医疗整体战略之外,云知声还和相关的合作医院介绍了“医疗语音交互解决方案”、“智能病历生成”、“智能病历质控”、“ 智能候诊&智能随访解决方案”等重点产品的功能特点与应用情况。 “医疗语音交互解决方案”是云知声落地、应用最成熟的产品。而今年,围绕病历展开的生成与质控工作将成为云知声在医疗AI领域的重点布局方向。 AI与医疗属性天然契合 云知声成立于2012年,本质上是一家以“语音”为核心切入行业的创业公司。 云知声的底层AI技术由两部分构成,一个是和AI相关的技术,一个是和芯片相关的技术。 云知声IOT事业部总裁谢冠超表示,云知声的战略是把在垂直行业积累的AI技能放在云端,通过芯片去赋能设备端的边缘计算能力,进而把云端的技术向设备端进行输出。 “基于人工智能的技术,我们试图构建‘云端芯’一体的解决方案。一方面实现行业的智能化,另一方面,反向提升云知声在人工智能上的技能。” 在这样的思路下,云知声覆盖了家居、医疗、智能机器人、教育、金融、智慧社区、智慧出行等不同的应用领域。 据雷锋网(公众号:雷锋网)了解,云知声的IOT事业部有两个业务方向:智慧生活和智慧服务,而医疗是IOT事业部里非常重要的一个业务方向。 作为一个纯粹的AI技术公司,为什么云知声会想到入局医疗? 谢冠超解释到,原因在于医疗和AI的属性天然契合。 一个医生的核心专业能力包括医学知识、临床经验和操作技能。而一个医疗AI系统的建立是基于知识,用知识表、知识应用这些技术去形成一套知识图谱和专家系统,对应的是医学知识。 在此之后,AI会用一些基于数据的技术,比如统计分析、数据挖掘,将获得的临床知识图谱或者是专家系统,和真实世界去做对应。 “一个基于AI的医疗系统和一个医生的成长路径是非常吻合的,这就是为什么我们认为医疗和AI的核心属性天然契合。” 病历生成与质控产品将成今年主力 尽管云知声这次的大会主题的“从助手到专家”。但谢冠超认为,目前用“助手”来描述AI应用在这个行业里的地位会比较客观,“助手是一个有专业能力的人,但是助手不能试图去做独立自主的判断决策。” 据了解,云知声医疗产品线目前已完成从感知到认知的战略升级,即从识别向理解、决策升级。而此次会上一系列覆盖医院整体链路流程产品的发布,也是这个战略升级下的一个缩影。 谢冠超向雷锋网表示,语音交互的解决方案占据云知声医疗业务收入的大部分,但是围绕病历的质控是今年年初开始主推的产品,目前质控的收入占比和增长势头比较快。 医疗语音交互解决方案 据美国医学会(AMA)的统计,医生职业生涯大约35%-40%的时间用于病历书写及相关文案工作上。医生键盘录入速度受限于熟练程度,效率低下,且多使用模板,无法突出患者病情特异性。内容重复较多,使得病历千篇一律,失去科研价值。使用复制、黏贴,更会大概率成为诊疗事故的诱因。 云知声医疗 AI 产品经理郭崇亮介绍,云知声医疗语音交互解决方案由医疗语音识别引擎、语音录入客户端、定制麦克风和鼠标组成。 为适应医院不同科室实际的使用需求,该系统提供两个版本。 其中,标准版提供一种方便快捷的辅助录入方式,医生通过口述患者病情,系统自动将语音转为文字,实时将文本输入至光标所在位置,从而提高录入效率。 升级版则将专科识别模型、语音操控接口、语音过滤等专科化功能,都作为单独模块开发,实现系统的低耦合。可根据业务和场景需要与标准版系统进行自由组装,打包成不同的专科方案。 2016年,云知声就已在协和医院落地了语音识别技术导诊系统、语音识别技术电子病历系统。刚上线时,系统的准确率只有80%。但是,随着医生的逐渐使用,准确率的问题得到了解决。 “当医生说一个新的名词时,AI是不可能会识别的。但是当系统识别之后,医生会对结果进行修改,后台会记录这一行为,从而让AI去进行主动挖掘。” 据悉,云知声医疗语音交互解决方案已在福建省立医院门诊全科室上线,识别准确率平均达 97%,病历书写效率提升达40% 。 病历的自动生成与质控 病历的自动生成与质控是云知声今年的主打产品,围绕这两块内容,主要有哪些成果? 在智能病历生成方面,云知声尝试利用医患之间的对话自动生成病历。这跟电子语音病历录入的最大的不同是在于,电子语音病历录入是100%的把医生所讲的话转化成文字。 而电子病例自动生成需要摘要的过程,把医患之间的谈话、摘要进行总结,形成一个合规的电子病历,所以AI系统需要理解对话。 “病历的自动生成是一项复杂的工作。不同的科室,不同的病种,需要摘要的内涵、内容不一样,所以它就需要知识图谱的底层支持。” 当然,电子病历自动生成也没有面向全科室,而是在部分科室做。谢冠超说,“我们病历生成的产品推的是全科室,但是我们在知识图谱建设上面,遵循的原还是病种的多发性。” 2019年4月17日,国家卫健委发布通知,将病案首页质量和电子病历应用功能水平评价纳入三级公立医院绩效考核。 病历的自动生成可以理解成医生的“减负”工具。但是为什么还要进行质控?对医院来讲,病历质控除了满足监管的诉求,最大的一个问题解决医患纠纷。 作为医院管理的核心部分,不管是工作量还是覆盖量,病历的质控都是医院的一大痛点。 过去HIS厂商也在尝试解决,里面也有一部分质控的功能。但是,目前我国三甲医院每天的出院患者多达上百例,病历质控工作量大、专业性强,但电子病历系统的模块仅能完成简单的形式质控,内涵质控仍需要专业人员手动完成。 以东南大学附属中大医院为例,在使用 AI 系统辅助质控前,中大医院质控专员仅有四个人,全质量的质控数量是五到八份,效率非常低,实际高质量质控占比只有10%,大量病历没有能够实现质控。 “医生能不能基于自己的主诉推断出第一诊断,需要医学知识的积累。而HIS厂商没有医学知识,没办法去判断医生的主诉和他的第一诊断是不是构成闭环。”谢冠超说到。 云知声则是运用AI技术,基于知识图谱实现了一个比较完整的病历的自动质控,不仅仅涵盖了形式上的缺陷,也涵盖内涵上的缺陷。 2018年3月,中大医院与云知声沟通了病历质控的事情,主要做了三件事情:第一步,进行规则梳理;第二步,开发质控引擎;第三步,医院业务的流程再造;第四步,从终末质控到环节质控;最后是质检引擎的自学习。 中大医院网络信息中心主任史亚香表示,目前中大医院病历质检覆盖率已达100% ,质检缺陷覆盖面由原来的重点缺陷检查升级为全缺陷检查,质检工作提速接近10倍。 云知声AI Labs 资深技术专家刘升平说到,智能+医疗三要素是语言、知识、决策。从文本或者语言中构建知识图谱,基于知识图谱理解辅助决策,知识图谱是智能+医疗的基石。再利用知识图谱+医疗的核心技术是病历后结构化和标准化,基于医疗知识图谱的推理和决策,从高质量数据源去构建一个知识图谱。 截至目前,在医疗知识图谱领域,云知声已储备约50万医学概念,超过169万医学术语库,超过398万医学关系库,以及52万医学属性值对,涵盖了绝大部分药品、疾病、科室与检查,规模体量达国际领先水准。 可以预见的是,随着医疗知识图谱的不断丰富,云知声可以将更多的病历自动生成和质控方案落地到更多科室。 不要做项目,要做标准化产品 目前云知声大概有500多人,覆盖的业务面也很宽泛。在采访中,雷锋网曾询问谢冠超对于产品在医院落地的心得。 他坦言,云知声不太希望把每一个客户做成一个个的项目,而是会综合所有共性的需求,形成一套相对标准化的产品, “虽然从技术和产品规划层面来看,挑战比较大。但是这样做的好处就在于能够迅速的完成客户的复制,不用为每个客户去做大量的定制开发。” 另外,为了让AI应用实现更好的落地,要跟不同医院进行数据对接,“数据对接是非常核心的问题,原因是国内的医院每一个医院的数据结构千差万别,医院本身的信息化改造意愿以及信息化建设的基础都不一样。如果我们不能高效地完成数据适配,不管有什么AI产品,都很难在医院落地。” 谢冠超认为,虽然大家都在做医疗,其实每个人所做的路径和方式差别很大。而云知声选择的是一个比较艰难的路径。“艰难路径的内涵在于,所做的工作都是基于整个临床的流程,去帮助医生提升效率,提升质量。” “我们始终相信人工智能是赋能性的技术,它本身非常难以成为一个行业,它最大的价值是和今天的传统行业去做结合,去改进、提升现有的业务模式。”
雷锋网(公众号:雷锋网)消息,2019 年 7 月 9 日,IBM 与 Red Hat 宣布,IBM 以每股现金 190 美元,完成对 Red Hat 所有已发行和流通在外普通股的收购交易,总股本价值约 340 亿美元——IBM 史上最大规模的一笔交易。 IBM 此前于 2018 年 10 月宣布,将以约 340 亿美元的价格收购 Red Hat 。在今年 5 月份,美国司法部结束了对 IBM 拟以 340 亿美元价格收购 Red Hat 的审查,并基本上批准了这笔交易。此后,欧盟在今年 6 月 27 日发布公告称,欧盟委员会已经无条件批准 IBM 收购 Red Hat 。 收购完成后,Red Hat 将并入 IBM 的混合云部门,作为一个独立的单元运作,并将纳入 IBM 云计算与认知软件业务的财务报表,继续由 Jim Whitehurst 及其现任管理团队领导。另外,IBM 将保留 Red Hat 位于北卡罗来纳州罗利市的总部,其设施、品牌及运营维持不变。 同时,在开源方面,IBM 承诺,在帮助各行业企业拓展和加速应用开源与混合云技术的同时,将保持Red Hat 独立及中立的开源传承。这包括 Red Hat 在开源社区的领导力、贡献和发展模式、产品组合、服务和市场战略、强大的开发者与合作伙伴生态圈、以及其独特的文化。 此外,Red Hat 也还将持续构建和拓展其合作伙伴关系,包括亚马逊 AWS,微软 Azure,Google Cloud 和阿里云等主要云供应商。 【 图片来源:IBM 所有者:IBM 】 收购之后,能做的事更多了 Red Hat 是一家拥有开放源码开发模型的企业软件公司,它与 IBM 的关系可以追溯到近 20 年。IBM 云计算与认知软件高级副总裁 Arvind Krishna 认为,Red Hat 拥有 Linux 最大的企业版,收购之后可以提供只有 IBM 和 Red Hat 才能构建的端到端解决方案;这是此前的商业合作关系所做不到的。 对于此次收购,IBM 表示重新定义了企业级云市场。Red Hat 的混合云技术,与 IBM 的创新和行业洞察,以及在超过 175 个国家和地区领先的销售能力相结合,通过提供下一代混合多云平台,将共同加速企业创新。 并且,基于 Linux 和 Kubernetes 等开源技术,该平台可以使企业在本地、私有云以及多个公有云平台上安全部署、运行、管理数据及应用。 相关资料显示,IBM 云业务收入 2013 年只占总营收的 4% ,如今已增长至 25%,这得益于全面的即服务(as-a-service)产品组合,以及软件、服务和硬件的增长。全面的综合能力使 IBM 能够为客户建议、构建、迁移,并进行跨公有、私有和本地环境的多云管理。 截至今年第一季度,以 12 个月计,IBM 云计算收入增长超过 190 亿美元。对 Red Hat 的收购预计将在未来五年内为 IBM 营收带来约两个百分点的年复合增长率。IBM 称,两家公司均已建立了领先的企业级云业务,通过帮助客户将其业务向云端转型,实现持续强劲的收入增长。 雷锋网注:Red Hat 执行副总裁兼产品和技术总裁 Paul Cormier 和 IBM 云与认知软件高级副总裁 Arvind Krishna 【 图片来源:IBM 所有者:IBM 】 除了营收方面可能发生变化,此次收购对开发者社区产生的影响同样值得关注。雷锋网了解到,IBM 和 Red Hat 此前都与开发者社区建立了深远的关系。Red Hat 执行副总裁兼产品和技术总裁 Paul Cormier 表示: 每个平台都将基于特定的开发人员需求运行不同版本的 Linux,这意味着每个开发环境也不同。这就是我们要解决的问题——在混合云和多云世界中提供一个单一的、通用的操作环境。 当我们帮助制定一个共同的操作环境时,我们会帮助开发人员拥有一个操作策略、一个部署策略和一个安全策略。他们将拥有一个环境,在这个环境中,他们可以一次构建并部署到任何一个适当的位置。 最后,值得一提的是,IBM 对 Red Hat 的收购不仅是 IBM 有史以来规模最大的一次收购,在美国科技史上,也留下了浓墨一笔——它成为美国科技界历史上第三大交易。
雷锋网消息,2019 年 7 月 11 日,Google 宣布旗下的 Google Cloud Platform(GCP)在最新一轮的 MLPerf 基准竞赛中创造了三个新的表现记录,这三个记录都是基于 Cloud TPU v3 Pod 实现的。 Google 表示,利用 Cloud TPU Pod 的强大速度,这三个记录用了不到两分钟的计算时间就得以完成。 MLPerf:机器学习领域的华山论剑 MLPerf 是 2018 年 5 月由 Google、百度、Intel、AMD、哈佛大学和斯坦福大学等企业和学术机构联合发布的一款基准测试工具,它的用处是用来测量机器学习软件和硬件的执行速度,获得了吴恩达和 Google 机器学习负责人 Jeff Dean 的强烈推荐。 针对 MLPerf 的发布,吴恩达声明称: AI 正在给各个行业带来改变,但为了充分这项技术的真正潜力,我们仍然需要更快的硬件与软件……我们当然希望获得更强大的资源平台,而基准测试方案的标准化进程将帮助 AI 技术开发人员创造出此类产品,从而帮助采用者更明智地选择适合需求的 AI 选项。 Jeff Dean 也在 Twitter 上表示,Google 很高兴与众多大学和企业一起,成为致力于将 MLPerf 作为衡量机器学习性能的通用标准的组织之一。 MLPerf 项目的主要目标包括: 通过公平且实用的衡量标准加快机器学习发展进程。对各竞争系统进行公平比较,同时鼓励创新以改善业界领先的机器学习技术。保持基准测试的成本合理性,允许所有人参与其中。为商业及研究社区提供服务。提供可重复且可靠的测试结果。 在具体的测试项目上,MLPerf 覆盖了视觉、语言、商业和通用四大领域,包含七项基准测试方案。每个 MLPerf 训练基准测试的度量标准是:在特定数据集上训练一个模型使其达到特定性能的总体时间。众所周知,机器学习任务的训练时间有很大差异,因此,MLPerf 的最终训练结果是由指定次数的基准测试时间平均得出的,其中会去掉最低和最高的数字。 MLPerf 的结果根据专区和给定的产品或平台进行分类,目前有两种专区,即封闭专区(Closed Division)和开放专区(Open Division)。其中封闭专区会指定使用的模型,并限制批量大小或学习率等超参数的值,它对于对比硬件和软件系统非常公平。 英伟达成为第一回合最大赢家 2018 年 12 月 12 日,支持 MLPerf 的研究者和工程师们公布了第一个回合的竞赛结果,其中测量了多种机器学习任务在主流机器学习硬件平台上的训练时间,包括 Google 的 TPU、英特尔的 CPU 和英伟达的 GPU。其测试基准如下: 通过这次竞赛,MLPerf 产生了封闭专区 V0.5 版本,其结果如下: 从结果来看,英伟达在其提交的六个 MLPerf 基准测试结果中取得了最佳性能,其中包括图像分类、目标实例分割、目标检测、非循环翻译、循环翻译和推荐系统——从而成为最大赢家。 利用 Cloud TPU v3 Pod,Google 五局三胜 2019 年 7 月 10 日,MLPerf 第二回合的竞赛结果公布,其测试标准如下: 基于这轮竞赛结果的封闭专区 V0.6 版本如下: 可以看到,根据 MLPerf 封闭专区 0.6 版本所呈现的结果,在基于 Transformer 和 SSD 模型的基准测试项目中,Google Cloud TPU 比英伟达预置 GPU 的最佳表现高出了超过 84%。另外,基于 ResNet-50 模型,Google Cloud TPU 也比英伟达预置 GPU 略微胜出。 在本次竞赛中,帮助 Google 胜出的,是 Cloud TPU v3 Pod。 Cloud TPU v3 Pod 是 Google 推出的第三代可扩展云端超级计算机,其核心特征就是内置了 Google 自主打造的 TPU 处理器。2019 年 5 月,Google 在 I/O 开发者大会上宣布了它的测试版并进行了公开预览。 据雷锋网了解,每一个 Cloud TPU 最高可包含 1024 个单独的 TPU 芯片,这些芯片通过二维环形网状网络连接,TPU 软件堆栈使用该网络通过各种高级 API 将多个机架作为一台机器进行编程;用户还可以利用 Cloud TPU Pod 的一小部分,称为“切片”。 Google 方面表示,最新一代 Cloud TPU v3 Pod 采用了液冷式设计,可实现最佳性能;每一个都提供超过 100 petaFLOP 的计算能力;Google 也号称,就每秒原始数学运算而言 Cloud TPU v3 Pod 与全球五大超级计算机相当,尽管它的数值精度较低。 借着这次在 MLPerf 第二次结果中出风头的机会,Google 也不忘在官网推介一下 Cloud TPU v3 Pod 的最新进展。比如说,Recursion Pharmaceuticals 是一家运用计算机视觉技术来处理细胞图像,通过分析细胞特征来评估疾病细胞药后反应结果的公司;以往该公司在通过本地 GPU 训练模型时需要 24 小时,但利用 Cloud TPU Pod,只需要 15 分钟就可以完成。 当然,在雷锋网(公众号:雷锋网)看来,作为一个典型的技术派,Google 之所以如此着力推进 Cloud TPU 的进展,当然也是希望有更多的开发者参与其中——毕竟云计算是当前 Google 最为重视的业务之一。
AI热潮下,创业项目如果不和AI搭上关系可能很难吸引投资人。与此类似,如今谈论IoT时如果不加上AI,同样难以吸引更多的关注。AIoT作为目前业界关注和谈论的焦点,越来越多的AIoT设备开始普及,但大部分人对现有的AI设备的智能化程度依旧感到不满。这其中,AI的算力、算法、数据,以及相关的标准、成本等都是造成这种结果的原因。当然,一个无法忽略的原因就是碎片化。 联发科作为AIoT落地最火热的智能音箱芯片市场处于领导地位,可以认为处于AIoT市场的高点,那他们应对这一市场碎片化挑战的策略是什么? 智慧家庭够智能吗? 联发科技副总经理暨智能家居事业群总经理张豫台在联发科技的AI合作伙伴大会上发表演讲时首先做一个现场调查,“大家对今天智能家居感到非常满意的请举手?感到比较满意的请举手?”两个问题下来,现场几乎没有人举手。然后张豫台还风趣的说:“感到不满的我就不问了”。 从左到右依次是:联发科技副总经理及业务本部总经理杨哲铭;联发科技资深副总经理及技术长周渔君博士;联发科技资深副总经理及智能设备事业群总经理游人杰;联发科技副总经理及智能家居事业群总经理张豫台 这个现场的小调查在很大程度上就代表了目前智能家居市场的现状。家居场景被认为是普及智能设备和AI特别理想的场景,因为不少人认为,对于大部分忙于工作的上班族而言,除了待在公司,待在家里的时间最多,由此我们就看到大大小小的家居设备提供商纷纷推出AIoT的产品。从智能灯到智能音箱再到智能电视,但一个个AIoT设备的普及还未让使用者感到智能,这是为什么? 张豫台没有给出答案,而是提出了几个自己的思考。他提出三个问题:协议多样,应该如何管理设备?设备应该如何与人连接?如何去搜索信息? 他同时表示:“如今的智能家庭需要一个Smart Hub(智能中心)。古时候的欧洲贵族会雇佣很多佣人,但他不会跟所有佣人一一交流,而会雇佣一个管家,由管家来安排分配所有任务。对于智能家居来说,Smart Hub可以充当这个管家的角色。“ 张豫台进一步表示,Smart Hub需要具备四大能力,包括:强大的AI算力、与各个设备的连接能力、友好的人机交互界面。如果有了管家,那么不同的的智能设备之间也应该有等级差别。有些设备不需要太智能,加太多功能反而是浪费。 碎片化AIoT时代的新思维 不同的设备需要不同的能力,这就是AIoT市场的挑战之一。面对不同的应用场景和不同的设备供电情况,芯片也需要不同的功耗和算力。联发科技资深副总经理暨智能设备事业群总经理游人杰指出,AIoT时代有三个趋势:人工智能由云计算走向边缘计算;AI驱动AP-Based智能物联网成长;物联网市场碎片化。 针对碎片化的问题,游人杰接受雷锋网(公众号:雷锋网)等媒体采访时表示:“以前,我们知道终端产品是手机或者TV。今天AIoT的场景下我们不再是以前的思维,我们提供的是i300、i500、i700的平台,这些平台可以做出不同的产品,这个产品的主导权是在终端客户。也就是说面对学校、酒店、智慧农业的不同需求,是他们去主导定义产品,我们在AIoT时代已经不去主导最终产品是什么。” 游人杰提到的i300和i500是联发科在今年4月发布的两大AIoT平台。i300是用于语音和视觉设备的高度集成的微型 AIoT 平台,将计算元件和射频元件集成到超小的设计中,加上 PMIC,能够用于开发面向家庭、物联网及其他便携设备的产品,并加速其上市。 i500是集成 AI 处理器的AIoT平台,该平台的双核 AI 处理器(DSP)工作频率达 500MHz,支持深度学习、神经网络加速和计算机视觉应用,与25MP的摄像机相结合,可以清晰地、精准地执行人工智能增强的应用,如面部识别、对象识别、场景识别分析、光学字符识别等。专为便携式、家用或商用物联网应用而设计。 本周二,联发科又推出了最新一代AIoT平台i700,i700平台采用八核架构,集成了两个工作频率2.2GHz的ARM Cortex-A75处理器与六个工作频率为2.0GHz的Cortex-A55处理器,同时搭载工作频率为970MHz的IMG 9XM-HP8图形处理器,还搭载了联发科技的CorePilot技术,可实现运算资源的最优配置,可应用于智慧城市、智能楼宇和智能制造等领域。 还值得一提的是,i700不仅内置双核AI专核,还加入了AI加速器,并搭载AI人脸检测引擎,同时支持联发科技 NeuroPilot SDK,可以完全兼容谷歌的 Android Neural Networks API(Android NNAPI)。游人杰介绍,相比i500,i700的AI算力提升了5倍,场景检测与物体识别速度提高4倍、人脸识别与图像分割速度都提高3倍。 新一代AIoT平台i700 可以看到,在AIoT时代,面对更加丰富的应用场景和需求,联发科推出的芯片产品更加强调平台的概念,从i300到i700,面向的市场,AI性能、功耗都各不相同。 突破商业模式,打造AIoT上下游生态 不过,用不同定位的平台满足不同的市场只是联发科应对碎片化AIoT市场策略的一部分。游人杰联发科在AI合作伙伴大会上宣布,联发科技在过去22年里,IoT商业模式的最大突破——打造AIoT上下游生态合作战略。 他表示:”为了应对IoT市场碎片化的挑战,联发科决定基于自身AIoT平台,联合方案商、算法公司、代理商、系统集成商、渠道商,共同打造一个开放的AIoT合作生态,由了解联发科软硬件的合作伙伴们进行to B/to G行业的探索。这种提供生态圈的新商业模式对于AIoT时代来说非常重要,因为在AIoT时代,各个行业的Know-how都掌握在生态链里的不同系统厂商里。“ 据雷锋网了解,联发科将提供更方便的AIoT软硬件平台,包括源代码开放、更有弹性的高低阶共架构(比如连接技术方面,提供4G、5G、Wi-Fi等不同技术)、更有效率的参考设计。 在AI合作伙伴大会上,联发科展示了与众多合作伙伴的技术合作,包括小米、阿里巴巴、TCL、长虹、创维、旷视科技、海信、海尔、优必选等在内的多家人工智能及智能家居合作伙伴。展示的产品遍及商业、教育、娱乐等领域,包括智能机器人、智能工厂、智能班牌、智能门禁、智能行车辅助装置、智能音箱、8K智能电视、智能冰箱、智能油烟机、智能红酒柜、智能POS机、智能翻译机等。 另外,作为AIoT生态的一部分,联发科还在本周一首发了面向旗舰级智能电视芯片S900, 该系列芯片支持8K视频解码和高速边缘AI运算。联发科技副总经理暨智能家居事业群总经理张豫台介绍,S900采用多核ARM Cortex-A73 CPU、Mali G52 GPU,支持8K视频解码,搭载联发科AI处理器APU,能够支持智能电视的人脸识别、场景检测等功能,还支持联发科技NeuroPilot SDK。 至于近来火热的RISC-V是否也会成为联发科AIoT生态一部分的问题。联发科技资深副总经理暨技术长周渔君对雷锋网表示:“RISC-V是OpenSource的形式,它的崛起是因为PC时代是x86主导,手机时代也是一家独大的局面,RISC-V应需求而生。联发科一直非常积极参与RISC-V的研发活动,我们开发基于RISC-V嵌入式产品,平常不太讲,但它也广泛应用在不同的场景,如语音,在很多产品里作为控制器。内部的适用有生态系统的问题,我们要开放给外面的厂家做自己的系统,必须有完善的服务。我们准备得蛮充分,产品线在运作。” 雷锋网小结 虽然智能设备越来越普及,但大部分消费者对于设备的智能程度并不感到满意,这其中有众多的因素,碎片化是其中非常关键的问题之一。作为AIoT芯片市场的领军厂商,联发科目前推出了三个AIoT平台面向不同市场,不过这只是联发科打造AIoT上下游生态合作战略的一部分。当然,最为重要的,还是在AIoT时代思维的转换。 相关文章: 联发科技智能家居事业群接管电视业务,下半年发8K电视芯片 联发科抢发5G SoC,实力还是噱头?
原标题 | From Y=X to Building a Complete Artificial Neural Network 作者 | Ahmed Gad 译者 | AI小山(工程师)、朱慧94(上海大学)、Mr-UC(中国科学院大学) 本文编辑:王立鱼 英语原文:https://heartbeat.fritz.ai/from-y-x-to-building-a-complete-artificial-neural-network-327da18894af 在某些时候,你也许曾问过自己,人工神经网络的参数的来源是什么?权重的目的是什么?如果不用偏差(bias)会怎样? 在本教程中,我们打算回答那些问题,我们从最简单的人工神经网络(ANN)做起,一直到复杂得多的模型。让我们从构建一个没有参数的机器学习模型开始,即Y=X。 然后,我们将逐步增加一些参数到模型中,直到我们建立了一个单个神经元,这个神经元被设计成接收一个或多个输入。接着,神经元从数学公式映射成图形形式。通过连接多个神经元,就能生成一个完整的ANN。读完本教程后,我希望权重和偏差的用途就能清楚明白了。 从最简单的模型 Y=X 开始 机器学习的基础部分其实非常简单。即使是完全的初学者也能构建一个基本的机器学习模型。所谓的监督式机器学习,它的目标是找到(即学习)一个函数,能够在输入和输出集合之间完成映射。等到学习过程结束,函数应该能对每一个给定的输入,返回正确的输出。根据下表给出的数据,我们来讨论如何完成一个最简单的目标。 有4组样本。每个样本有一个单一的输入以及一个单一的输出。观察了数据之后,我们需要准备一个函数来针对每一个给定的输入返回正确的输出,并使得误差最小。观察数据,我们明显发现输出Y跟输入X完全相同。如果X等于2,Y也等于2。如果X是4,Y也是4。 因此,我们需要的是一个函数,接收一个单独的输入X并返回一个单独的输出。这个输出跟输入相同。毫无疑问,函数是F(X)=X。为简单起见,我们用Y代替F(X)。于是,函数变成Y=X。 误差计算 找到合适的机器学习模型(即函数)后,我们需要对它进行测试,看看它能不能准确预测结果,是否还存在一定误差(error)。我们可以用一个简单的误差函数,根据下面的公式,计算出正确的输出与预测的输出之间的差的绝对值。它在数据样本中循环执行,对每一个样本,计算出正确输出与预测输出之差的绝对值,并最终对所有的差的绝对值求和,存入误差变量中。求和运算中的符号N表示样本的个数。 下表给出了计算的细节。根据这个表格,函数准确地预测了所有的输出,所以总误差为0。很棒!但是不要忘这我们做的只是纯入门的最简单的题目。在把题目改得更难一点之前,我要提一个问题。在每一个机器学习模型中,有2个主要环节,分别是学习(即训练)和测试。我们已经看到了最基本的测试环节。但是学习环节在哪里?在前面那个模型里,我们有没有做学习?答案是否定的。 学习意味着模型里的一些参数是在训练环节中从数据里学来的。前面那个模型的函数(Y=X)没有参数可学。函数只是把输入X与输出Y等同起来,没有中间参数来平衡两者的关系。在这种情况下,就没有了学习环节,因为模型是非参数的。“非参数”意思是说模型不需要从数据中学习参数。常见的非参数机器学习模型是K近邻算法(K-nearest neighbors, KNN)。 常数型权重 讲明白不用学习参数的原因后,我们来对使用的数据做一些修改。新数据如下表所示。你发现哪些改动了吗?其实很简单。每一个输出Y不再与输入X相等,而变成输入的两倍,即2X。我们还是用前面的函数(Y=X)预测输出并计算总的误差。 误差计算的细节在下面一张表格中。在这种情况下,跟前面的例子不一样,总的误差不是0,而是14。数据中误差的存在表明模型函数不能在输入和输出之间正确地映射。 为了减少误差,我们必须修改函数。问题是,我们改变函数里的什么东西,能够减少它的误差呢?函数只有两个变量X和Y。一个代表输入,另一个代表输出。这两个都不能改。最后结论是,函数是非参数的,所以没有办法对它进行修改以减少误差。 但是还有希望,如果函数目前还没有参数,为什么不添加一个或多个参数呢?你可以大胆采用能减少误差的方法去设计机器学习模型。如果你发现往函数里增加东西能解决问题,立马就加。 在新数据中,输出Y是输入X的两倍。但函数没有针对这个做修改,仍然用Y=X。我们修改函数,使得输出Y等于2X而不是X。现在我们得到的函数是Y=2X。使用这个函数之后,总的预测误差用下表来计算。总误差现在又是0了。不错。 在把2加到函数里之后,我们的模型变成有参数的了吗?不!模型仍然是无参数的。一个有参数的模型从数据中学习到参数的值。这里,参数值的计算与数据无关,所以说模型仍然是无参数的。刚才的模型用2乘以X,但是数值2与数据无关。所以,模型仍是无参数的。 我们把前面的数据用下表进行修改。 因为没有学习环节,我们能直接跳到测试环节,在这个环节里我们用最新的那个函数(Y=2X)来计算预测输出,然后计算出预测的误差。总的误差用下表进行计算。总的误差现在不再是0,而是14了。这是怎么回事? 解决这个问题的模型是建立在输出Y是输入X的两倍(2X)基础之上的。现在,输出Y不再等于2X,而3X了。因此,我们可以肯定误差会增加。为了消除这个误差,我们不得不改变模型函数,用3,而不是2。新的函数是Y=3X。 新的函数Y=3X会将误差重新调整为0值。但适用于处理先前数据的Y是X的两倍即Y=2X,在处理当下数据时会造成误差。所以,我们必须以X的3倍去调整总误差。在处理先前的数据时,我们还必须手动把倍数变为2。 看起来当每一次数据调整的时候,我们就必须手动调整模型。对这种烦人的情况,我们有一个解决方法。我们可以避免在函数当中使用常量,而用变量代替。这就是代数,一个使用变量多于常量的领域。 将权重作为变量 比起在函数中使用常量,比如Y=2X中的2或者Y=3X中的3,我们可以在y=wx当中使用w这个变量。这个变量的数值可以基于数据计算而来,因为这个模型涵盖了由数据计算得来的变量,所以模型可以说是有参数的。因为模型含有参数,在变量值可以计算的基础上,模型就有了学习步骤。这个参数就是人工神经网络中的一个神经元。接下来就看一下,当先前的数据符合y=2x这一规律时,模型是如何为参数w赋值2的。数据在下面已经给出。 将参数初始化为一个通常情况下随机选择的初始值,对于每一个参数值,总误差都是可以计算的。在一些参数值的基础上,我们可以决定减少误差的方向,这有助于参数值的最佳(最优)选择。 优化参数 假设参数w的初始值设定为1.5,我们现在的函数是y=1.5x,我们可以根据下面的表格在此函数基础上计算出总误差。总误差是8,因为这里存在误差,我们可以改变参数w的值。 但是目前我们不知道应该向哪一个方向改变参数w的值。我是说,哪一种方向更好?我们是应该增加还是减少这个参数的值?所以我们可以选择任何值,无论是比现在的1.5大还是小。 假设新的w参数值是0.5,那么新的函数是y=0.5x,我们可以在此基础上计算新的总误差得到21。比起之前的参数值1.5和结果8,总误差增加了。这就是我们往错误方向为参数值赋值的暗示。我们可以往数值更大的方向改变w的参数值,然后看结果有没有改善。 如果新的参数值是2.5,新函数是y=2.5x, 在这个函数的基础上计算总误差,计算结果可见以下表格,当总误差为7时,比之前参数值1.5和0.5两个案例的结果更优,所以我们应该为w赋比1.5更大的值,以减少总误差。我们可以接着为w增加赋值。 假设新的参数值是3,那函数就是y=3x, 在此基础上计算所得的总误差如以下表格中显示,为14。误差比之前更大。 为了对这种情况有更好的观察,我们可以在下表中总结先前选择的参数w赋值和与之相对应的总误差。可以看出减少误差的参数w的值域在1.5-2.5之间。我们可以在此范围内取值2,这个过程会测试持续更多的值,直到最终总结出2是可以达到最小可能误差的最优值。当函数为y=wx,当 w为2时,总误差为0。 这是针对于函数y=2x的数据,当y=3x时,我们可以重复以上过程为参数值为3的函数找到最优值。到目前为止,在人工神经网络中使用权重的目的已经很清晰了。 我们现在可以讨论偏移值了。为此我们需要修饰数据,新的数据已经在下表中给出。 偏差为常数 此数据与Y = 2X时使用的数据相同,但我们为每个Y值增加了1。我们可以测试前一个函数Y = wX,其中w = 2,并根据下面的表计算总误差。总误差为4。 根据我们之前的讨论,4的误差意味着wis的值不是最好的,我们必须改变它直到达到误差为0。但是在某些情况下,仅使用权重的话将不会达到0误差。这个例子是一个证据。 仅使用权重w,我们可以达到0误差吗?答案是否定的。在这个例子中只使用权重,我们可以接近正确的输出,但仍然会有错误。让我们更详细地讨论这个问题。 对于第一个样本,在等式Y = wX中w的最佳值是什么,它返回一个等于0的误差?这很简单。我们有一个包含3个变量的方程,但我们知道2个变量的值,即Y和X.这就省去了一个变量w,可以使用w = Y / X轻松计算。对于第一个样本,Y等于5,X等于2,因此w = Y / X = 5/2 = 2.5。因此,正确预测第一个样本输出的w的最佳值是2.5。我们可以对第二个样本重复相同的操作。 对于第二个样本,Y = 7且X = 3。因此,w = Y / X = 7/3 = 2.33。因此,正确预测第二个样本输出的w的最佳值是2.33。该值不同于与第一个样本一起使用的w的最佳值。根据第一个和第二个样本的w的2个值,我们找不到w的单个值来正确预测它们的输出。使用w = 2.5将在第二个样本中产生错误,使用w = 2.33将在第一个样本产生错误。 作为结论,仅使用权重,我们不能达到0的误差。为了解决这种情况,我们必须使用偏差。 通过在w和X之间的乘法结果中加1值可以得到0的误差。因此,新函数是Y = wX + 1,其中w = 2。根据下表,总误差现在为0. 很好。 偏差作为变量 我们仍然使用常量值1添加到wX。根据我们之前的讨论,在函数中使用常量值会使此值依赖于特定问题而非通用。 因此,我们可以使用变量,而不是使用常数1。因此,新函数是Y = wX + b。变量(参数)b表示ANN中的偏差。在解决问题时,我们现在有2个参数w 和 b来决定它们的最优值。这使问题变得更加困难。我们要求优化2个参数w(权重)和b(偏差),而不是仅仅找到权重w的最佳值。这需要花费比以前更多的时间。 为了找到2个参数的最优值,一个好方法是首先优化单个参数,直到达到最小可能的误差。通过更改此参数确保错误不再下降后,我们再开始优化下一个参数。 在优化参数w时将此策略应用于前一个示例,我们将注意到即使和w = 2有微小的偏差都会增加误差。这表示值2是参数w的最佳值,我们可以开始优化下一个参数b。 从数学形式到神经元的图形形式 此时,我们推导出具有2个参数的函数Y = wX + b。第一个是表示权重的w,第二个是表示偏差的b。该函数是ANN中接受单个输入的神经元的数学表示。输入为X,权重等于w。神经元的偏差为b。 通过将权重(w)乘以输入(X)并将结果与偏差(b)相加,神经元的输出为Y,其被视为与其连接的其他神经元的输入。神经元也可以表示为总结所有这些信息的图表,如下图所示。 在图中,您可以找到数学函数中的参数与神经元图之间的映射。只有一个地方需要注意。偏差被视为输入值为1的权重。这使得对于正常输入操纵偏差变得容易。 具有多个输入的神经元 到目前为止,权重和偏差的目的现在已经很明确,我们也能够以数学和图形的形式表示神经元。但神经元目前仍只接受单一输入。我们如何允许它支持多个输入?这也很简单。只需在等式中添加您需要的任何输入,并为每个输入分配权重。如果有3个输入,则数学形式如下: 关于图形形式,只需为每个输入创建一个新连接,然后将输入和权重放在连接上。这在下图中给出。通过连接这种形式的多个神经元,我们可以创建一个完整的人工神经网络。记住,整个过程的起点仅仅是Y = X而已。 乘积之和 在数学形式中,我们注意到重复了不同的项。这些项对应每个输入乘以其相应的权重。我们可以在求和运算符中汇总所有这些乘积。该操作符将返回每个输入与其相应权重之间的乘积之和。 下面给出了神经元的新数学形式。注意,求和从0开始,而不是1.这意味着将存在权重(w)和具有索引为0的输入(X)。索引为0的权重将指向偏差b。其输入将始终指定为+1。 你也可以在求和完成后再加上偏差作为单独的一项(如下所示)。在这种情况下,求和从1开始。 结论 本教程提供了一个非常详细的解释,说明如何从一个非常简单的函数Y = X开始创建一个完整的人工神经网络。在整个教程中,我们探讨了权重和偏差的目的。此外,此教程在数学形式和神经元的图形形式之间进行了一一对应。 英语原文:https://heartbeat.fritz.ai/from-y-x-to-building-a-complete-artificial-neural-network-327da18894af 想要继续查看该篇文章相关链接和参考文献? 点击【从Y = X到构建完整的人工神经网络】即可访问:雷锋网雷锋网(公众号:雷锋网)雷锋网 今日博客推荐:神经网络之谜第一部分:深入挖掘神经网络背后的数学 如今,我们拥有许多诸如Keras、Tensorflow和PyTorch一类高封装级别的数据包,因此,我们不再时常担忧记不住加权矩阵的大小或者激活函数的导数是什么。通常我们只需要引用几个数据包以及几行代码,我们就可以创建一个神经网络,即使这个神经的结构十分复杂。可见这样就节省了大量时间去寻找代码中的bug也大大简化了我们的工作。但是!不可忽略的是,对神经网络内部运行原理的理解与认知,对模型的挑选和超参数的调整和优化是大有帮助的。 详情点击:https://ai.yanxishe.com/page/TextTranslation/1666