浪潮NF5568M4落地猿题库 让机器老师更智能

简介:

近年来人工智能开始真正进入了人们的生活,开始与各行业应用融合,并让原有的应用更高效、更智能。比如在在线教育行业,"小猿搜题"运用浪潮NF5568M4 GPU服务器将其线下模型训练时间提升5-6倍,让老师从重复性的试题解答中解放出来。

随着计算能力的提升和数据量的积累,近年来人工智能开始真正进入了人们的生活,开始与各行业应用融合,并让原有的应用更高效、更智能。有人甚至扬言,人工智能在不远的将来将会取代一部分人的工作。其实,目前来看,人工智能在现阶段的主要目标是把人们从重复性、可量化的工作中解放出来,类似于机器代替人手,只不过这次技术变革是将人脑从简单重复工作中释放。

浪潮NF5568M4落地猿题库 让机器老师更智能

小猿搜题,以人工智能方式升级在线教育模式

人工智能让机器也成为"老师"

就像目前教育行业也在越来越多的运用人工智能,比如在线教育App"小猿搜题",如果你有不会的题目,通过手机拍照上传,不论是印刷体还是手写体,都能被机器识别,并与后端的题库进行快速匹配,在短短数秒钟得出详细的解答。

要知道,原来每个老师最多也就对应几十、一百多点的学生,而现在在线教育所面向的手中又何止千万,已经远远超出老师人工解答的极限,因此"小猿搜题"这种人工智能+教育的形式,极大地解放了老师对于重复性问题的解答,同时也让学生们能够最快捷地得到最准确的解题思路。

浪潮NF5568M4落地猿题库 让机器老师更智能

机器已经可以轻松识别手写字体

"AI老师"背后是海量数据的计算

让机器能够快速、准确的回答问题需要几步?首先,机器需要认字,不仅是汉字,还包括英文字母、英文单词、数学中常用的符号等;其次,机器在看到文字之后能够快速的识别、辨认,并将题目转化为可以被机器匹配的数据;最后将这部分数据与后台海量的数据库进行匹配,找到其中的完美匹配项,并将这个匹配项所对应的答案进行输出。从中可以看出,机器的认字和识别,正是人工智能应用中最常被用到的图像识别的一种,前者需要通过数以亿计的样本训练来创建相应的模型,而后者则是根据模型定义的特征识别出文字、符号。

由于每个人的手写习惯不同,识别手写体成为了图像预处理和切分之后首先要面临的挑战,通过大量的样本找到手写习惯的共同特征,如习惯向右倾斜着写或者中文之间没有空格等。更复杂的是数学题的识别,因为数学题目中有大量的复杂公式需要识别,比如根号、分式、上下标的各种组合。这不仅要进行正确的切分,还需要有合理的匹配识别。解决以上两个问题都需要用到深度学习,通过构建卷积神经网络或者递归神经网络,将大量的数据源通过神经网络法计算之后得到符合需求的模型,为最终的使用提供服务。

浪潮AI计算力,让小猿搜题效率提升6倍

不论是创建何种神经网络,都需要对海量样本进行分析,因此对于后端服务器的计算压力极大。因此采用GPU等协处理计算设备来加速人工智能应用成为主流,在线下模型训练中通常会采用核数更多、并行计算能力更强的GPU服务器,而在线上推理应用中可以采用FPGA这种轻量级的计算加速设备。

浪潮NF5568M4落地猿题库 让机器老师更智能

浪潮NF5568M4 GPU服务器

由于手写字体差异极大,需要大量的模型训练任务,因此"小猿搜题"的技术团队选择浪潮NF5568M4 GPU服务器来加速业务的快速上线。浪潮NF5568M4采用Intel最新Haswell处理器与GPU加速计算技术的协同,CPU主要承担其更擅长的逻辑选择、判断跳转和IO通信方面的职责,而GPU则专职计算密集型、高度并行的计算工作,使得计算资源合理的分配,计算力被充分释放,计算性能达到从几倍到几十倍的增长。NF5568M4在4U空间内配备双路E5-2600v4CPU和4块GPU卡,单机最高单精度浮点计算能力可达每秒40万亿次,将能极大的提升"小猿搜题"海量样本的处理效率。

而在存储方面,GPU计算每天会产生大量的数据,所以存储空间需要保证单机10TB以上。但是由于这部分数据数据属于缓慢写入,并不需要太高的IO,所以采用大容量SATA硬盘来支持就足够满足。NF5568M4支持8块3.5寸硬盘,并通过配置高速的阵列卡,使计算集群拥有500MB/s左右的IO吞吐,足以满足"小猿搜题"线下模型训练应用需求。

通过合理的计算硬件选型,"小猿搜题"在线下模型训练时可以将训练时间提升5-6倍,而线上预测速度也得到2-4倍的提升,再经过语言模型的纠错,小猿搜题最终实现题目拍照之后"秒懂你的心"的效果。

目前,浪潮人工智能相关解决方案在国内主流AI领域的占有率超过80%,为百度、阿里巴巴、腾讯、奇虎、搜狗、科大讯飞、今日头条、Face++等领先企业提供基于GPU/FPGA/KNL等协处理加速服务器和caffe-MPI等软件、算法优化服务,加速中国人工智能应用的发展。



原文发布时间为:2017年5月18日

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
2天前
|
弹性计算 人工智能 安全
云上十五年——「弹性计算十五周年」系列客户故事(第二期)
阿里云弹性计算十五年深耕,以第九代ECS g9i实例引领算力革新。携手海尔三翼鸟、小鹏汽车、微帧科技等企业,实现性能跃升与成本优化,赋能AI、物联网、智能驾驶等前沿场景,共绘云端增长新图景。
|
7天前
|
存储 弹性计算 人工智能
【2025云栖精华内容】 打造持续领先,全球覆盖的澎湃算力底座——通用计算产品发布与行业实践专场回顾
2025年9月24日,阿里云弹性计算团队多位产品、技术专家及服务器团队技术专家共同在【2025云栖大会】现场带来了《通用计算产品发布与行业实践》的专场论坛,本论坛聚焦弹性计算多款通用算力产品发布。同时,ECS云服务器安全能力、资源售卖模式、计算AI助手等用户体验关键环节也宣布升级,让用云更简单、更智能。海尔三翼鸟云服务负责人刘建锋先生作为特邀嘉宾,莅临现场分享了关于阿里云ECS g9i推动AIoT平台的场景落地实践。
【2025云栖精华内容】 打造持续领先,全球覆盖的澎湃算力底座——通用计算产品发布与行业实践专场回顾
|
6天前
|
人工智能 自然语言处理 自动驾驶
关于举办首届全国大学生“启真问智”人工智能模型&智能体大赛决赛的通知
关于举办首届全国大学生“启真问智”人工智能模型&智能体大赛决赛的通知
|
6天前
|
云安全 人工智能 自然语言处理
阿里云x硅基流动:AI安全护栏助力构建可信模型生态
阿里云AI安全护栏:大模型的“智能过滤系统”。
|
7天前
|
编解码 自然语言处理 文字识别
Qwen3-VL再添丁!4B/8B Dense模型开源,更轻量,仍强大
凌晨,Qwen3-VL系列再添新成员——Dense架构的Qwen3-VL-8B、Qwen3-VL-4B 模型,本地部署友好,并完整保留了Qwen3-VL的全部表现,评测指标表现优秀。
599 7
Qwen3-VL再添丁!4B/8B Dense模型开源,更轻量,仍强大
|
9天前
|
存储 机器学习/深度学习 人工智能
大模型微调技术:LoRA原理与实践
本文深入解析大语言模型微调中的关键技术——低秩自适应(LoRA)。通过分析全参数微调的计算瓶颈,详细阐述LoRA的数学原理、实现机制和优势特点。文章包含完整的PyTorch实现代码、性能对比实验以及实际应用场景,为开发者提供高效微调大模型的实践指南。
722 2