边缘人工智能:部署前需要考虑的三个技巧

简介: 找出在边缘部署 AI 的三个主要原因,包括最大限度地减少带宽使用。

随着人工智能 (AI) 的成熟,采用率继续增加。根据最近的研究,35% 的组织正在使用人工智能,42% 的组织正在探索其潜力。虽然人工智能在云中得到了很好的理解并大量部署,但它在边缘仍然处于萌芽状态,并面临一些独特的挑战。

许多人全天都在使用人工智能,从汽车导航到跟踪步骤,再到与数字助理交谈。即使用户经常在移动设备上访问这些服务,计算结果仍然存在于人工智能的云使用中。更具体地说,一个人请求信息,该请求由云中的中央学习模型处理,然后将结果发送回该人的本地设备。

与云端 AI 相比,边缘 AI 的理解和部署频率更低。从一开始,人工智能算法和创新就依赖于一个基本假设——所有数据都可以发送到一个中心位置。在这个中心位置,算法可以完全访问数据。这使得算法能够像大脑或中枢神经系统一样构建其智能,对计算和数据拥有完全的权限。

但是,边缘的人工智能是不同的。它将智能分布在所有细胞和神经上。通过将智能推向边缘,我们赋予这些边缘设备代理权。这在医疗保健和工业制造等许多应用和领域中至关重要。

f5ef30d06518c6eb6bc284709c2b715b2be540.jpg

在边缘部署人工智能的原因
在边缘部署人工智能有三个主要原因。

保护个人身份信息 (PII)

首先,一些处理 PII 或敏感 IP(知识产权)的组织更愿意将数据留在其来源处——医院的成像机器或工厂车间的制造机器中。这可以降低通过网络传输数据时可能发生的“偏移”或“泄漏”风险。

最小化带宽使用

其次是带宽问题。将大量数据从边缘传送到云端会阻塞网络,在某些情况下是不切实际的。健康环境中的成像机器生成如此庞大的文件以致无法将它们传输到云或需要数天才能完成传输的情况并不少见。

简单地在边缘处理数据会更有效,尤其是当洞察力旨在改进专有机器时。过去,计算的移动和维护难度要大得多,因此需要将这些数据移动到计算位置。这种范式现在受到挑战,现在数据通常更重要且更难管理,导致用例保证将计算移动到数据位置。

避免延迟

在边缘部署 AI 的第三个原因是延迟。互联网速度很快,但不是实时的。如果存在毫秒很重要的情况,例如协助手术的机械臂或时间敏感的生产线,组织可能会决定在边缘运行 AI。

边缘人工智能面临的挑战以及如何解决这些挑战
尽管有这些好处,但在边缘部署 AI 仍然存在一些独特的挑战。以下是您应该考虑的一些提示,以帮助应对这些挑战。

模型训练的好与坏结果

大多数 AI 技术使用大量数据来训练模型。然而,在边缘的工业用例中,这通常会变得更加困难,因为大多数制造的产品都没有缺陷,因此被标记或注释为良好。由此产生的“好结果”与“坏结果”的不平衡使得模型更难学会识别问题。

依赖于没有上下文信息的数据分类的纯 AI 解决方案通常不容易创建和部署,因为缺乏标记数据,甚至会发生罕见事件。为 AI 添加上下文(或称为以数据为中心的方法)通常会在最终解决方案的准确性和规模方面带来好处。事实是,虽然人工智能通常可以取代人类手动完成的平凡任务,但在构建模型时,它会极大地受益于人类的洞察力,尤其是在没有大量数据可供使用的情况下。

从经验丰富的主题专家那里得到承诺,与构建算法的数据科学家密切合作,为 AI 学习提供了一个快速启动。

AI 无法神奇地解决或提供每个问题的答案

通常有许多步骤进入输出。例如,工厂车间可能有许多工作站,它们可能相互依赖。一个过程中工厂某个区域的湿度可能会影响稍后在不同区域的生产线中另一个过程的结果。

人们通常认为人工智能可以神奇地拼凑所有这些关系。虽然在许多情况下可以,但它也可能需要大量数据和很长时间来收集数据,从而导致非常复杂的算法不支持可解释性和更新。

人工智能不能生活在真空中。捕捉这些相互依赖关系将把边界从一个简单的解决方案推向一个可以随着时间和不同部署而扩展的解决方案。

缺乏利益相关者的支持会限制人工智能的规模

如果组织中的一群人对它的好处持怀疑态度,则很难在整个组织中扩展 AI。获得广泛支持的最好(也许是唯一)方法是从一个高价值、困难的问题开始,然后用人工智能解决它。

在奥迪,我们考虑解决焊枪电极更换频率的问题。但是电极成本低,这并没有消除人类正在做的任何平凡的任务。相反,他们选择了焊接工艺,这是整个行业普遍认同的难题,并通过人工智能显着提高了工艺质量。这激发了整个公司工程师的想象力,他们研究如何在其他流程中使用人工智能来提高效率和质量。

平衡边缘 AI 的优势和挑战
在边缘部署 AI 可以帮助组织及其团队。它有可能将设施转变为智能边缘,提高质量,优化制造过程,并激励整个组织的开发人员和工程师探索他们如何整合人工智能或推进人工智能用例,包括预测分析、提高效率的建议或异常检测。但它也带来了新的挑战。作为一个行业,我们必须能够在部署它的同时减少延迟、增加隐私、保护 IP 并保持网络平稳运行。


本文转载自51CTO,本文一切观点和机器智能技术圈子无关。原文链接
免费体验百种AI能力以及试用热门离线SDK:【点此跳转】

相关文章
|
15天前
|
人工智能 C语言 Windows
Ollama部署在线ai聊天
本文介绍了如何在Windows系统上安装和部署AI聊天模型Ollama,包括安装步骤、模型安装、运行模型项目,以及使用Ollama生成C语言平衡二叉树的完整代码。
29 2
Ollama部署在线ai聊天
|
4天前
|
数据采集 人工智能 算法
《AI大模型助力客户对话分析》部署心得
该方案详细介绍了AI客服对话分析的实践原理和实施方法,涵盖从数据预处理到模型训练、预测的关键步骤。但技术细节和实施步骤的具体性不足,如模型训练算法、参数调优方法、数据预处理步骤等需要补充。部署体验中,环境配置和参数设置的指导不够明确,建议提供详细的环境配置指南和参数说明。示例代码可作为模板使用,但在函数计算部署中可能存在环境配置不匹配、依赖库冲突等问题。方案基本满足对话分析需求,但在模型泛化能力、实时分析、可视化界面及数据安全等方面仍有提升空间。
|
4天前
|
人工智能 弹性计算 自然语言处理
《触手可及,函数计算玩转 AI 大模型》解决方案体验与部署评测
在AI技术快速发展的背景下,大模型正推动各行业的智能化转型。企业为抓住机遇,纷纷寻求部署AI大模型以满足特定业务需求。阿里云函数计算凭借按量付费、卓越弹性和快速交付等优势,为企业提供了高效、安全的AI大模型部署方案。本文将详细介绍阿里云函数计算的技术解决方案及其在文生文、图像生成和语音生成等领域的应用实例,展示其在降低成本、提高效率和增强灵活性方面的显著优势。
|
5天前
|
人工智能 自然语言处理 搜索推荐
【通义】AI视界|微软Copilot Studio推出新功能,帮助企业更便捷地构建和部署AI代理
本文介绍了近期科技领域的五大重要动态:马斯克旗下xAI发布首个API,苹果内部研究显示ChatGPT比Siri准确率高25%,微软Copilot Studio推出新功能,霍尼韦尔与谷歌合作引入Gemini AI,浑水创始人建议买入科技七巨头股票。更多资讯请访问【通义】。
|
6天前
|
人工智能 Docker 容器
一、轻松部署的大模型开发平台dify.ai
一、轻松部署的大模型开发平台dify.ai
20 0
|
29天前
|
存储 人工智能 弹性计算
函数计算部署 AI 大模型解决方案测评
函数计算部署 AI 大模型解决方案测评
|
1月前
|
人工智能 监控 Cloud Native
【涂鸦即艺术】基于云应用开发平台 CAP 部署 AI 实时生图绘板
本实验介绍如何使用阿里云的云原生应用开发平台CAP、函数计算FC和日志服务SLS,三步创建AI实时绘画平台。
【涂鸦即艺术】基于云应用开发平台 CAP 部署 AI 实时生图绘板
|
2月前
|
人工智能 PyTorch 算法框架/工具
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
【8月更文挑战第6天】Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
|
1月前
|
人工智能 Linux iOS开发
AI超强语音转文本SenseVoice,本地化部署教程!
【9月更文挑战第7天】以下是AI超强语音转文本工具SenseVoice的本地化部署教程:首先确保服务器或计算机满足硬件和软件要求,包括处理器性能、内存及操作系统等。接着从官网下载适合的安装包,并按操作系统进行安装。配置音频输入设备和语言模型后,启动SenseVoice并测试其语音转文本功能。最后根据实际使用情况进行优化调整,并定期更新以获取最新功能。详细步骤需参照官方文档。
268 1
|
1月前
|
机器学习/深度学习 人工智能 测试技术
AI计算机视觉笔记二十五:ResNet50训练部署教程
该项目旨在训练ResNet50模型并将其部署到RK3568开发板上。首先介绍了ResNet50网络,该网络由何恺明等人于2015年提出,解决了传统卷积神经网络中的退化问题。项目使用车辆分类数据集进行训练,并提供了数据集下载链接。环境搭建部分详细描述了虚拟环境的创建和所需库的安装。训练过程中,通过`train.py`脚本进行了15轮训练,并可视化了训练和测试结果。最后,项目提供了将模型转换为ONNX和PT格式的方法,以便在RK3568上部署。