暂无个人介绍
2024年05月
2024年02月
咨询离线价格
您可以通过如下方式联系我们:
OCR商务联系邮箱:ocr_support@list.alibaba-inc.com,并留下您的联系方式;
加入官方钉钉群:35208328(【官方】阿里云OCR公共云客户交流群);
另外印刷文字识别OCR支持离线SDK售卖,当前已有离线识别SDK包括:身份证识别、银行卡、物流面单识别、扫读识别、指尖点读离线SDK等,售卖地址可见OCR云市场服务中心
参考文档: https://help.aliyun.com/zh/ocr/support/faq-about-features?spm=a2c4g.11174283.0.i2
不同的企业对算力的需求存在显著差异,
首先是训练阶段:这一阶段通常需要最高的算力。因为训练大型模型需要处理海量的数据,并且需要进行多次迭代以优化模型参数。这通常涉及到大量的浮点运算,因此需要大量的GPU或TPU资源。例如,训练一个千亿参数规模的大型模型可能需要数千个GPU,并且可能需要数周的处理时间,成本可能达到数百万美元可以参考这个文档: https://www.thepaper.cn/newsDetail_forward_22716419
而微调阶段:微调通常需要的算力比训练阶段要低,因为不需要从头开始训练模型,而是在已有的基础上进行调整。但是,如果微调涉及到全参数更新,它仍然可能需要相对较高的算力,尤其是对于大型模型。一些优化技术如LoRA(Low-Rank Adaptation)可以减少所需的算力
最后是推理阶段:推理是指使用训练好的模型对新数据进行预测。与训练和微调相比,推理通常需要的算力较低,因为它只涉及模型的前向传播。然而,对于大型模型,即使是推理也可能需要相对较多的GPU资源,特别是当需要快速响应或处理大量请求时。此外,推理的算力需求还取决于模型的复杂性和输入数据的大小
这个是大致的图:
文章参考: https://www.zhihu.com/tardis/bd/art/672573246?source_id=1001
文本检测的话,用这个模型: cv_resnet18_ocr-detection。
文字检测是光学字符识别(OCR)技术的一个重要部分,有着众多的应用场景,丰富了人们的日常生活。读光文字检测模型是以自底向上的方式,先检测文本块和文字行之间的吸引排斥关系,然后对文本块聚类成行,最终输出文字行的外接框的坐标值。
采用自底向上的文字检测方法,能够适应不同长度和形状的文字检测。
在OCR领域的各个实际业务场景中,达到精度和速度更好的平衡。
这个是模型的配置项:
参考文档: https://www.modelscope.cn/docs/cv_resnet18_ocr-detection
可以支持下载到本地部署的。
第一步:拉取模型数据到本地
第二步:然后把模型数据(即 path 文件夹的内容),拷贝到一个新的本地路径 new_path. 第三部:通过本地路径来加载模型,构建 pipeline。
这个是官网的介绍:
地址文档地址
优缺点:①. 优点:
查询频率高的场景(重复查,并且耗时的情况)
数量少,不会超过内存总量(缓存中存放的数据不会超过内存空间)
以空间换取时间,就是你愿意用内存的消耗来换取读取性能的提升
2.缺点
数据存放在本机的内存,未持久化到硬盘,机器重启会丢失
单机缓存,受机器容量限制
多个应用实例出现缓存数据不一致的问题
这个是它的读取流程:
参考链接: https://blog.csdn.net/TZ845195485/article/details/126493436
首先看一组数据:
从官方的压测结果来看,无论是全读场景、全写场景、或者读写混合场景,无论是8个线程,还是16个线程,Caffeine都是完胜、碾压Guava,简直就是拿着望远镜都看不到对手。
而且官方介绍Caffeine是基于JDK8的高性能本地缓存库,提供了几乎完美的命中率。它有点类似JDK中的ConcurrentMap,实际上,Caffeine中的LocalCache接口就是实现了JDK中的ConcurrentMap接口,但两者并不完全一样。最根本的区别就是,ConcurrentMap保存所有添加的元素,除非显示删除之(比如调用remove方法)。而本地缓存一般会配置自动剔除策略,为了保护应用程序,限制内存占用情况,防止内存溢出。而且Caffeine提供了灵活的构造方法。所以这就是原因
参考地址: 参考
叫做OGAI,OGAI (Open GenAI Infra)“元脑生智”,是为大模型业务提供AI算力系统环境部署、算力调度保障及模型开发管理能力的全栈全流程的智算软件栈。OGAI由浪潮信息基于大模型自身实践与服务客户的专业经验而开发,旨在为大模型研发与应用创新全力打造高效生产力,加速生成式AI产业创新步伐。
这个是他模型的概况:
参考文档: https://baijiahao.baidu.com/s?id=1775115809907932021&wfr=spider&for=pc
如今已是AI的时代,云更加的重要,AI技术的飞跃,从语言理解到图像识别,均离不开海量数据与强大算力的支撑,但是对于众多AI初创企业而言,算力瓶颈却成为制约其发展的桎梏。
如今阿里云就可以给他们提供帮助,使用云不仅为企业带来了成本节约,更关键的是,它赋予了企业前所未有的敏捷性和创新速度。AI初创公司借助云平台,能够轻松触及与大企业相当的计算资源,从而加速模型迭代与测试,将精力聚焦于创新本身,
如果说扮演什么角色的话,那么有一些:比如 大规模存储人工智能应用程序通常需要处理和存储大量数据。云计算提供可扩展且经济高效的基础架构,可用于存储这些数据。例如,对象存储服务可用于存储大量非结构化数据,例如图像和视频,而数据库服务可用于存储结构化数据。
数据分析:云计算提供各种工具和服务,可用于分析数据。这些工具可用于提取洞察力、识别模式并训练机器学习模型。
等等一些内容
参考文档:https://www.zhihu.com/question/652886048/answer/3480562970
我认为新一代的 AI 计算基础设施,可以分为AI-IaaS 层、AI-PaaS层以及 AI-SaaS 层。
AI-IaaS 层主要包括异构 AI 算力资源、云化管理和网络互联功能,为上层的 AI-PaaS 以及 AI-SaaS 层提供计算能力、数据处理能力以及超大模型的训练和推理能力。异构AI 算力资源包括通用算力CPU 以及不同种类的智能算力如 GPU、NPU 等。由于传统的CPU计算基础设施无法承载 AI 大模型完成高性能计算,而智能算力芯片有大量计算单元和超长流水线,更适合处理大量类型统一的数据并行计算,因此多元异构 AI 芯片成为提升算力的关键要素。云化管理主要完成对于异构 AI 算力的虚拟池化、集群调度以及容错容灾管理。网络互联旨在为构建大规模智能算力集群提供高性能算力网络,基于远程直接数据存取(RDMA)、IPv6、智能ECN(明确的拥塞通知)、高精度拥塞控制(HPCC)等技术构建超大带宽、超低时延和高稳定性的无损网络,实现数据、模型、应用服务等多要素的共享、流通与调度。
这个是架构图:
参考文档: https://www.vzkoo.com/question/1688441594612294
主体主要要 政府部门,电信运营商,院校、科研机构主导,央、国企,原数据中心、云及用户企业 比如阿里云 ,芯片、服务器企业
一般主体是这么多,下面是数据图:
首先你要知道生成式人工智能,是一种能够生成新内容的人工智能技术,它通常基于数据模式来创建新的数据实例。
主要有以下类别 文本生成。包括语言模型,如GPT(Generative Pre-trained Transformer)系列,可以生成文章、故事、对话等。 比如chatpgt
图像生成:使用生成对抗网络(GANs)或变分自编码器(VAEs)等技术,可以生成新的图像或艺术作品,比如sd
视频生成:生成新的视频内容,可以是动画、模拟场景或视频游戏内容。现在还比较少
ICT是信息通信技术(Information and Communication Technology)的缩写。它是指利用电子设备和通信技术来处理、存储、传输和管理信息的综合性技术领域。
目前ICT产业正在进入AI无处不在的大转型阶段。
行业发展趋势:
参考文档: https://baijiahao.baidu.com/s?id=1799128839298061526&wfr=spider&for=pc
Java 本地缓存指的是在应用程序本地(即 JVM 内部)存储数据副本的技术。与远程缓存(如 Redis、Memcached)相比,本地缓存无需网络通信,因此访问速度更快。本地缓存适用于存储热点数据、临时数据以及计算结果等,以减少对数据库、文件系统等外部存储的访问次数
它其实是很重要的;提高性能:通过减少外部存储访问次数,降低 I/O 和网络延迟,提高应用程序的响应速度。
减轻数据库压力:将热点数据存储在本地缓存中,减少对数据库的查询次数,从而降低数据库负载。
提升系统稳定性:在外部存储出现故障时,本地缓存可以作为数据备份,保证应用程序的正常运行
参考文档: https://blog.csdn.net/li371518473/article/details/136310592
主要是将将Bing聊天功能扩展到工作场景。
这个新工具利用和ChatGPT相同的生成式AI技术,为企业员工带来更具对话性的搜索体验。微软在Ignite年度合作伙伴大会上发布了Bing Chat Enterprise,它是主流的AI聊天工具的企业级版本,现已提供预览版,其中包含一些特殊功能,以确保敏感的业务数据始终受到保护
Bing Chat Enterprise提供了额外的商业数据保护工具,以确保所有用户和业务数据始终受到保护和安全,并且永远不会泄露到组织外部
主要功能是可以为企业的隐私高度保护
与基础大众AI版本Bing chat bot 不同,用这款AI辅助工作而不用担心泄露商业机密,比如为新产品编辑发布新闻稿件,产品规格和价格不会leak等
参考文档:地址
加入AI后,搜索可以变得更加的智能方便。
而且新必应采用了“下一代OpenAI模型+微软普罗米修斯模型+将人工智能应用于核心搜索算法”的突破性技术组合,
在必应新技术体系下,用户获得了全新的搜索体验,也就是将搜索、浏览器和聊天都统一到一个体验中。例如,新必应可以快速给出搜索结果的总结概要,也可以生成报告、写故事和诗歌等;用户能够与必应聊天,让必应更好地理解搜索意图和需求,例如计划一次旅行行程或者搜索合适的电视产品,必应通过聊天询问用户的喜好,让用户逐渐清晰自己的意图等等
这个一种全新的变革
根本上还是有利于消费者的
参考文档: 地址
刚上线那会叫Bing Chat,现在叫Copilot,其实就是一个聊天机器人,和阿里的通义千问差不多的
对用户影响的话应该就是可以向人工智能聊天机器人提出问题,并获得详细的、类似人类的答复,并带有链接回原始来源的脚注。由于聊天机器人连接到互联网,因此它能够为您提供最新信息,这是 ChatGPT 免费版本所不具备的另一项功能
就是下图这个:
在使用搜索的时候可以更加方便的
文档地址:地址
Salesforce在阿里云上线的Salesforce产品包括销售云、服务云、平台云、体验云、沙盒环境、平台功能、客户反馈管理、消息集成等;2024年上半年,还将引入健康云、手机应用、事件监控、Salesforce Connect、Data Mask、Flow orchestration and Next Best Action以及知识库管理等
2024年下半年及之后,将引入现场服务、定位和地图、CRM分析云、更多的产品组件及行业云(如CPQ、消费行业云、忠诚度管理等)、消息集成扩展等
总体来说是比较多呢
阿里云上面都有,可以看看
参考文档:地址
英伟达DGX与HGX平台,在人工智能与高性能计算领域提供多元解决方案。二者名称相近,但设计理念、配置、性能及适用场景各有千秋,满足多样化计算需求。
首先DGX平台,专为企业级AI应用打造的集成化超算解决方案,即插即用,AI性能卓越。适用于高集成、强管理环境。DGX H100配置高速InfiniBand技术,数据密集型任务处理更高效。为您的企业AI之路,提供强大支持。
DGX的技术特点
DGX系统搭载高容量内存,如DGX A100拥有1TB RAM,轻松应对大规模AI模型运算需求,性能卓越。
而HGX平台相较于DGX,为OEM制造商和云服务提供商带来更高的定制性与灵活性。支持4至16个GPU的灵活配置,满足多样化高性能计算需求,打造专属解决方案
比较的灵活呢
这个是俩:
参考: 参考地址呢
首先要知道Mellanox正是一家为数据中心服务器、储存系统提供高效能、点到点互连解决方案的技术与设备供货商。
收购这个公司主页是为了大业务线,增加用户和营收渠道,另外随着人工智能应用的不断发展,AI芯片也在不断演进和发展,单纯的一套GPU架构很难处理用户越来越复杂的人工智能应用需求,GPU效率低下问题也愈发突出,这也是为什么架构更加灵活的FPGA近年来开始爆发的原因。英伟达需要在数据中心中打造出更加丰富的解决方案提供给用户