网络最长路由问题
问题: 同一安全组内ping问题主机A,有三台不通其他都是通的解决: 经过工单反馈原因是问题主机A的配置的静态IP,掩码错误导致走最长路由.详情: 默认应该走DHCP,实际机器配置的静态。 掩码的问题,上面那个截图,配置的是255.255.252.0 实际根据vpc和交换机配置的网段,他应该是255.255.255.0 根据内核态跟踪,ping报文在查询路由表的时候出错。因为掩码错误 导致生成路由表也有问题,查询路由表找不到可达的下一跳地址。 为什么其他的主机都是和这个是通的, 只有上面的3台和它不通呢? 掩码不对会决定网段的范围 网段不同。不通的是10.0.9.21.0这个地址会匹配到10.0.8.1 255.255.252.0 这个地址段,根据路由精确匹配,会走最长路由。而截图中 10.66、10.30、10.81 都匹配不到这个范围,故而走0.0.0.0 的默认路由,可以通 255.255.252.0是22位掩码。覆盖范围你可以参考截图这个。也就是说这个范围的 走最长掩码的路由,就不通。非这个范围的地址 走默认路由,可以通。
AIGC:在云上从0开始搭建langchain-ChatGLM,构建私域知识问答机器人DEMO
简介AIGC短板:知识茧房(缺少行业领域的私域数据,专有问题解答效果差;数据时效性缺陷,对实时要求高的问题效果差)。解法之一:私域数据Embedding +向量数据库(语义检索---向量相似度匹配)。将问题向量化,结合私域知识库中匹配到的“精确”内容,生成高质量prompt,再结合LLM的既有知识,以及概括、推理、扩展等能力,大大提升回答的准确性。这也是langchain-ChatGLM的基本原理:本文介绍了在阿里云上从0开始搭建langchain-ChatGLM,构建私域知识问答机器人DEMO。可用于日常学习和研究,减少环境搭建时踩坑。安装步骤以在Ubuntu 18.04 64位系统搭建LLM环境,安装《langchain-ChatGLM》为例: 1、 创建GPU实例(显存8GB以上,磁盘至少50G),本文选择了带P100 GPU的 ecs.gn5-c4g1.xlarge实例,在实例创建时选择安装cuda 11.4。设置用户名及登录密码。2、 设置安全组配置,配置出方向端口22,并在源IP中加入本机IP。3、 Ssh到云ECS。如果是root登录,系统会提示正在安装CUDA,待安装完毕,查看GPU详情(若命令无法正常运行,则说明CUDA没安装好):nvidia-smi4、 在ECS上安装相关软件包:A、sudo apt-get updateB、安装gcc编译器(可选,系统中通常已有):sudo apt install build-essentialC、安装Python,以3.8为例:sudo apt install python3.8D、安装miniconda:(1)下载安装包:注意miniconda包需选择对应python版本的包wget https://repo.anaconda.com/miniconda/Miniconda3-py38_23.3.1-0-Linux-x86_64.sh(2)运行安装脚本,并初始化:bash Miniconda3-py38_23.3.1-0-Linux-x86_64.sh(3)(可在2中完成)初始化终端 Shell,以便运⾏conda。~/miniconda3/bin/conda init(4)初始化完成后,运行bash命令,即可进入conda环境:bash(5)创建⼀个新的环境(可选):conda create --name aigc python=3.8 -y(6)激活aigc环境(可选):conda activate aigc5、安装git:sudo apt install git 6、git clone langchain-ChatGLM,并安装软件依赖:git clone https://github.com/imClumsyPanda/langchain-ChatGLM.gitcd langchain-ChatGLM && pip install -r requirements.txtpip install fastapi uvicornconda install nltk # langchain依赖的语言工具包 7、将chatglm-6b模型及Embedding 模型,下载到本地(可从本地加载模型):目前支持chatglm-6b-int4-qe、chatglm-6b-int4、chatglm-6b-int8、chatglm-6b、chatyuan、moss。本文以chatglm-6b为例。注:模型需要占用数十G空间,可将ECS实例的本地盘格式化后挂载,将模型存放在本地盘上。安装git-lfs:apt install git-lfsgit-lfs clone https://huggingface.co/THUDM/chatglm-6b # 下载 Embedding 模型,目前支持ernie-tiny、ernie-base、text2vec-base、text2vec,本文以text2vec为例。$ git clone https://huggingface.co/GanymedeNil/text2vec-large-chinese /your_path/# 模型需要更新时,可打开模型所在文件夹后拉取最新模型文件/代码$ git lfs pull 8、更新config/model_config.py中的模型路径为本地路径。llm_model_dict变量中"chatglm-6b":"pretrained_model_name": "/home/fsnode/chatglm-6b"embedding_model_dict变量中"text2vec":"text2vec": "/home/fsnode/text2vec-large-chinese" 9、导入自有的文档到ecs,目前主要支持md、txt、pdf、jpg格式。 10、运行CLI或web DEMO:cli_demo:python cli_demo.pywebui:如需要公网访问,还需要将webui.py中修改:share=TrueA、安装gradio :pip install gradioB、在ECS实例安全组的入方向添加安全组规则,并放行8501端口(默认公网服务端口,也可以自定义)。C、在ECS上运行脚本:python webui.pyD、脚本运行成功后,会展示生成的公网链接。在本机浏览器中输入该链接,就可以使用了。 此外,如果不想修改安全组端口,也无需公网访问。可以把模型的本地服务端口7860直接映射到自己的本地便携上,登录使用:A、本地便携机上执行如下命令,将云ECS的7860端口映射到本地(IP及用户名填实际的):ssh -L7860:localhost:7860 ecs-user@本地便携IP B、在本地浏览器登录web界面:http://127.0.0.1:7860 相同的问题,在未结合私域数据下,使用相同ChatGLM模型回答如下:从对比可以看出,无私域数据情况下的回答有明显的错误。而结合私域数据后,答案很准确。 附录参考资料: https://github.com/THUDM/ChatGLM-6B#readmehttps://github.com/imClumsyPanda/langchain-ChatGLMhttps://github.com/imClumsyPanda/langchain-ChatGLM/blob/master/docs/FAQ.md
大家的php项目在函数计算延迟是怎么优化的啊, 我的函数计算的项目同样的代码就是比ecs延迟大,
大家的php项目在函数计算延迟是怎么优化的啊, 我的函数计算的项目同样的代码就是比ecs延迟大, 不知道怎么搞了
阿里云丁宇:云上开发成为主流,Serverless 定义新范式
今天,阿里云峰会·粤港澳大湾区在广州开幕,阿里巴巴研究员、阿里云智能云原生应用平台总经理丁宇在论坛发言,他表示:Serverless 引领云上开发新范式,通过丰富的原子化服务,全托管、高弹性、免运维的优势,以开箱即用的场景化能力,成本更优的按用付费模式,帮助企业跨越技术鸿沟,让创新触手可及。过去十年,上云成为确定性的趋势。在上云阶段,企业关注点在于如何实现平滑上云,因此云厂商将云托管作为核心策略。随着越来越多的企业上云,甚至很多企业系统第一天就是在云上构建,企业的核心关注点转变为如何更好地利用云的能力,将产品快速推向市场,从而实现业务成功。但是,如果算力的呈现形式仍然是服务器这样的资源形态,它的使用门槛依然很高。算力和业务相隔太远,企业需要有一整套支撑应用的基础设施来用好算力。让算力像电力一样的普及,云计算需要新的形态,就是 Serverless。随着用好云成为关键,开发范式也将被重新定义。通过产品服务化、全托管的方式,让企业和开发者可以专注于业务逻辑开发;并且云服务具备可编排、可复用的优势,让企业做得更少而收获更多;基于 Serverless 可以轻松构建高弹性应用,让企业从容应对流量波动。在 Serverless 开发范式下,企业新功能交付周期大幅缩短,进一步加速业务迭代,赢得市场先机。阿里云 Serverless 容器服务 ASK 全新升级作为云原生的重要技术组成,K8s 已经被开发者和企业广泛认可,然而其自身复杂性和陡峭的学习曲线依然让人望而生畏。阿里云在 2018 年发布了首个 Serverless 容器服务 ASK,其本质是将容器的运行时和具体的节点运行环境解耦,让用户无需管理 K8s 节点和服务器,即可直接部署应用,大幅降低容器服务的使用门槛。此次 ASK 的全新升级,进一步整合了阿里云基础设施的能力,在使用成本、创建效率、异构资源兼容、弹性供给保障等方面带来显著提升,解决开发者在使用 K8s 的复杂性挑战,也顺应了 AI 场景爆发下催生的新需求。组件全托管,零 K8s 运维成本:ASK 新增对 CoreDNS、Metrics Server 等十多个 K8s 核心组件的托管支持,提供动态容量规划能力,客户无需自行部署维护,最大化降低运维复杂度。同时,ASK 也新增了智能化风险识别能力,支持自动化升级 K8s 版本,避免升级导致的应用故障或异常风险。极致弹性,准确率提升 80%:ASK 提供首界首创基于容器镜像缓存的 AI 大镜像秒级拉取能力,AI 应用启动时间降低 90%。并且提供端到端的弹性加速,面向AI/大数据工作负载容器化进行全栈优化,通过数据集加速提升 30% 访问性能;此外,本次 ASK 还增强了智能弹性预测 AHPA能力,相比人工配置,弹性准确率提升 80%;同时新增对于 GPU 的支持。普惠算力,降价 40%:为了给客户提供更好的服务,释放技术红利,让算力更普惠,ASK 新增 U 实例规格支持,统一支持多款处理器,相比上一代主售实例降价高达 40%。新增 SavingPlan 弹性版本,面向应用非固定波峰波谷场景,额外成本优化 10% 以上。为进一步让价格更透明,新增成本套件支持,清晰洞察弹性资源成本,让成本治理更便捷。“数禾科技采用阿里云 ASK 部署线上模型,无需 K8s 节点管理,根据实时流量动态使用 POD,资源成本节省60%;通过 ASK Knative 服务,解决了数禾模型的灰度发布和多版本并存问题;得益于ASK 自动伸缩和缩容到 0 的优势,降低运行成本,大幅提升服务可用性。”丁宇介绍。函数计算 FC :让 AIGC 应用开发更简单2023 年,生成式 AI 迎来了集中爆发,同时带动 GPU 需求不算上涨。阿里云函数计算拥有极致弹性的 GPU 实例,以及大规格的函数计算性能实例,这部分是承载 AI 应用稳定、高性能推理的重要环节。本次峰会,函数计算 GPU 迎来性能体验再升级:用户配置更灵活:函数计算提供业界最小的 GPU 虚拟化粒度,显存规格最小至1GB。CPU 与 GPU 解耦,允许用户独立配置,同时支持 GPU Turing/Ampere 两代卡型。资源利用率更高:底层技术架构从 ECS 架构过渡到神龙 GPU 架构,业界首创多租安全 GPU 共享虚拟化方案,综合资源利用率提升 80%。精细化匹配 AI 推理负载类型,算力规格最小达到 1/16 T4、1/24 A10。技术更领先:函数计算 GPU 冷启动时间从分钟级到秒级,性能提升 300%。行业首发 GPU 按需付费,切入准实时推理场景,支持 AIGC 热门场景,助力 AI 创业和生产力提升。我们发现,在实际应用中,AI 应用开发技术的门槛对很多人来说依然很高;另外将 AI 应用部署到生产环境中需要考虑安全性、可靠性、可伸缩性、维护性等问题,也需要一定的技术能力和经验。函数计算致力于为 AI 开发者、企业提供高效能、低成本的 AI 应用开发与部署服务。Serverless 架构具备高资源利用率与按量付费模式、服务端免运维等特性,让开发者真正实现 0 技术门槛开发 AIGC 应用。整合 Serverless 应用中心、Serverless Devs 等完备的应用上云套件:帮助开发者完成从 0 到 1 再到 N 的业务开发,并提供应用全生命周期管理能力。通过 Serverless 应用中心,用户在部署应用之前无需进行额外的克隆、构建、打包和发布操作,就可以快速部署和管理应用,轻松沉淀最佳实践。构建完整的 AIGC 能力中心:阿里云产品与 LangChain 等 AI 框架高度集成,开发者可以在 ModelScope、HuggingFace 等开源生态或社区选择模型进行开发、部署。基于函数计算+Serverless 应用中心,开发者可以一键模型托管、5 分钟上手 AI 应用开发、研发效能提升 80%。后续 Serverless 应用中心会持续沉淀各行各业的典型 AI 应用案例模版,让用户可以更简单地了解和掌握。目前 Serverless 应用中心已经接入了通义千问、文生图、图生图、图生文等 10 多款热门 AI 应用模版。函数计算为 AIGC 的应用落地打开了一扇新的窗,“让每个人都可以开发 AIGC 应用。”丁宇介绍。基于函数计算 FC+Serverless 应用中心能力,阿里云全新上线“函数计算一键部署通义千问预体验”,成为业界首个能够试用通义千问的应用平台,与业务场景相结合,部署成功通义千问预体验应用即可获得 30 次对话机会。除此之外,本次还上线了文生图、图生图、图生文、文生文等经典 AI 场景体验活动,让开发者 5 分钟完成 AIGC 应用部署,让创意更快落地。云原生产品免费试用再升级此前,阿里云对外发布“飞天免费试用计划”,面向国内千万云上开发者,提供包括函数计算、ECS、数据库 PolarDB、机器学习 PAI 等在内 50 款全栈云产品的免费试用,全面支持 Serverless 的开发模式。本次云原生产品免费试用再升级,不仅新增了 Serverless 容器服务 ASK ,同时即将上线云消息队列 MQ、Serverless 应用引擎 SAE、性能测试等多款产品,进一步丰富企业和开发者的使用场景。除了免费试用计划之外,阿里云还构建了云原生社区、开发者训练营、培训体系、体验场景等丰富的内容,让开发者能够一键通过多个免费试用的产品搭建出想要的架构,快速体验云原生和 Serverless 的魅力。丁宇说,Serverless 致力于让算力更普惠,让技术红利为更多人享用,让创新流动起来,让每个人都可以成为云原生时代的新开发者。
为什么ecs的公网IP能ping到,多少dns解析的地址却ping不到呢
弹性公网ip绑定ecs实例之后,函数计算想要固定公网ip,还能用这个弹性ip吗?
弹性公网ip绑定ecs实例之后,函数计算想要固定公网ip,还能用这个弹性ip吗?
活动回顾丨云原生技术实践营深圳站回放 & PPT 下载
5 月 28 日,飞天 Club x 云原生技术实践营 - EDAS 和容器实践专场在深圳顺利开展。阿里云一线工程师潘俊峰、黄晓萌,行云创新 CEO 马洪喜,远光软件人工智能事业部 RPA 产品经理刘玲围绕《节省资源成本,光有弹性是否足够?》、《云原生 IDE,定义开发新常态》、《RPA 云平台在数字化转型中的价值与应用》、《K8S Job 提效的新模式》4 个当下热门议题与现场的百余位开发者展开交流。关注公众号,后台回复:0528免费获得深圳站讲师 PPT 合辑云上开发、资源节省、运维提效成为本场活动开发者关注的焦点。现场气氛也在实践分享+互动提问+手动实操中逐渐走向高潮,此外“阿里文化行”也让开发者们进一步了解了阿里的企业文化、发展历程与社会责任。0528 云原生实践营深圳站活动现场下面就让我们一起回顾本次活动上都有哪些精彩瞬间,扫描下方金句海报二维码即可回看本次活动现场直播。精彩回顾01 分享主题丨节约资源成本,光有弹性是否足够企业在云资源成本治理的核心方向之一是资源碎片的整理。本次分享,阿里云研发工程师,潘俊峰围绕着环境级别、机器级别、进程级别的资源碎片,分析其存在的原因,结合相应的技术手段来减少资源碎片,从而降低企业资源成本。同时与现场的开发者们共同讨论了在微服务场景下,如何利用弹性技术在保障服务质量的前提下,更好地实现资源按需使用。02 分享主题丨云原生 IDE,定义开发新常态开发者在创造灿烂的数字化文明的同时,自己的生产力工具几十年未曾发生根本性改变。云原生 IDE 的发展将有机会带来颠覆性改变,这也是其被 CNCF 预测为十大技术趋势之首的原因。在活动现场,行云创新 CEO,马洪喜从“技术架构发展要求、新兴业务场景要求、数字资产安全要求”三个方面阐述了云原生 IDE 的应用必然性,同时为我们介绍了云原生 IDE 和 AIGC, ServiceMesh 等新兴技术相互结合的场景和价值。03 分享主题丨RPA 云平台在数字化转型中的价值与应用RPA 作为企业数字化转型的有力推手,不仅能帮助企业降本增效、优化成本结构。随着企业规模化应用 RPA 机器人,对 RPA 平台集中管控、远程运维提出更高要求。RPA 上云成为企业实现资源弹性伸缩、降低运维成本的最佳选项。本场分享中,远光软件人工智能事业部 RPA 产品经理,刘玲从数字化转型对 RPA 技术应用的影响、远光RPA 云端能力介绍、以及云平台应用案例三个方面进行了详细阐述。让我们了解到远光 RPA 云平台是如何从 0 到 1 验证了 RPA 机器人从本地运行到云端规模管理的能力,以及如何实现企业级数字机器人全生命周期管理的。04 分享主题丨K8s Job 提效的新模式定时任务应用场景广泛,传统企业在使用定时任务时遇到不少痛点,云原生时代对定时任务有了新的定义,帮助企业降本增效。本次活动,阿里云研发工程师,黄晓萌从云原生定时任务技术趋势谈起,带领大家分析了现阶段使用上遇到的问题,同时也带来了阿里云原生团队在 K8s Job 上的提效方案。精彩瞬间点击此处,即可查看本次活动精彩回放
阿里云国际版站怎么样怎么注册怎么USDT冲值怎么实名怎么购买服务器?
阿里云是阿里巴巴集团旗下的云计算品牌,旨在为全球客户提供高效、稳定、安全、可扩展的云计算服务。阿里云国际站是阿里云面向全球市场的,提供多语言版本的云服务、技术支持和资源信息,以满足不同、地区和企业客户的需求。
阿里云国际站的服务范围包括但不限于:弹性计算、云存储、大数据、容器、安全、解决方案等。其中,弹性计算是阿里云的基础计算服务,包括云服务器、负载均衡、云数据库等,可帮助客户提高计算资源利用率、降低运营成本、提高灵活性和可扩展性。
阿里云国际站的优势在于:
全球部署:阿里云已在全球多个位置部署数据中心,在全球范围内提供稳定的服务。安全可靠:阿里云采用多种安全保障手段,包括但不限于DDoS防御、云盾、防火墙等。贴心服务:阿里云提供7×24小时技术支持服务,帮助客户解决各种云计算问题。高性价比:阿里云提供多种计费方式,客户可根据自己的业务需求选择适合自己的计费方式。总之,阿里云国际站是一个的云服务品牌,在全球范围内受到广泛的客户青睐。
人像卡通画训练营笔记
1. 遇到的问题1.1. 任务2 【领用】云服务器ECS免费资源无资格在钉钉群请工作人员帮忙,提供账号,会改为完成状态1.2. 开启notebook实例错误尝试另一种资源实例;在钉钉群请工作人员帮忙1.3. README.md格式错误README.md填写有格式要求,否则无法发布模型我写的模型内存要求后面带了单位不符合规范,导致模型无法上线, 但是提示没有明确指明原因.
产品动态丨阿里云计算巢月刊-2023年第05期
一、功能发布1.全托管服务支持配置套餐中ECS实例资源的弹性强度计算巢支持服务商在创建全托管服务过程中,在套餐中包含ECS实例规格时,针对ECS实例规格的弹性强度差、服务实例的部署成功率低的情况,通过更换实例规格或选择多个备选实例规格来增强ECS实例的弹性强度,提升服务实例的部署成功率。了解详情 >>2.计算巢支持用户分享服务实例的配置参数用户在创建服务实例时,可将已配置的参数值分享给其他用户查看。用户完成服务实例的参数配置后,可单击创建服务实例界面右上角的分享图标,将已配置的服务实例参数分享给其他用户查看。3.计算巢支持服务商将试用服务上架到云市场服务商在创建包含试用功能的服务后,如需将试用功能也同步上架到云市场,则需在云市场发布商品时,在填写商品销售信息时,选择按周期计费并在是否支持试用处,选择是并设置试用天数。了解详情 >>4.计算巢新增试用服务实例次数限制用户创建试用服务实例新增次数限制。每个用户账户在同一个包含试用功能服务下只能创建一次试用服务实例。若需增加创建次数,则需要在配额中心的通用配额列表页面,申请配额提升。5.计算巢支持服务商按用户ID过滤并查看服务实例服务商在查看服务实例时,支持按用户ID筛选服务实例。6.创建计算巢服务时,添加套餐的展示界面计算巢优化了创建服务时添加套餐的展示界面,将不同的套餐和套餐参数展示在同一界面,便于服务商在添加套餐时对各套餐的参数取值进行对比。了解详情 >>二、最佳实践1.Stable Diffusion集群版--计算巢私有化部署方案针对于多人共同使用出图的场景下,Stable Diffusion webui会排队出图的问题,计算巢推出了集群版Stable Diffusion快速部署的功能。用户不需要自己下载代码,不需要自己安装复杂的环境依赖等,只需要在控制台图形界面点击几下鼠标就可以快速启动Stable Diffusion服务进行绘画,没有技术背景也能轻松搞定。了解详情 >>2.如何通过计算巢快速搭建WordPress网站WordPress是一种流行的开源内容管理系统(CMS),用于创建和管理网站及博客,是目前最多人和最容易使用的网站建立工具。阿里云计算巢推出了WordPress社区版一方服务,不需要再进行复杂的搭建过程,只需要在控制台图形界面点击几下鼠标就可以一创建起自己的WordPress网站,而且提供了单机版和多节点高可用版两种模式,轻松搞定不同需求。了解详情 >>3.深度解析计算巢镜像部署物复制与关联原理计算巢服务是阿里云开放给企业应用服务商与其客户的服务管理PaaS平台。服务商在计算巢创建服务(可理解为云资源、软件编排后的集合)并发布上线后,用户便可通过此服务创建服务实例(基于计算巢服务创建的服务实体)以获取具体服务内容。通过镜像部署是一种常见的部署方式。在计算巢中,需要在部署物管理中创建ECS镜像部署物、分发部署物,然后在创建服务时关联镜像部署物,即可实现用户在创建服务实例时依据不同地域,自动部署对应地域的ECS镜像。本文旨在说明ECS部署物的复制原理与创建服务实例时的关联原理。了解详情 >>申请入驻计算巢