• 关于

    Beta5

    的搜索结果

回答

楼主真黑,你咋知道 @红薯 是同志? ######不要闹了:)######我就知道楼主是借故探红薯口风 是否是同志..######动弹数据######动弹自动刷新######回复 @cyb_beta : 嘿嘿,我不说话######回复 @cyb_beta : 好意思。######回复 @cyb_beta : 9494######回复 @水牛叔叔 : 码农使用的浏览器不支持html5,还好意思混osc?######回复 @cyb_beta : 浏览器怎么推送?不是每个浏览器都完全支持html5的######我比较好奇那个undefined是怎么回事######很明显是动蛋######是不是同志我不知道。。。

爱吃鱼的程序员 2020-05-30 22:04:44 0 浏览量 回答数 0

问题

PHP 5.6.12/PHP 5.5.28/PHP 5.4.44/PHP 7.0.0 Beta 3发布

妙正灰 2019-12-01 20:58:10 9104 浏览量 回答数 3

回答

您可以使用阿里云负载均衡来访问服务。 背景信息 如果您的集群的cloud-controller-manager版本大于等于v1.9.3,对于指定已有SLB,系统默认不再为该SLB处理监听,用户可以通过设置service.beta.kubernetes.io/alibaba-cloud-loadbalancer-force-override-listeners: "true"参数来显示启用监听配置,或者手动配置该SLB的监听规则。 执行以下命令,可查看cloud-controller-manager的版本。 root@master # kubectl get pod -n kube-system -o yaml|grep image:|grep cloud-con|uniq image: registry-vpc.cn-hangzhou.aliyuncs.com/acs/cloud-controller-manager-amd64:v1.9.3 注意事项 Cloud Controller Manager(简称CCM)会为Type=LoadBalancer类型的Service创建或配置阿里云负载均衡(SLB),包含SLB、监听、虚拟服务器组等资源。 对于非LoadBalancer类型的Service则不会为其配置负载均衡,这包含如下场景:当用户将Type=LoadBalancer的Service变更为Type!=LoadBalancer时,CCM也会删除其原先为该Service创建的SLB(用户通过service.beta.kubernetes.io/alibaba-cloud-loadbalancer-id指定的已有SLB除外)。 自动刷新配置 CCM使用声明式API,会在一定条件下自动根据Service的配置刷新阿里云负载均衡配置,所有用户自行在SLB控制台上修改的配置均存在被覆盖的风险(使用已有SLB同时不覆盖监听的场景除外),因此不能在SLB控制台手动修改Kubernetes创建并维护的SLB的任何配置,否则有配置丢失的风险。 同时支持为serivce指定一个已有的负载均衡,或者让CCM自行创建新的负载均衡。但两种方式在SLB的管理方面存在一些差异: 指定已有SLB 仅支持复用负载均衡控制台创建的SLB,不支持复用CCM创建的SLB。 如果您需要在Kubernetes集群中复用私网类型的SLB,则该SLB需要和Kubernetes集群在同一VPC下。 需要为Service设置annotation:service.beta.kubernetes.io/alibaba-cloud-loadbalancer-id 。 SLB配置 此时CCM会使用该SLB做为Service的SLB,并根据其他annotation配置SLB,并且自动的为SLB创建多个虚拟服务器组(当集群节点变化的时候,也会同步更新虚拟服务器组里面的节点)。 监听配置 是否配置监听取决于service.beta.kubernetes.io/alibaba-cloud-loadbalancer-force-override-listeners: 是否设置为true。如果设置为false,CCM不会为SLB管理任何监听配置;如果设置为true,CCM会根据service配置管理监听,如果监听已经存在,则CCM会覆盖已有监听。 SLB的删除 当Service删除时CCM不会删除用户通过id指定的已有SLB。 CCM管理的SLB CCM会根据Service的配置自动的创建配置SLB、监听、虚拟服务器组等资源,所有资源归CCM管理,因此用户不得手动在SLB控制台更改以上资源的配置,否则CCM在下次Reconcile的时候将配置刷回Service所声明的配置,造成非用户预期的结果。 SLB的删除 当Service删除时CCM会删除该SLB。 后端服务器更新 CCM会自动的为该Service对应的SLB刷新后端虚拟服务器组。当Service对应的后端Endpoint发生变化的时候或者集群节点变化的时候都会自动的更新SLB的后端Server。 spec.externalTrafficPolicy = Cluster模式的Service,CCM默认会将所有节点挂载到SLB的后端(使用BackendLabel标签配置后端的除外)。由于SLB限制了每个ECS上能够attach的SLB的个数(quota),因此这种方式会快速的消耗该quota,当quota耗尽后,会造成Service Reconcile失败。解决的办法,可以使用Local模式的Service。 spec.externalTrafficPolicy = Local模式的Service,CCM默认只会将Service对应的Pod所在的节点加入到SLB后端。这会明显降低quota的消耗速度。同时支持四层源IP保留。 任何情况下CCM不会将Master节点作为SLB的后端。 CCM默认不会从SLB后端移除被kubectl drain/cordon的节点。如需移除节点,请设置service.beta.kubernetes.io/alibaba-cloud-loadbalancer-remove-unscheduled-backend为on。 说明 如果是v1.9.3.164-g2105d2e-aliyun之前的版本,CCM默认会从SLB后端移除被kubectl drain/cordon的节点。 VPC路由 集群中一个节点对应一条路由表项,VPC默认情况下仅支持48条路由表项,如果集群节点数目多于48个,请提工单给VPC产品。 说明 您可以在提交工单时,说明需要修改vpc_quota_route_entrys_num参数,用于提升单个路由表可创建的自定义路由条目的数量。 更多VPC使用限制请参见使用限制。 专有网络VPC配额查询请参见专有网络VPC配额管理。 SLB使用限制 CCM会为Type=LoadBalancer类型的Service创建SLB。默认情况下一个用户可以保留60个SLB实例,如果需要创建的SLB数量大于60,请提交工单给SLB产品。 说明 您可以在提交工单时,说明需要修改slb_quota_instances_num参数,用于提高用户可保有的slb实例个数。 CCM会根据Service将ECS挂载到SLB后端服务器组中。 默认情况下一个ECS实例可挂载的后端服务器组的数量为50个,如果一台ECS需要挂载到更多的后端服务器组中,请提交工单给SLB产品。 说明 您可以在提交工单时,说明需要修改slb_quota_backendservers_num参数,用于提高同一台服务器可以重复添加为SLB后端服务器的次数。 默认情况下一个SLB实例可以挂载200个后端服务器,如果需要挂载更多的后端服务器,请提交工单给SLB产品。 说明 您可以在提交工单时,说明需要修改slb_quota_backendservers_num参数,提高每个SLB实例可以挂载的服务器数量。 CCM会根据Service中定义的端口创建SLB监听。默认情况下一个SLB实例可以添加50个监听,如需添加更多监听,请提交工单给SLB产品。 说明 您可以在提交工单时,说明需要修改slb_quota_listeners_num参数,用于提高每个实例可以保有的监听数量。 更多SLB使用限制请参见使用限制。 负载均衡SLB配额查询请参见负载均衡SLB配额管理。 通过命令行操作 方法一: 通过命令行工具创建一个Nginx应用。 root@master # kubectl run nginx --image=registry.aliyuncs.com/acs/netdia:latest root@master # kubectl get po NAME READY STATUS RESTARTS AGE nginx-2721357637-dvwq3 1/1 Running 1 6s 为Nginx应用创建阿里云负载均衡服务,指定 type=LoadBalancer 来向外网用户暴露Nginx服务。 root@master # kubectl expose deployment nginx --port=80 --target-port=80 --type=LoadBalancer root@master # kubectl get svc NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE nginx 172.19.XX.XX 101.37.XX.XX 80:31891/TCP 4s 在浏览器中访问 http://101.37.XX.XX,来访问您的Nginx服务。 方法二: 将下面的yml code保存到 nginx-svc.yml文件中。 apiVersion: v1 kind: Service metadata: labels: run: nignx name: nginx-01 namespace: default spec: ports: - port: 80 protocol: TCP targetPort: 80 selector: run: nginx type: LoadBalancer 执行如下命令,创建一个Nginx应用。 kubectl apply -f nginx-svc.yml 执行如下命令,向外网用户暴露Nginx服务。 root@master # kubectl get service NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE9d ngi-01nx LoadBalancer 172.19.XX.XX 101.37.XX.XX 80:32325/TCP 3h 在浏览器中访问 http://101.37.XX.XX,来访问您的Nginx服务。 通过 Kubernetes Dashboard 操作 将下面的yml code保存到 nginx-svc.yml文件中。 apiVersion: v1 kind: Service metadata: labels: run: nginx name: http-svc namespace: default spec: ports: - port: 80 protocol: TCP targetPort: 80 selector: run: nginx type: LoadBalancer 登录容器服务管理控制台,单击目标集群右侧的控制台,进入Kubernetes Dashboard页面。 单击创建,开始创建应用。 创建应用 单击使用文件创建。选择刚才保存的nginx-svc.yml 文件。 单击上传。 此时,会创建一个阿里云负载均衡实例指向创建的Nginx应用,服务的名称为 http-svc。 在Kubernetes Dashboard上定位到default命名空间,选择服务。 可以看到刚刚创建的 http-svc 的Nginx服务和机器的负载均衡地址 http://114.55.XX.XX:80。 访问服务 将该地址拷贝到浏览器中即可访问该服务。 通过控制台操作 登录容器服务管理控制台。 在 Kubernetes 菜单下,单击左侧导航栏中的应用 > 无状态,进入无状态(Deployment)页面。 选择目标集群和命名空间,单击右上角使用模板创建。 创建应用 示例模板选为自定义,将以下内容复制到模板中。 apiVersion: v1 kind: Service metadata: labels: run: nginx name: ngnix namespace: default spec: ports: - port: 80 protocol: TCP targetPort: 80 selector: run: nginx type: LoadBalancer 单击创建。 创建成功,单击Kubernetes 控制台前往控制台查看创建进度。 Kubernetes 控制台 或单击左侧导航栏路由与负载均衡 > 服务,选择目标集群和命名空间,查看已部署的服务。 部署服务 更多信息 阿里云负载均衡还支持丰富的配置参数,包含健康检查、收费类型、负载均衡类型等参数。 注释 阿里云可以通过注释annotations的形式支持丰富的负载均衡功能。 创建一个公网类型的负载均衡 apiVersion: v1 kind: Service metadata: name: nginx namespace: default spec: ports: - port: 80 protocol: TCP targetPort: 80 selector: run: nginx type: LoadBalancer 创建一个私网类型的负载均衡 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-address-type: "intranet" name: nginx namespace: default spec: ports: - port: 80 protocol: TCP targetPort: 80 selector: run: nginx type: LoadBalancer 创建HTTP类型的负载均衡 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-protocol-port: "http:80" name: nginx namespace: default spec: ports: - port: 80 protocol: TCP targetPort: 80 selector: run: nginx type: LoadBalancer 创建HTTPS类型的负载均衡 需要先在阿里云控制台上创建一个证书并记录cert-id,然后使用如下annotation创建一个 HTTPS 类型的SLB。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-protocol-port: "https:443" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-cert-id: "${YOUR_CERT_ID}" name: nginx namespace: default spec: ports: - port: 443 protocol: TCP targetPort: 443 selector: run: nginx type: LoadBalancer 限制负载均衡的带宽 只限制负载均衡实例下的总带宽,所有监听共享实例的总带宽,参见共享实例带宽。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-charge-type: "paybybandwidth" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-bandwidth: "100" name: nginx namespace: default spec: ports: - port: 443 protocol: TCP targetPort: 443 selector: run: nginx type: LoadBalancer 指定负载均衡规格 负载均衡规格可参见CreateLoadBalancer。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-spec: "slb.s1.small" name: nginx namespace: default spec: ports: - port: 443 protocol: TCP targetPort: 443 selector: run: nginx type: LoadBalancer 使用已有的负载均衡 默认情况下,使用已有的负载均衡实例,不会覆盖监听,如要强制覆盖已有监听,请配置service.beta.kubernetes.io/alibaba-cloud-loadbalancer-force-override-listeners为true。 说明 复用已有的负载均衡默认不覆盖已有监听,因为以下两点原因: 如果已有负载均衡的监听上绑定了业务,强制覆盖可能会引发业务中断。 由于CCM目前支持的后端配置有限,无法处理一些复杂配置。如果有复杂的后端配置需求,可以在不覆盖监听的情况下,通过控制台自行配置监听。 如存在以上两种情况不建议强制覆盖监听,如果已有负载均衡的监听端口不再使用,则可以强制覆盖。 使用已有的负载均衡暂不支持添加额外标签(annotation: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-additional-resource-tags) apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-id: "${YOUR_LOADBALACER_ID}" name: nginx namespace: default spec: ports: - port: 443 protocol: TCP targetPort: 443 selector: run: nginx type: LoadBalancer 使用已有的负载均衡,并强制覆盖已有监听 强制覆盖已有监听,如果监听端口冲突,则会删除已有监听。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-id: "${YOUR_LOADBALACER_ID}" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-force-override-listeners: "true" name: nginx namespace: default spec: ports: - port: 443 protocol: TCP targetPort: 443 selector: run: nginx type: LoadBalancer 使用指定Label的worker节点作为后端服务器 多个Label以逗号分隔。例如"k1=v1,k2=v2"。多个label之间是and的关系。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-backend-label: "failure-domain.beta.kubernetes.io/zone=ap-southeast-5a" name: nginx namespace: default spec: ports: - port: 443 protocol: TCP targetPort: 443 selector: run: nginx type: LoadBalancer 为TCP类型的负载均衡配置会话保持时间 参数service.beta.kubernetes.io/alibaba-cloud-loadbalancer-persistence-time仅对TCP协议的监听生效。 如果负载均衡实例配置了多个TCP协议的监听端口,则默认将该配置应用到所有TCP协议的监听端口。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-persistence-timeout: "1800" name: nginx namespace: default spec: ports: - port: 443 protocol: TCP targetPort: 443 selector: run: nginx type: LoadBalancer 为HTTP&HTTPS协议的负载均衡配置会话保持(insert cookie) 仅支持HTTP及HTTPS协议的负载均衡实例。 如果配置了多个HTTP或者HTTPS的监听端口,该会话保持默认应用到所有HTTP和HTTPS监听端口。 配置insert cookie,以下四项annotation必选。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-sticky-session: "on" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-sticky-session-type: "insert" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-cookie-timeout: "1800" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-protocol-port: "http:80" name: nginx namespace: default spec: ports: - port: 80 protocol: TCP targetPort: 80 selector: run: nginx type: LoadBalancer 为HTTP&HTTPS协议的负载均衡配置会话保持(server cookie) 仅支持HTTP及HTTPS协议的负载均衡实例。 如果配置了多个HTTP或者HTTPS的监听端口,该会话保持默认应用到所有HTTP和HTTPS监听端口。 配置server cookie,以下四项annotation必选。 cookie名称(service.beta.kubernetes.io/alibaba-cloud-loadbalancer-cookie)只能包含字母、数字、‘_’和‘-’。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-sticky-session: "on" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-sticky-session-type: "server" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-cookie: "${YOUR_COOKIE}" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-protocol-port: "http:80" name: nginx namespace: default spec: ports: - port: 80 protocol: TCP targetPort: 80 selector: run: nginx type: LoadBalancer 创建负载均衡时,指定主备可用区 某些region的负载均衡不支持主备可用区,例如ap-southeast-5。 一旦创建,主备可用区不支持修改。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-master-zoneid: "ap-southeast-5a" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-slave-zoneid: "ap-southeast-5a" name: nginx namespace: default spec: ports: - port: 80 protocol: TCP targetPort: 80 selector: run: nginx type: LoadBalancer 使用Pod所在的节点作为后端服务器 默认externalTrafficPolicy为Cluster模式,会将集群中所有节点挂载到后端服务器。Local模式仅将Pod所在节点作为后端服务器。 Local模式需要设置调度策略为加权轮询wrr。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-scheduler: "wrr" name: nginx namespace: default spec: externalTrafficPolicy: Local ports: - port: 80 protocol: TCP targetPort: 80 selector: run: nginx type: LoadBalancer 创建私有网络类型(VPC)的负载均衡 创建私有网络类型的负载均衡,以下两个annotation必选。 私网负载均衡支持专有网络(VPC)和经典网络(Classic),两者区别参见实例概述。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-address-type: "intranet" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-network-type: "vpc" name: nginx namespace: default spec: ports: - port: 443 protocol: TCP targetPort: 443 selector: run: nginx type: LoadBalancer 创建按流量付费的负载均衡 仅支持公网类型的负载均衡实例 以下两项annotation必选 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-bandwidth: "45" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-charge-type: "paybybandwidth" name: nginx namespace: default spec: ports: - port: 443 protocol: TCP targetPort: 443 selector: run: nginx type: LoadBalancer 创建带健康检查的负载均衡 设置TCP类型的健康检查 TCP端口默认开启健康检查,且不支持修改,即service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-flag annotation无效。 设置TCP类型的健康检查,以下所有annotation必选。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-type: "tcp" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-connect-timeout: "8" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-healthy-threshold: "4" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-unhealthy-threshold: "4" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-interval: "3" name: nginx namespace: default spec: ports: - port: 80 protocol: TCP targetPort: 80 selector: run: nginx type: LoadBalancer 设置HTTP类型的健康检查 设置HTTP类型的健康检查,以下所有的annotation必选。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-flag: "on" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-type: "http" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-uri: "/test/index.html" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-healthy-threshold: "4" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-unhealthy-threshold: "4" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-timeout: "10" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-interval: "3" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-protocol-port: "http:80" name: nginx namespace: default spec: ports: - port: 80 protocol: TCP targetPort: 80 selector: run: nginx type: LoadBalancer 为负载均衡设置调度算法 rr(默认值):轮询,按照访问顺序依次将外部请求依序分发到后端服务器。 wrr:加权轮询,权重值越高的后端服务器,被轮询到的次数(概率)也越高。 wlc:加权最小连接数,除了根据每台后端服务器设定的权重值来进行轮询,同时还考虑后端服务器的实际负载(即连接数)。当权重值相同时,当前连接数越小的后端服务器被轮询到的次数(概率)也越高。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-scheduler: "wlc" name: nginx namespace: default spec: ports: - port: 443 protocol: TCP targetPort: 443 selector: run: nginx type: LoadBalancer 为负载均衡配置访问控制策略组 需要先在阿里云负载均衡控制台上创建一个负载均衡访问控制策略组,然后记录该访问控制策略组ID(acl-id),然后使用如下annotation创建一个带有访问控制的负载均衡实例。 白名单适合只允许特定IP访问的场景,black黑名单适用于只限制某些特定IP访问的场景。 使用该功能前,请确保CloudControllerManage组件是最新版本。请登录容器服务管理控制台,在左侧导航栏选择集群 > 集群,在集群列表中对需要升级的集群单击更多 > 系统组件升级,在组件列表中找到Cloud Controller Manager,单击升级。系统组建升级 创建带有访问控制的负载均衡,以下三项annotation必选。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-acl-status: "on" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-acl-id: "${YOUR_ACL_ID}" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-acl-type: "white" name: nginx namespace: default spec: ports: - port: 443 protocol: TCP targetPort: 443 selector: run: nginx type: LoadBalancer 为负载均衡指定虚拟交换机 通过阿里云专有网络控制台查询交换机ID,然后使用如下的annotation为负载均衡实例指定虚拟交换机。 为负载均衡指定虚拟交换机,以下两项annotation必选。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-address-type: "intranet" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-vswitch-id: "${YOUR_VSWITCH_ID}" name: nginx namespace: default spec: ports: - port: 443 protocol: TCP targetPort: 443 selector: run: nginx type: LoadBalancer 为负载均衡指定转发端口 端口转发是指将http端口的请求转发到https端口上。 设置端口转发需要先在阿里云控制台上创建一个证书并记录cert-id。 如需设置端口转发,以下三项annotation必选。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-protocol-port: "https:443,http:80" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-cert-id: "${YOUR_CERT_ID}" service.beta.kubernetes.io/alibaba-cloud-loadbalancer-forward-port: "80:443" name: nginx namespace: default spec: ports: - name: https port: 443 protocol: TCP targetPort: 443 - name: http port: 80 protocol: TCP targetPort: 80 selector: run: nginx type: LoadBalancer 为负载均衡添加额外标签 多个tag以逗号分隔,例如"k1=v1,k2=v2"。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-additional-resource-tags: "Key1=Value1,Key2=Value2" name: nginx namespace: default spec: ports: - port: 80 protocol: TCP targetPort: 80 selector: run: nginx type: LoadBalancer 移除SLB后端unscheduleable状态的节点 kubectl cordon与kubectl drain命令会将节点置为unscheduleable状态,默认service.beta.kubernetes.io/alibaba-cloud-loadbalancer-remove-unscheduled-backend的取值为off,此时不会将处于unscheduleable状态的节点从SLB的后端服务器组移除。若需要从SLB的后端服务器组移除unscheduleable状态的节点,请将service.beta.kubernetes.io/alibaba-cloud-loadbalancer-remove-unscheduled-backend的的取值设置为on。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-remove-unscheduled-backend: "on" name: nginx spec: externalTrafficPolicy: Local ports: - name: http port: 30080 protocol: TCP targetPort: 80 selector: app: nginx type: LoadBalancer 直接将Pod ENI挂载到SLB后端 支持在Terway 网络模式下,通过annotation:service.beta.kubernetes.io/backend-type:"eni" 将Pod直接挂载到SLB后端,提升网络转发性能。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/backend-type: "eni" name: nginx spec: ports: - name: http port: 30080 protocol: TCP targetPort: 80 selector: app: nginx type: LoadBalancer 创建IPv6类型的负载均衡 集群的kube-proxy代理模式需要是IPVS。 生成的IPv6地址仅可在支持IPv6的环境中访问。 创建后IP类型不可更改。 apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/alibaba-cloud-loadbalancer-ip-version: "ipv6" name: nginx spec: ports: - port: 80 protocol: TCP targetPort: 80 selector: app: nginx type: LoadBalancer 说明 注释的内容是区分大小写的。 自2019年9月11日起,annotation字段alicloud更新为alibaba-cloud。 例如: 更新前:service.beta.kubernetes.io/alicloud-loadbalancer-id 更新后:service.beta.kubernetes.io/alibaba-cloud-loadbalancer-id 系统将继续兼容alicloud的写法,用户无需做任何修改,敬请注意。 注释 类型 描述 默认值 支持的版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-protocol-port string 多个值之间由逗号分隔,例如:https:443,http:80 无 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-address-type string 取值可以是internet或者intranet internet v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-slb-network-type string 负载均衡的网络类型,取值可以是classic或者vpc 取值为vpc时,需设置service.beta.kubernetes.io/alibaba-cloud-loadbalancer-address-type为intranet。 classic v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-charge-type string 取值可以是paybytraffic或者paybybandwidth paybytraffic v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-id string 负载均衡实例的 ID。通过 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-id指定您已有的SLB,默认情况下,使用已有的负载均衡实例,不会覆盖监听,如要强制覆盖已有监听,请配置service.beta.kubernetes.io/alibaba-cloud-loadbalancer-force-override-listeners为true。 无 v1.9.3.81-gca19cd4-aliyun及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-backend-label string 通过 label 指定 SLB 后端挂载哪些worker节点。 无 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-spec string 负载均衡实例的规格。可参见:CreateLoadBalancer 无 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-persistence-timeout string 会话保持时间。 仅针对TCP协议的监听,取值:0-3600(秒) 默认情况下,取值为0,会话保持关闭。 可参见:CreateLoadBalancerTCPListener 0 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-sticky-session string 是否开启会话保持。取值:on | off 说明 仅对HTTP和HTTPS协议的监听生效。 可参见:CreateLoadBalancerHTTPListener和CreateLoadBalancerHTTPSListener off v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-sticky-session-type string cookie的处理方式。取值: insert:植入Cookie。 server:重写Cookie。 说明 仅对HTTP和HTTPS协议的监听生效。 当service.beta.kubernetes.io/alibaba-cloud-loadbalancer-sticky-session取值为on时,该参数必选。 可参见:CreateLoadBalancerHTTPListener和CreateLoadBalancerHTTPSListener 无 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-cookie-timeout string Cookie超时时间。取值:1-86400(秒) 说明 当service.beta.kubernetes.io/alibaba-cloud-loadbalancer-sticky-session为on且service.beta.kubernetes.io/alibaba-cloud-loadbalancer-sticky-session-type为insert时,该参数必选。 可参见:CreateLoadBalancerHTTPListener和CreateLoadBalancerHTTPSListener 无 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-cookie string 服务器上配置的Cookie名称。 长度为1-200个字符,只能包含ASCII英文字母和数字字符,不能包含逗号、分号或空格,也不能以$开头。 说明 当service.beta.kubernetes.io/alibaba-cloud-loadbalancer-sticky-session为on且service.beta.kubernetes.io/alibaba-cloud-loadbalancer-sticky-session-type为server时,该参数必选。 可参见:CreateLoadBalancerHTTPListener和CreateLoadBalancerHTTPSListener 无 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-master-zoneid string 主后端服务器的可用区ID。 无 v1.9.3.10-gfb99107-aliyun及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-slave-zoneid string 备后端服务器的可用区ID。 无 v1.9.3.10-gfb99107-aliyun及以上版本 externalTrafficPolicy string 哪些节点可以作为后端服务器,取值: Cluster:使用所有后端节点作为后端服务器。 Local:使用Pod所在节点作为后端服务器。 Cluster v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-force-override-listeners string 绑定已有负载均衡时,是否强制覆盖该SLB的监听。 false:不覆盖 v1.9.3.81-gca19cd4-aliyun及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-bandwidth string 负载均衡的带宽,仅适用于公网类型的负载均衡。 50 v1.9.3.10-gfb99107-aliyun及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-cert-id string 阿里云上的证书ID。您需要先上传证书 无 v1.9.3.164-g2105d2e-aliyun及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-flag string 取值是on | off TCP监听默认为on且不可更改。 HTTP监听默认为off。 默认为off。TCP 不需要改参数。因为 TCP 默认打开健康检查,用户不可设置。 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-type string 健康检查类型,取值:tcp | http。 可参见:CreateLoadBalancerTCPListener tcp v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-uri string 用于健康检查的URI。 说明 当健康检查类型为TCP模式时,无需配置该参数。 可参见:CreateLoadBalancerTCPListener 无 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-connect-port string 健康检查使用的端口。取值: -520:默认使用监听配置的后端端口。 1-65535:健康检查的后端服务器的端口。 可参见:CreateLoadBalancerTCPListener 无 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-healthy-threshold string 健康检查连续成功多少次后,将后端服务器的健康检查状态由fail判定为success。 取值:2-10 可参见:CreateLoadBalancerTCPListener 3 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-unhealthy-threshold string 健康检查连续失败多少次后,将后端服务器的健康检查状态由success判定为fail。取值: 2-10 可参见:CreateLoadBalancerTCPListener 3 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-interval string 健康检查的时间间隔。 取值:1-50(秒) 可参见:CreateLoadBalancerTCPListener 2 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-connect-timeout string 接收来自运行状况检查的响应需要等待的时间,适用于TCP模式。如果后端ECS在指定的时间内没有正确响应,则判定为健康检查失败。 取值:1-300(秒) 说明 如果service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-connect-timeout的值小于service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-interval的值,则service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-connect-timeout无效,超时时间为service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-interval的值。 可参见:CreateLoadBalancerTCPListener 5 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-timeout string 接收来自运行状况检查的响应需要等待的时间,适用于HTTP模式。如果后端ECS在指定的时间内没有正确响应,则判定为健康检查失败。 取值:1-300(秒) 说明 如果 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-timeout的值小于service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-interval的值,则 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-timeout无效,超时时间为 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-interval的值。 可参见:CreateLoadBalancerTCPListener 5 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-domain string 用于健康检查的域名。 $_ip:后端服务器的私网IP。当指定了IP或该参数未指定时,负载均衡会使用各后端服务器的私网IP当做健康检查使用的域名。 domain:域名长度为1-80,只能包含字母、数字、点号(.)和连字符(-)。 无 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-health-check-httpcode string 健康检查正常的HTTP状态码,多个状态码用逗号(,)分割。取值: http_2xx http_3xx http_4xx http_5xx 默认值为http_2xx。 http_2xx v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-scheduler string 调度算法。取值wrr | wlc| rr。 wrr:权重值越高的后端服务器,被轮询到的次数(概率)也越高。 wlc:除了根据每台后端服务器设定的权重值来进行轮询,同时还考虑后端服务器的实际负载(即连接数)。当权重值相同时,当前连接数越小的后端服务器被轮询到的次数(概率)也越高。 rr:默认取值,按照访问顺序依次将外部请求依序分发到后端服务器。 rr v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-acl-status string 是否开启访问控制功能。取值: on | off off v1.9.3.164-g2105d2e-aliyun及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-acl-id string 监听绑定的访问策略组ID。当AclStatus参数的值为on时,该参数必选。 无 v1.9.3.164-g2105d2e-aliyun及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-acl-type string 访问控制类型。 取值:white | black。 white:仅转发来自所选访问控制策略组中设置的IP地址或地址段的请求,白名单适用于应用只允许特定IP访问的场景。设置白名单存在一定业务风险。一旦设名单,就只有白名单中的IP可以访问负载均衡监听。如果开启了白名单访问,但访问策略组中没有添加任何IP,则负载均衡监听会转发全部请求。 black: 来自所选访问控制策略组中设置的IP地址或地址段的所有请求都不会转发,黑名单适用于应用只限制某些特定IP访问的场景。如果开启了黑名单访问,但访问策略组中没有添加任何IP,则负载均衡监听会转发全部请求。当AclStatus参数的值为on时,该参数必选。 无 v1.9.3.164-g2105d2e-aliyun及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-vswitch-id string 负载均衡实例所属的VSwitch ID。设置该参数时需同时设置addresstype为intranet。 无 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-forward-port string 将HTTP请求转发至HTTPS指定端口。取值如80:443 无 v1.9.3.164-g2105d2e-aliyun及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-additional-resource-tags string 需要添加的Tag列表,多个标签用逗号分隔。例如:"k1=v1,k2=v2" 无 v1.9.3及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-remove-unscheduled-backend string 从slb后端移除SchedulingDisabled Node。取值on | off off v1.9.3.164-g2105d2e-aliyun及以上版本 service.beta.kubernetes.io/backend-type string 支持在Terway eni网络模式下,通过设定改参数为"eni",可将Pod直接挂载到SLB后端,提升网络转发性能。取值:eni。 无 v1.9.3.164-g2105d2e-aliyun及以上版本 service.beta.kubernetes.io/alibaba-cloud-loadbalancer-ip-version string 负载均衡实例的IP版本,取值:ipv4或ipv6 ipv4 v1.9.3.220-g24b1885-aliyun及以上版本

1934890530796658 2020-03-31 15:26:42 0 浏览量 回答数 0

阿里云高校特惠,助力学生创业梦!0元体验,快速入门云计算!

学生动手场景应用,快速了解并掌握云服务器的各种新奇玩法!

问题

Kubernetes 集群  通过负载均衡(Server Load Balancer)访问服务

青蛙跳 2019-12-01 21:33:05 1419 浏览量 回答数 0

回答

通过virtual-kubelet创建Pod到ECI平台时,为充分利用ECI系统提供的功能,并且不改变kubernetes语义的前提下,我们借助了Annotation的作用,根据需求增加有意义的Annotation,virtual-kubelet做转译,提升与ECI平台的交互。 本文主要介绍virtual-kubelet目前支持的Annotation列表,会定期更新,并且介绍每个Annotation作用和影响。 说明 下面介绍的注解,仅适用于创建到virtual-kubelet节点上的Pod。 指定ECI规格 增加k8s.aliyun.com/eci-use-specs注解, 创建Pod时允许使用的实例规格列表,遇到没库存时,按照顺序遍历规格列表购买ECI实例,应对库存问题。 k8s.aliyun.com/eci-use-specs的值,支持列表,使用逗号分隔,列表中元素的格式: 1.模糊匹配 ${cpu}-${mem}Gi:例如: 2-4Gi;表示创建一个2核4G的ECI实例。 ecigpu-${gpuTpye}-${gpuCount}:例如: ecigpu-P100-4;ecigpu: 暗示使用GPU规格,P100: 表示GPU类型,4: 表示申请的GPU个数,目前virtual-kubelet支持的gpuType和gpuCount如下表: gputype gpuCount 匹配实例规格 P4 1 ecs.gn5i-c2g1.large P4 2 ecs.gn5i-c16g1.8xlarge P4 4 ecs.gn5i-c28g1.14xlarge V100 1 ecs.gn6v-c8g1.2xlarge V100 4 ecs.gn6v-c8g1.8xlarge V100 8 ecs.gn6v-c8g1.16xlarge P100 1 ecs.gn5-c8g1.2xlarge P100 2 ecs.gn5-c8g1.4xlarge P100 4 ecs.gn5-c8g1.8xlarge P100 8 ecs.gn5-c8g1.14xlarge 2.精确设置:明确指定创建ECI使用的实例规格,例如:ecs.c6.xlarge,ECI支持的实例规格,请参见实例规格族。 apiVersion: apps/v1beta2 # for versions before 1.8.0 use apps/v1beta1 kind: Deployment metadata: name: vk-cos-use labels: app: cos spec: replicas: 1 selector: matchLabels: app: cos template: metadata: annotations: "k8s.aliyun.com/eci-use-specs": "64-512Gi, 2-4Gi,ecs.c6.xlarge,ecigpu-P100-4" labels: app: cos spec: containers: - name: u1 image: "registry-vpc.cn-beijing.aliyuncs.com/lxx/cos-4g" nodeName: virtual-node-eci-0 ImageCache 创建Pod时,利用镜像缓存技术,加速创建速度。请参见使用镜像缓存 CRD 加速创建 Pod。 手工指定 创建Deployment时,可以指定已有ImageCacheID,加速Deployment创建。 apiVersion: apps/v1beta2 # for versions before 1.8.0 use apps/v1beta1 kind: Deployment metadata: name: nginx-with-imagecache spec: replicas: 1 selector: matchLabels: app: nginx template: metadata: annotations: "k8s.aliyun.com/eci-image-snapshot-id": "${your_image_cache_id}" labels: app: nginx spec: containers: - name: nginx image: nginx:1.7.9 imagePullPolicy: IfNotPresent nodeName: virtual-node-eci-0 自动匹配 创建Deployment时,开启自动匹配镜像缓存,在创建过程中,会根据用户已有的镜像缓存,选择最优的镜像缓存,加速Deployment创建。 apiVersion: apps/v1beta2 # for versions before 1.8.0 use apps/v1beta1 kind: Deployment metadata: name: nginx-dynamic-image-cache labels: app: nginx-dynamic-image-cache spec: replicas: 1 selector: matchLabels: app: nginx template: metadata: annotations: "k8s.aliyun.com/eci-image-cache": "true" labels: app: nginx spec: containers: - name: nginx image: nginx:latest imagePullPolicy: IfNotPresent nodeName: virtual-node-eci-0 弹性公网 IP 通过注解为ECI实例绑定弹性公网IP,赋予ECI实例公网访问能力,弹性公网IP详细信息,请参见什么是弹性公网IP。 自动创建 创建Deployment时,同时创建弹性公网IP,绑定到ECI实例。 自动创建的公网IP信息: 带宽默认为5M,可以通过注解调整。 计费方式为按量计费。 apiVersion: apps/v1beta2 # for versions before 1.8.0 use apps/v1beta1 kind: Deployment metadata: name: cos-vk-resource-group-id labels: app: vk spec: replicas: 1 selector: matchLabels: app: nginx template: metadata: annotations: "k8s.aliyun.com/eci-with-eip": "true" "k8s.aliyun.com/eip-bandwidth": "10" labels: app: nginx spec: containers: - name: nginx image: nginx:latest nodeName: virtual-node-eci-0 手工指定 创建Deployment时,选择已有弹性公网IP,绑定到ECI实例。 apiVersion: apps/v1beta2 # for versions before 1.8.0 use apps/v1beta1 kind: Deployment metadata: name: cos-vk-resource-group-id labels: app: vk spec: replicas: 1 selector: matchLabels: app: nginx template: metadata: annotations: "k8s.aliyun.com/eci-eip-instanceid": "${your_eip_Instance_Id}" labels: app: nginx spec: containers: - name: nginx image: nginx:latest nodeName: virtual-node-eci-0 设置NTP服务 通过注解为ECI实例设置ntp server,支持设置多个。请参见为 Pod 配置 NTP 服务。 apiVersion: apps/v1beta2 # for versions before 1.8.0 use apps/v1beta1 kind: Deployment metadata: name: set-ngnix-ntp labels: app: vk spec: replicas: 1 selector: matchLabels: app: nginx template: metadata: annotations: "k8s.aliyun.com/eci-ntp-server": 100.100.5.1,100.100.5.2 # 设置您的NTP服务器地址 labels: app: nginx spec: containers: - name: nginx image: nginx:latest nodeName: virtual-node-eci-0 设置资源组 通过注解为ECI实例设定资源组。 apiVersion: apps/v1beta2 # for versions before 1.8.0 use apps/v1beta1 kind: Deployment metadata: name: cos-vk-resource-group-id labels: app: vk spec: replicas: 1 selector: matchLabels: app: nginx template: metadata: annotations: "k8s.aliyun.com/eci-resource-group-id" : "${your_resource_group_id}" labels: app: nginx spec: containers: - name: nginx image: nginx:latest nodeName: virtual-node-eci-0 设置RamRole 通过注解为ECI实例设置已有RamRole,赋予在ECI实例内部可以访问阿里云产品能力。 apiVersion: apps/v1beta2 # for versions before 1.8.0 use apps/v1beta1 kind: Deployment metadata: name: set-ram-role labels: app: vk spec: replicas: 1 selector: matchLabels: app: nginx template: metadata: annotations: "k8s.aliyun.com/eci-ram-role-name" : "${your_ram_role_name}" labels: app: nginx spec: containers: - name: nginx image: nginx:latest nodeName: virtual-node-eci-0 设置虚拟交换机 virtual-kubelet启动时,通过环境变量ECI_VSWITCH设置默认虚机交换机,所有创建在虚拟机节点上的Deployment默认使用virtual-kubelet配置的虚拟交换机创建ECI实例,如果用户希望使用同VPC下其他虚拟交换机创建ECI实例,可以通过注解方式显示指定虚拟交换机。 apiVersion: apps/v1beta2 # for versions before 1.8.0 use apps/v1beta1 kind: Deployment metadata: name: set-vswitch labels: app: nginx spec: replicas: 1 selector: matchLabels: app: nginx template: metadata: annotations: "k8s.aliyun.com/eci-vswitch" : "${your_vsw_id}" labels: app: nginx spec: containers: - name: nginx image: nginx:latest nodeName: virtual-node-eci-0 设置安全组 virtual-kubelet启动时,通过环境变量ECI_SECURITY_GROUP设置默认安全组,所有创建在虚拟机节点上的Deployment默认使用virtual-kubelet配置的安全组创建ECI实例,如果用户希望使用同VPC下其他安全组创建ECI实例,可以通过注解方式显示指定安全组。 apiVersion: apps/v1beta2 # for versions before 1.8.0 use apps/v1beta1 kind: Deployment metadata: name: set-security-group labels: app: nginx spec: replicas: 1 selector: matchLabels: app: nginx template: metadata: annotations: "k8s.aliyun.com/eci-security-group" : "${your_security_group_id}" labels: app: nginx spec: containers: - name: nginx image: nginx:latest nodeName: virtual-node-eci-0

1934890530796658 2020-03-20 17:44:05 0 浏览量 回答数 0

问题

openSUSE 13.1和Windows2012 R1 64位Beta版本镜像上线

qilu 2019-12-01 21:53:17 7320 浏览量 回答数 5

问题

版主~我发现问题啊?很严重

chaeyang 2019-12-01 20:14:09 6592 浏览量 回答数 4

回答

你要先装Xcode如果你从Xcode5升级到了Xcode6,那有可能你的xcode-tool路径还是老的,你可以看看xcode-select -p的输出是不是之前Xcode5下的目录,如果是这样你需要更新一下,用命令:sudo xcode-select -s /Applications/Xcode-Beta.app/Contents/Developer这里的/Applications/Xcode-Beta.app/Contents/Developer是你的Xcode6安装目录,确认是否正确。如果上述都没问题,再用sudo xcode-select --install命令确认命令行工具都装了。

蛮大人123 2019-12-02 01:43:05 0 浏览量 回答数 0

问题

iOS 5 Beta 4越狱工具Redsn0w 0.9.8b4最新版下载

杨冬芳 2019-12-01 20:10:29 909 浏览量 回答数 0

回答

另外 以下哪个版本会更好点? CentOS 5.10 64位 CentOS 5.8 64位 CentOS 6.5 64位 CentOS 7.0 64位 Beta版

a5573192 2019-12-02 01:16:49 0 浏览量 回答数 0

回答

ReFtp4oss推出支持Linux系统的FTP云工具(Beta)欢迎大家试用、反馈! 怎么安装明白了,但是搞不明白怎么使用它?配置好OSS和ftp账号密码后,让程序一直运行,就可以远程附件吗? ------------------------- ReFtp4oss推出支持Linux系统的FTP云工具(Beta)欢迎大家试用、反馈! [root@ home]# cd FtpServerX64 [root@ FtpServerX64]# ./startFtpServer.sh ./startFtpServer.sh: line 3: ./ftpServerCmd: cannot execute binary file 不能启动,后面输入co命令后提示没有找到命令, 我的系统是CentOS 5.4 32位 ------------------------- ReFtp4oss推出支持Linux系统的FTP云工具(Beta)欢迎大家试用、反馈! 哦,什么时候发布啊?

licychen 2019-12-02 02:56:37 0 浏览量 回答数 0

回答

楼主真黑,你咋知道<aclass="referer"target="_blank">@红薯是同志?######不要闹了:)######我就知道楼主是借故探红薯口风是否是同志..######动弹数据######动弹自动刷新######回复<aclass="referer"target="_blank">@cyb_beta:嘿嘿,我不说话######回复<aclass="referer"target="_blank">@cyb_beta:好意思。######回复<aclass="referer"target="_blank">@cyb_beta:9494######回复<aclass="referer"target="_blank">@水牛叔叔:码农使用的浏览器不支持html5,还好意思混osc?######回复<aclass="referer"target="_blank">@cyb_beta:浏览器怎么推送?不是每个浏览器都完全支持html5的######我比较好奇那个undefined是怎么回事######很明显是动蛋######<imgsrc="http://www.oschina.net/js/ke/plugins/emoticons/images/10.gif"alt=""/>是不是同志我不知道。。。

优选2 2020-06-09 15:51:08 0 浏览量 回答数 0

回答

可以如下操作: 1. 自行申请一个SLB实例,配置好对应的前端监听端口; 2. 修改不同的IngressController的LoadBalancer Service,添加注释service.beta.kubernetes.io/alibaba-cloud-loadbalancer-id指向步骤1申请的SLB ID上 3. 同时添加注释service.beta.kubernetes.io/alibaba-cloud-loadbalancer-force-override-listeners: false,避免配置的前端监听端口被覆写; 更多注释配置可参考:https://help.aliyun.com/document_detail/86531.html?spm=a2c4g.11174283.6.697.75852ceeEN5zaI

chenqz 2020-03-12 11:37:07 0 浏览量 回答数 0

问题

创建SLB指定的targetport不起作用

2019-12-01 19:08:25 456 浏览量 回答数 0

问题

或许是 2017年 最新的 ngx_pagespeed 安装姿势

妙正灰 2019-12-01 21:58:18 4013 浏览量 回答数 2

回答

回 楼主(mytsing520) 的帖子 用了快 5个月了,从 beta1 - rc8和前2天的正式版,感觉 rc5之后错误都修复了些,速度快过 php5.6.16 大约 15 - 30%。7.0可以配合 wincache使用。

html5game 2019-12-02 01:03:21 0 浏览量 回答数 0

回答

Re阿里云手机和阿云浏览器连接问题专帖 E619 1.5.1.16-RT-201205310214856 alibrowser 1.7.1.2135 beta

mumumi 2019-12-02 02:53:01 0 浏览量 回答数 0

回答

天语e688无法连接 天语e688 无法连接 浏览器版本 1.8.1.2523 beta 手机os版本号 1.5.1.15-rt-20120829.154448

iamwyh 2019-12-02 02:54:38 0 浏览量 回答数 0

问题

啊云浏览器无法安装应用

clover120874 2019-12-01 20:06:31 5548 浏览量 回答数 4

问题

升级浏览器到1.6.5.2025以后不能检测阿里旺旺号了?

xhhxhh1982 2019-12-01 20:14:42 6317 浏览量 回答数 3

回答

在使用Kubernetes集群实现GPU计算时,为了有效利用GPU设备,可根据需要将应用调度到具有GPU设备的节点上,为此,您可利用GPU节点标签进行灵活调度。 前提条件 您已成功创建一个拥有GPU节点的Kubernetes集群,参见Kubernetes GPU集群支持GPU调度。 您已连接到Master节点,方便快速查看节点标签等信息,参见通过 kubectl 连接 Kubernetes 集群。 背景信息 阿里云Kubernetes在部署Nvidia GPU节点的时候会发现GPU的属性,并且作为NodeLabel信息暴露给用户,拥有如下优势: 可以快速筛选GPU节点 部署时可以作为调度条件使用 操作步骤 登录容器服务管理控制台。 在Kubernetes菜单下,单击左侧导航栏中的集群 > 节点,查看该集群的节点。 说明 本例中,该集群中拥有3个Worker节点,其中有两个Worker节点挂载了GPU设备,请查看节点IP,方便进行验证。 查看节点 选择GPU节点,单击操作列的更多 > 详情,进入Kubernetes Dashboard页面,查看GPU节点提供的节点标签。 节点详情 您也可登录到Master节点,执行以下命令,查看GPU节点的标签。 kubectl get nodes NAME STATUS ROLES AGE VERSION cn-beijing.i-2ze2dy2h9w97v65uuaft Ready master 2d v1.11.2 cn-beijing.i-2ze8o1a45qdv5q8a7luz Ready 2d v1.11.2 #可与控制台进行比对,确定GPU节点 cn-beijing.i-2ze8o1a45qdv5q8a7lv0 Ready 2d v1.11.2 cn-beijing.i-2ze9xylyn11vop7g5bwe Ready master 2d v1.11.2 cn-beijing.i-2zed5sw8snjniq6mf5e5 Ready master 2d v1.11.2 cn-beijing.i-2zej9s0zijykp9pwf7lu Ready 2d v1.11.2 选择一个GPU节点,执行以下命令,查看该GPU节点的标签。 kubectl describe node cn-beijing.i-2ze8o1a45qdv5q8a7luz Name: cn-beijing.i-2ze8o1a45qdv5q8a7luz Roles: Labels: aliyun.accelerator/nvidia_count=1 #注意 aliyun.accelerator/nvidia_mem=12209MiB aliyun.accelerator/nvidia_name=Tesla-M40 beta.kubernetes.io/arch=amd64 beta.kubernetes.io/instance-type=ecs.gn4-c4g1.xlarge beta.kubernetes.io/os=linux failure-domain.beta.kubernetes.io/region=cn-beijing failure-domain.beta.kubernetes.io/zone=cn-beijing-a kubernetes.io/hostname=cn-beijing.i-2ze8o1a45qdv5q8a7luz ...... 本例中,该GPU节点包含如下3个节点标签(NodeLabel)。 key value aliyun.accelerator/nvidia_count GPU核心数量 aliyun.accelerator/nvidia_mem GPU显存,单位为MiB aliyun.accelerator/nvidia_name nvida设备的GPU计算卡名称 同一类型的GPU云服务器的GPU计算卡名称相同,因此,您可通过该标签筛选节点。 kubectl get no -l aliyun.accelerator/nvidia_name=Tesla-M40 NAME STATUS ROLES AGE VERSION cn-beijing.i-2ze8o1a45qdv5q8a7luz Ready 2d v1.11.2 cn-beijing.i-2ze8o1a45qdv5q8a7lv0 Ready 2d v1.11.2 返回容器服务控制台主页,单击左侧导航栏应用 > 无状态,单击右上角使用模板创建。 创建一个tensorflow的Deployment,将该应用调度到GPU节点上。 创建应用 本例的yaml编排如下所示。 Define the tensorflow deployment apiVersion: apps/v1 kind: Deployment metadata: name: tf-notebook labels: app: tf-notebook spec: replicas: 1 selector: # define how the deployment finds the pods it mangages matchLabels: app: tf-notebook template: # define the pods specifications metadata: labels: app: tf-notebook spec: nodeSelector: #注意 aliyun.accelerator/nvidia_name: Tesla-M40 containers: - name: tf-notebook image: tensorflow/tensorflow:1.4.1-gpu-py3 resources: limits: nvidia.com/gpu: 1 #注意 ports: - containerPort: 8888 hostPort: 8888 env: - name: PASSWORD value: mypassw0rdv 您也可避免将某些应用部署到GPU节点。下面部署一个nginx的Pod,利用节点亲和性的特性进行调度,具体参见镜像创建无状态Deployment应用中关于节点亲和性的说明。 该示例的yaml编排如下所示: apiVersion: v1 kind: Pod metadata: name: not-in-gpu-node spec: affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: aliyun.accelerator/nvidia_name operator: DoesNotExist containers: - name: not-in-gpu-node image: nginx 单击左侧导航栏应用 > 容器组,选择所需的集群和命名空间,进入容器组列表。 查看容器组 执行结果 在容器组列表中,您可看到两个示例的Pod(容器组)成功调度到对应的节点上,从而实现基于GPU节点标签的灵活调度。

1934890530796658 2020-03-26 23:03:59 0 浏览量 回答数 0

回答

Re阿里云手机和阿云浏览器连接问题专帖 手机连接不上电脑,下载不了软件呐。。。。 固件版本:1.5.1.12-RT-20120427.175042 阿云浏览器:1.7.3.2166  beta

ap3850f0f 2019-12-02 02:53:18 0 浏览量 回答数 0

回答

Apache Tomcat VersionsApache Tomcat®是java Servlet和JSP技术的一个开放源代码的软件实现。不同版本的Apache Tomcat可用于不同版本的servlet和JSP规范。规格和各自的Apache Tomcat版本之间的映射是:每个版本的tomcat是任何稳定的java版本,满足最后一列的表中的上述要求的支持。Tomcat也应该工作在任何java早期访问构建满足最后一列的表中的上述要求。例如,用户已成功运行Tomcat 8在java 8个多月前的第一个稳定的java 8版本。但是,早期访问构建的用户应该知道以下内容:这是不寻常的初步早期访问构建包含错误,可能会导致问题的Web应用程序运行在Tomcat。如果新的java版本引入了新的语言特征,然后默认的JSP编译器可能不支持他们。JSP编译器javac开关可以使这些新的语言功能可用于在JSPs。如果你发现一个问题,使用java早期Access建立,请寻求帮助。Tomcat的用户的邮件列表可能是最好的开始。下面的详细说明将帮助您确定哪一个适合您。有关每个版本的详细信息可以在相关的发行说明中找到。请注意,虽然我们提供下载和旧版本的文件,如Apache Tomcat 6,x,我们强烈鼓励用户使用最新的稳定版本的Apache Tomcat尽可能。我们认识到,在主要版本的升级可能不是一个简单的任务,一些支持仍然提供的旧版本的用户的邮件列表。但是,由于社区驱动的支持方式,你的版本越老,会有更少的人感兴趣或者能够支持你。Alpha / Beta / Stable当投票为一个版本,评审指定的稳定水平,他们认为释放已经达到。最初版本的一个新的主要版本通常从阿尔法,通过测试,以稳定在几个月的时间内。然而,稳定的水平是唯一的一次java规范发布实施已完成。这意味着在所有其他方面被认为是稳定的版本,如果规格不是最终的,仍然可以被标记为beta。下载页将始终显示最新的稳定版本和任何新的alpha或beta版本,如果存在。alpha和beta版本总是在下载页面上明确标注。稳定性是一个主观判断,你应该仔细阅读发行说明任何版本,你打算利用。如果你是一个释放的早期采用者,我们很想听听你对其作为投一部分稳定的看法:它发生在开发邮件列表。alpha版本可能包含大量未经测试的/缺少的功能所需的规范和/或重大错误,预计不会运行稳定的任何时间长度。Beta版本可能包含一些未经测试的功能和/或一些相对较小的错误。beta版本预计不会稳定运行。稳定版本可能包含少量相对较小的错误。稳定版本的目的是生产使用,预计将稳定运行长时间。Apache Tomcat 9.xApache Tomcat 9是当前开发的重点,它基于Tomcat 8和X实现了Servlet 4规范的当前草案,并且还将实现JSP 2.4?,厄尔尼诺3.1?1.2、WebSocket?1.1、jaspic规格一旦开始更新java EE 8规范。除此之外,还包括以下重大改进:增加支持HTTP / 2(要求APR /本机库)增加支持TLS虚拟主机增加使用TLS支持JSSE连接器支持OpenSSL(NiO和NIO2)Apache Tomcat 8.xApache Tomcat 8。x建立在Tomcat 7。X实现了servlet JSP 2.3,3.1,3和1.1规格的WebSocket EL。除此之外,还包括以下重大改进:一个单一的,共同的资源实现,以取代早期版本中提供的多个资源扩展功能。Apache Tomcat 8.5。X支持同一个servlet,JSP,EL和WebSocket规范版本的Apache Tomcat 8。X。此外,它还实现jaspic 1.1规范。在许多地区的引擎盖下有显着的变化,从而提高性能,稳定性和总拥有成本。请参阅Apache Tomcat 8.5更新详情。Apache Tomcat 7.xApache Tomcat 7。x建立在Tomcat 6做了改进。X实现了JSP Servlet 3,2.2,2.2和1.1规格的WebSocket EL。除此之外,还包括以下改进:Web应用程序内存泄漏检测与防范管理器和主机管理器应用程序的安全性改进通用的CSRF保护支持直接包含外部内容的web应用程序重构(连接器,生命周期)和大量内部代码清理Apache Tomcat 6.xApache Tomcat 6 x基于Tomcat 5.5和X的改进,实现了servlet 2.5和JSP 2.1规范。除此之外,还包括以下改进:内存使用的优化先进的IO能力重构的聚类Tomcat 6的用户应该意识到Tomcat 6已经达到生命的终结。Tomcat 6的用户应该升级到Tomcat 7 x或更高版本。Apache Tomcat 5.xApache Tomcat 5 x可从档案中下载。Apache Tomcat 5.5 x支持与Apache Tomcat 5相同的servlet和JSP规范版本。在引擎盖下的许多区域都有显著的变化,导致性能、稳定性和总拥有成本的提高。请参阅Apache Tomcat 5.5更新详情。Apache Tomcat 5 x在许多方面提高Apache Tomcat 4.1,包括:性能优化和减少垃圾收集重构应用程序的部署,一个可选的独立部署允许Web应用程序的验证和编译之前把它在生产完整的服务器使用JMX和经理的Web应用监控可扩展性和可靠性增强改进的标签库处理,包括先进的共享和标签插件改进的平台集成,与本机的Windows和Unix的包装嵌入使用JMX增强安全管理器支持集成会话聚类扩展的文件Apache Tomcat 4.xApache Tomcat 4 x可从档案中下载。Apache Tomcat 4。X实现了一种新的servlet容器(称为卡特琳娜)是基于全新的架构。4、X发布实现Servlet 2.3和JSP 1.2规范。Apache Tomcat 4.1 x是Apache Tomcat 4 x的重构,并包含显著的增强功能,包括:基于JMX的管理功能基于JSP和Struts的管理Web应用新狼连接器(HTTP/1.1,AJP 1.3和JNI支持)重写JSP页面编译器性能和内存效率改进增强管理器应用程序支持与开发工具集成自定义Ant任务与管理应用程序直接从build.xml脚本互动Apache Tomcat 4。X的Apache Tomcat 4.0.6是旧的生产质量释放。4 Servlet容器(Catalina)已经从地上爬起来的灵活性和性能开发。版本4实现了servlet 2.3和JSP 1.2规范的最终发布版本。按照规格要求,Apache Tomcat 4还支持为servlet 2.2和JSP 1.1规范构建的Web应用程序,没有任何更改。Apache Tomcat 3.xApache Tomcat 3 x可从档案中下载。版本3.3是当前生产质量发布的servlet 2.2和JSP 1.1规格。Apache Tomcat 3.3是Apache Tomcat 3最新的延续。X架构;然后3.2.4更先进,这是'老'生产质量释放。3.2.4版本是'老'生产质量的释放和现在在维护模式。3.1.1版是一个传统的释放。所有Apache Tomcat 3 x释放他们的遗产回到原来的servlet和JSP实现Sun捐赠给Apache软件基金会。3、X版全部实现Servlet 2.2和JSP 1.1规范。Apache Tomcat 3.3。X版本3.3.2是当前生产质量释放。它继续在第3.2版中开始的重构,并把它带到合乎逻辑的结论。版本3.3提供了一个更加模块化的设计,通过添加和移除控制servlet请求处理的模块来实现servlet容器的定制。此版本还包含许多性能改进。3.2版本的版本自3.1起增加了一些新的功能;主要的努力是重构内部以提高性能和稳定性。3.2.1版本的,像3.1.1,是一个安全补丁。3.2.2版本,一大批固定的错误和所有已知的规范合规问题。3.2.3版本是一个安全更新,关闭一个严重的安全漏洞。是一个小bug修复版本3.2.4释放。Apache Tomcat版本3.2.3所有用户之前,应尽快升级。除了关键的安全相关的错误修复,Apache Tomcat 3.2 X分支的发展已经停止。3.1的版本包含了Apache Tomcat 3的几个改进,包括servlet重装、WAR文件支持以及为IIS和Netscape Web服务器添加了连接器。最新的维护版本,3.1.1,包含对安全问题的修复。没有活动的发展进行了Apache Tomcat 3.1。X的用户应该升级到Apache Tomcat 3.1 3.1.1关闭安全漏洞,大力鼓励他们迁移到目前的产能释放,Apache Tomcat 3.3。Apache Tomcat 3初始Apache Tomcat发布。

hiekay 2019-12-02 01:39:27 0 浏览量 回答数 0

回答

您好,十分感谢您对我们的认可,双核切换可手动切换,假如您现在使用的是ie兼容模式,可以点击右上角红框中的图标     ,即可切换到高速模式,谢谢。 ------------------------- 回 2楼(chaeyang) 的帖子 您好,开启阿里云浏览器时会自动出现更新进度条更新的,您也可以在”帮助“里点击“检查新版本”哦 ,谢谢您的关注。 ------------------------- 回 5楼(tongchen) 的帖子 您好,目前阿里云浏览器双核预览版v1.6.2.1868 Beta 和阿里云浏览器v1.5.0.1960 Beta在浏览器的右下方有截图按钮哦, ,谢谢。 ------------------------- 回 4楼(tongchen) 的帖子 您好,“可信网站验证”图标需要您打开网页的时候才会显示哦,麻烦在尝试下,谢谢。 ------------------------- 回 8楼(tongchen) 的帖子 您好,您的建议我们已经记下喽,谢谢您的关注。

alibrowser 2019-12-02 03:00:01 0 浏览量 回答数 0

回答

主要为您介绍如何使用GPU容器实例,这里以使用 Tensorflow 进行图片识别为例进行演示。该功能适用于Serverless kubernetes 集群和在 Kubernetes 集群创建的虚拟节点。 指定 GPU 类型进行创建 该模式下,ECI 会自动匹配符合 GPU 个数及类型要求的最小 ECS 规格进行创建。 示例一:使用 GPU 容器实例。 示例二:云上快速搭建Serverless AI实验室。 指定 ECS 的 GPU 规格进行创建 在极端情况下,某个可用区的最小 ECS GPU 规格可能售罄,可以通过直接指定 ECS 规格进行 GPU 实例的创建。 Yaml 示例 需要在 Pod 的 metadata 中添加指定规格的 annotations。 需要在 Container 的 resources 中申明 GPU 资源。 apiVersion: apps/v1beta2 # for versions before 1.8.0 use apps/v1beta1 kind: Deployment metadata: name: nginx-gpu-demo-1 labels: app: nginx spec: replicas: 2 selector: matchLabels: app: nginx template: metadata: labels: app: nginx annotations: k8s.aliyun.com/eci-instance-type: ecs.gn5i-c4g1.xlarge spec: # nodeSelector: # env: test-team containers: - name: nginx image: registry-vpc.cn-beijing.aliyuncs.com/eci_open/nginx:1.15.10 # replace it with your exactly <image_name:tags> resources: limits: nvidia.com/gpu: '1' ports: - containerPort: 80

1934890530796658 2020-03-20 17:35:25 0 浏览量 回答数 0

回答

问题解决的,是angular/cli版本的问题1.4.5是个坑,果断用 cnpmuninstall-g@angular/cli卸载 然后重新下载cnpminstall-g@angular/cli@1.3.1  蜜汁解决 现在默认安装的版本是个坑,不管是linux还是windows都会出现这种问题beta版我不清楚,应该坑更多

爱吃鱼的程序员 2020-06-08 10:26:18 0 浏览量 回答数 0

回答

引用第2楼joechiong于2011-08-03 15:53发表的  : 我的操作系统是win764位,ie9,阿里云浏览器版本是1.0.3.20beta 我机器是win7 64bit +IE9,使用阿云浏览器1.0.5.14,没有任何问题。建议楼主从browser.aliyun.com下载最新版进行升级。

linuxc 2019-12-02 02:25:29 0 浏览量 回答数 0

问题

亲疏有别,下载phpwind居然比discuz快100倍以上

xpress 2019-12-01 20:26:36 7069 浏览量 回答数 3

回答

回 楼主(ap7251w5k) 的帖子 楼主,数据线连接电脑后,手机端是否选择的“连接到云空间”?阿云浏览器是最新版本(v1.7.1.2135 Beta)的吗? ------------------------- 回 2楼(ap7251w5k) 的帖子 可能跟网吧的电脑的驱动设置有关系~~关于这个问题,目前相关部门正在紧急解决,相信很快会有一个根本的解决方法~~

cloud_hua 2019-12-02 03:08:40 0 浏览量 回答数 0

回答

看来用的人还不多,经过询问jQuery plugins的客服,以及不断尝试,终于解决了问题。(这里就自问自答吧) 1、要注意 *.jquery.json 的命名,要跟 name 保持一致 2、版本号不要瞎写,要用 “semver.org” 的规则 尤其要注意这个例子: 1.0.0-alpha < 1.0.0-alpha.1 < 1.0.0-beta.2 < 1.0.0-beta.11 < 1.0.0-rc.1 < 1.0.0-rc.1+build.1 < 1.0.0 < 1.0.0+0.3.7 < 1.3.7+build < 1.3.7+build.2.b8f12d7 < 1.3.7+build.11.e0f985a. 3、push tag 之前一定要保证 .json 文件中的 version 与你将要发布的版本号一致 4、发布了一个版本后,如果出现错误,那么只能用更高级的版本号发布,jQuery Plugins 才会响应,反复提交同一个版本 或 低版本的信息 是不会让 jQuery Plugins 有任何操作的。 为了测试这个,不得不让 zTree 在 GitHub 上 升到的 3.5.11 的版本,木有办法。 以下附上 jQuery Plugins 客服的Email 原文: I assume you tagged, noticed your error, deleted the tag, fixed the error, then re-tagged with the same name. The plugins site will not process a tag of the same name twice. You'll need to bump your version if you published an invalid tag.

a123456678 2019-12-02 03:05:36 0 浏览量 回答数 0
阿里云大学 云服务器ECS com域名 网站域名whois查询 开发者平台 小程序定制 小程序开发 国内短信套餐包 开发者技术与产品 云数据库 图像识别 开发者问答 阿里云建站 阿里云备案 云市场 万网 阿里云帮助文档 免费套餐 开发者工具 企业信息查询 小程序开发制作 视频内容分析 企业网站制作 视频集锦 代理记账服务 企业建站模板