serverless-knative serving安装实战

本文涉及的产品
Serverless 应用引擎免费试用套餐包,4320000 CU,有效期3个月
函数计算FC,每月15万CU 3个月
简介: serverless-knative serving安装实战

all in serverless,最近一段时间要把这个研究透彻,然后输出一系列文章,干货还在后面,欢迎关注

0、服务器环境

centos7.6


1、上网

访问gcr镜像


2、设置docker代理

(1)创建以下目录:/etc/systemd/system/docker.service.d

(2)在上述目录下创建http-proxy.conf文件,内容如下:

[Service]
Environment="HTTP_PROXY=http://127.0.0.1:7890"
Environment="NO_PROXY=localhost,127.0.0.1,docker-registry.example.com,.corp"

(3)刷新配置,重启docker服务:


sudo systemctl daemon-reload
sudo service docker restart
systemctl show --property=Environment docker  //如果配置成功,执行该命令将会看到配置的代理信息

3、系统设置代理

临时性设置,只修改环境变量

export http_proxy=http://127.0.0.1:7890/
export proxy="http://127.0.0.1:7890"
export http_proxy=$proxy
export https_proxy=$proxy
export ftp_proxy=$proxy
export no_proxy="localhost, 127.0.0.1, ::1"

4、安装knative serving

1.安装所需的自定义资源:

kubectl apply -f https://github.com/knative/serving/releases/download/v0.23.3/serving-crds.yaml

2.安装 Knative Serving 的核心组件:

kubectl apply -f https://github.com/knative/serving/releases/download/v0.23.3/serving-core.yaml

3.验证安装

监控 Knative 组件,直到所有组件都显示 STATUS 为 Running 或 Completed:

kubectl get pods --namespace knative-serving

5、安装网络层

在这里,我们选择Istio作为Knative的网络层组件。Istio平台的具体安装步骤如下。


安装正确配置的 Istio

kubectl apply -f https://github.com/knative/net-istio/releases/download/v0.23.2/istio.yaml

安装 Knative Istio 控制器:

kubectl apply -f https://github.com/knative/net-istio/releases/download/v0.23.2/net-istio.yaml

获取外部 IP 或 CNAME:

kubectl --namespace istio-system get service istio-ingressgateway

保存它用于配置后面的 DNS。


6、设置DNS

要为 Knative 配置 DNS,请从设置网络中获取外部 IP 或 CNAME,并使用您的 DNS 提供商对其进行配置,如下所示:


如果网络层生成了外部 IP 地址,则为域配置通配符 A 记录:


# 这里 knative.example.com 是你集群的域后缀
*.knative.example.com == A 35.233.41.212

如果网络层生成了 CNAME,则为域配置 CNAME 记录:


# 这里 knative.example.com 是你集群的域后缀
*.knative.example.com == CNAME a317a278525d111e89f272a164fd35fb-1510370581.eu-central-1.elb.amazonaws.com

配置 DNS 提供商后,指示 Knative 使用该域:

# Replace knative.example.com with your domain suffix
kubectl patch configmap/config-domain \
  --namespace knative-serving \
  --type merge \
  --patch '{"data":{"knative.example.com":""}}'

如果您使用 curl 访问示例应用程序或您自己的 Knative 应用程序,并且无法使用“Real DNS”方法,则有一种临时方法。 这对于那些希望在不更改其 DNS 配置的情况下评估 Knative(根据“Real DNS”方法)或由于使用例如本地 minikube 或 IPv6 集群而无法使用“Magic DNS”方法的人非常有用。


1.要使用 curl 使用此方法访问您的应用程序:

kubectl get ksvc

输出

NAME            URL                                        LATESTCREATED         LATESTREADY           READY   REASON
helloworld-go   http://helloworld-go.default.example.com   helloworld-go-vqjlf   helloworld-go-vqjlf   True


2.使用 -H “Host:” 命令行选项指定 Knative 应用程序的主机名。 例如,

curl -H "Host: helloworld-go.default.example.com" http://192.168.39.228:32198

感谢关注,下期讲解如何把自己的函数部署到serverless knative平台.


相关实践学习
【AI破次元壁合照】少年白马醉春风,函数计算一键部署AI绘画平台
本次实验基于阿里云函数计算产品能力开发AI绘画平台,可让您实现“破次元壁”与角色合照,为角色换背景效果,用AI绘图技术绘出属于自己的少年江湖。
从 0 入门函数计算
在函数计算的架构中,开发者只需要编写业务代码,并监控业务运行情况就可以了。这将开发者从繁重的运维工作中解放出来,将精力投入到更有意义的开发任务上。
相关文章
|
人工智能 文字识别 Serverless
使用 Serverless 工作流快速构建 AI Serving 应用
本文介绍如何快速使用 Serverless 工作流 + 阿里云视觉智能开放平台构建人工智能服务应用
862 0
使用 Serverless 工作流快速构建 AI Serving 应用
|
2月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
448 30
|
3月前
|
存储 人工智能 Serverless
函数计算进化之路:AI 应用运行时的状态剖析
AI应用正从“请求-响应”迈向“对话式智能体”,推动Serverless架构向“会话原生”演进。阿里云函数计算引领云上 AI 应用 Serverless 运行时技术创新,实现性能、隔离与成本平衡,开启Serverless AI新范式。
459 13
|
8月前
|
SQL 分布式计算 Serverless
鹰角网络:EMR Serverless Spark 在《明日方舟》游戏业务的应用
鹰角网络为应对游戏业务高频活动带来的数据潮汐、资源弹性及稳定性需求,采用阿里云 EMR Serverless Spark 替代原有架构。迁移后实现研发效率提升,支持业务快速发展、计算效率提升,增强SLA保障,稳定性提升,降低运维成本,并支撑全球化数据架构部署。
842 56
鹰角网络:EMR Serverless Spark 在《明日方舟》游戏业务的应用
|
6月前
|
存储 编解码 Serverless
Serverless架构下的OSS应用:函数计算FC自动处理图片/视频转码(演示水印添加+缩略图生成流水线)
本文介绍基于阿里云函数计算(FC)和对象存储(OSS)构建Serverless媒体处理流水线,解决传统方案资源利用率低、运维复杂、成本高等问题。通过事件驱动机制实现图片水印添加、多规格缩略图生成及视频转码优化,支持毫秒级弹性伸缩与精确计费,提升处理效率并降低成本,适用于高并发媒体处理场景。
331 0
|
8月前
|
人工智能 开发框架 安全
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力,用户只需提交 npx 命令即可“零改造”将开源 MCP Server 部署到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,欢迎你在阿里云百炼和函数计算 FC 上体验 MCP 服务。
724 30
|
3月前
|
人工智能 运维 安全
聚焦 AI 应用基础设施,云栖大会 Serverless AI 全回顾
2025 年 9 月 26 日,为期三天的云栖大会在杭州云栖小镇圆满闭幕。随着大模型技术的飞速发展,我们正从云原生时代迈向一个全新的 AI 原生应用时代。为了解决企业在 AI 应用落地中面临的高成本、高复杂度和高风险等核心挑战,阿里云基于函数计算 FC 发布一系列重磅服务。本文将对云栖大会期间 Serverless+AI 基础设施相关内容进行全面总结。
|
3月前
|
人工智能 Kubernetes 安全
重塑云上 AI 应用“运行时”,函数计算进化之路
回顾历史,电网的修建,深刻地改变了世界的经济地理和创新格局。今天,一个 AI 原生的云端运行时的进化,其意义也远不止于技术本身。这是一次设计哲学的升华:从“让应用适应平台”到“让平台主动理解和适应智能应用”的转变。当一个强大、易用、经济且安全的 AI 运行时成为像水电一样的基础设施时,它将极大地降低创新的门槛。一个独立的开发者、一个小型创业团队,将有能力去创造和部署世界级的 AI 应用。这才是技术平权的真谛,是激发全社会创新潜能的关键。
|
11月前
|
人工智能 运维 物联网
云大使 X 函数计算 FC 专属活动上线!享返佣,一键打造 AI 应用
如今,AI 技术已经成为推动业务创新和增长的重要力量。但对于许多企业和开发者来说,如何高效、便捷地部署和管理 AI 应用仍然是一个挑战。阿里云函数计算 FC 以其免运维的特点,大大降低了 AI 应用部署的复杂性。用户无需担心底层资源的管理和运维问题,可以专注于应用的创新和开发,并且用户可以通过一键部署功能,迅速将 AI 大模型部署到云端,实现快速上线和迭代。函数计算目前推出了多种规格的云资源优惠套餐,用户可以根据实际需求灵活选择。
|
8月前
|
Cloud Native Serverless 流计算
云原生时代的应用架构演进:从微服务到 Serverless 的阿里云实践
云原生技术正重塑企业数字化转型路径。阿里云作为亚太领先云服务商,提供完整云原生产品矩阵:容器服务ACK优化启动速度与镜像分发效率;MSE微服务引擎保障高可用性;ASM服务网格降低资源消耗;函数计算FC突破冷启动瓶颈;SAE重新定义PaaS边界;PolarDB数据库实现存储计算分离;DataWorks简化数据湖构建;Flink实时计算助力风控系统。这些技术已在多行业落地,推动效率提升与商业模式创新,助力企业在数字化浪潮中占据先机。
465 12

热门文章

最新文章

相关产品

  • 函数计算