open-falcon部署

简介: #falcon-plus server部署:https://github.com/open-falcon/falcon-plus/tree/master/dockerRunning falcon-plus containerdocker pull openfalcon/falcon-plus:0.

#falcon-plus server部署:

https://github.com/open-falcon/falcon-plus/tree/master/docker

Running falcon-plus container

docker pull openfalcon/falcon-plus:0.2.0

docker run -itd -p 8081:8081 -p 6030:6030  -p 8433:8433 --name falcon openfalcon/falcon-plus:0.2.0 bash /run.sh hbs

#1、官网给的说明有问题,需要开放8433 端口,否则agent 无法上传数据

#2、启动容器后,需要修改镜像内 transfer 配置文件,将监听127.0.0.1 改成0.0.0.0 然后重启进程



#falcon-agent 安装部署:

1、直接使用官方编译好的二进制包,改方式agent包太大,不利于部署。

wget https://github.com/open-falcon/falcon-plus/releases/download/v0.2.1/open-falcon-v0.2.1.tar.gz

tar -zxvf  open-falcon-v0.2.1.tar.gz && cd open-falcon

./open-falcon start agent  启动进程

./open-falcon stop agent  停止进程

./open-falcon monitor agent  查看日志




2、https://github.com/open-falcon-archive/agent

# set $GOPATH and $GOROOT

mkdir -p $GOPATH/src/github.com/open-falcon

cd $GOPATH/src/github.com/open-falcon

git clone https://github.com/open-falcon/agent.git

cd agent

go get ./...

./control build    //构建

./control pack     //打包,此时会生成 falcon-agent-5.1.1.tar.gz压缩包。

./control start    //启动agent

将压缩包传到本地,解压后执行./control start 即可。配置文件修改,请参考官方说明。


#本地负载界面: http://localhost:1988


虽然是开源工具,但是官方github上还是存在有问题的地方。

目录
相关文章
|
1月前
|
存储 安全 API
使用Ollama和Open WebUI管理本地开源大模型
Open WebUI 是一个功能丰富且用户友好的自托管 Web 用户界面(WebUI),它被设计用于与大型语言模型(LLMs)进行交互,特别是那些由 Ollama 或与 OpenAI API 兼容的服务所支持的模型。Open WebUI 提供了完全离线运行的能力,这意味着用户可以在没有互联网连接的情况下与模型进行对话,这对于数据隐私和安全敏感的应用场景尤为重要。
|
3月前
|
人工智能 Serverless API
一键服务化:从魔搭开源模型到OpenAI API服务
在多样化大模型的背后,OpenAI得益于在领域的先发优势,其API接口今天也成为了业界的一个事实标准。
一键服务化:从魔搭开源模型到OpenAI API服务
|
6月前
|
人工智能 自然语言处理 搜索推荐
Elasticsearch 开放 inference API 增加了对 Azure OpenAI 嵌入的支持
【6月更文挑战第8天】Elasticsearch 推出开放 inference API,支持 Azure OpenAI 嵌入,强化搜索和数据分析能力。此更新使用户能灵活集成 AI 技术,实现智能精准搜索。Azure OpenAI 的语言理解能力优化了用户查询处理,提升搜索相关性。示例代码显示了如何结合两者处理查询。该创新提升数据检索效率,适用于智能客服和推荐系统,但也带来数据安全和模型准确性等挑战。这标志着搜索和数据分析领域的智能化新阶段,期待更多创新应用。未来,我们需要持续探索和完善,以发挥技术的最大潜力。
52 3
|
7月前
|
Linux 开发者 iOS开发
|
7月前
|
JSON 自然语言处理 Dart
私有化部署 Llama3 大模型, 支持 API 访问
通过 ollama 本地运行 Llama3 大模型其实对我们开发来说很有意义,你可以私有化放服务上了。 然后通过 api 访问,来处理我们的业务,比如翻译多语言、总结文章、提取关键字等等。 你也可以安装 enchanted 客户端去直接访问这个服务 api 使用。
923 0
私有化部署 Llama3 大模型, 支持 API 访问
|
测试技术 C++ 异构计算
Falcon 180B 目前最强大的开源模型
Technology Innovation Institute最近发布了Falcon 180B大型语言模型(LLM),它击败了Llama-2 70b,与谷歌Bard的基础模型PaLM-2 Large不相上下。
166 0
|
机器学习/深度学习 人工智能 自然语言处理
关于GPT的Open API,看这一篇就够了(可搭建自己的ChatGPT)
关于GPT的Open API,看这一篇就够了(可搭建自己的ChatGPT)
6424 0
|
存储 数据采集 监控
CentOS7下部署Open-Falcon小米开源监控系统
CentOS7下部署Open-Falcon小米开源监控系统
501 0
CentOS7下部署Open-Falcon小米开源监控系统
|
Kubernetes 监控 NoSQL
在kubernetes集群中部署open-falcon
公司最近监控系统从zabbix切换到open-falcon,需要将open-falcon部署到私有的kubernetes集群上。open-falcon团队最近没有更新维护,提交的PR没有反应,所以将部署方法记录到这里。
375 0
在kubernetes集群中部署open-falcon
|
NoSQL 前端开发 JavaScript
moon-easy-api:自动化生成基于MongoDB的接口
moon-easy-api:自动化生成基于MongoDB的接口
moon-easy-api:自动化生成基于MongoDB的接口