部署到服务器--Nginx

简介: Nginx

部署到服务器--Nginx

序:

  1. http服务器。Nginx是一个http服务可以独立提供http服务。可以做网页静态服务器。
  2. 虚拟主机。可以实现在一台服务器虚拟出多个网站。例如个人网站使用的虚拟主机。
  3. 反向代理,负载均衡。当网站的访问量达到一定程度后,单台服务器不能满足用户的请求时,需要用多台服务器集群可以使用nginx做反向代理。并且多台服务器可以平均分担负载,不会因为某台服务器负载高宕机而某台服务器闲置的情况。

一、Nginx

img

1、pcre、pcre-devel安装

pcre是一个perl库,包括perl兼容的正则表达式库,nginx的http模块使用pcre来解析正则表达式。

yum install -y pcre pcre-devel
AI 代码解读

2、安装openssl

openssl是web安全通信的基石,没有openssl,可以说我们的信息都是在裸奔。

yum install -y openssl openssl-devel
AI 代码解读

3、下载并解压nginx安装包

// 下载
wget http://nginx.org/download/nginx-1.9.9.tar.gz 
//解压
tar -zxvf  nginx-1.9.9.tar.gz
AI 代码解读

4、进入nginx解压目录,执行命令

./configure 
make
make install
AI 代码解读

4.1、切换到/usr/local/nginx安装目录

在这里插入图片描述

4.2、进入nginx/conf,配置nginx.conf

在这里插入图片描述

4.3、启动nginx

进入sbin目录
./nginx
AI 代码解读

附:查看是否启动成功

ps -ef|grep nginx
AI 代码解读

此时访问公网ip会显示nginx欢迎界面

5、uwsgi配置

在Django根目录下新建uwsgi.ini uwsgi.pid uwsgi.log文件
编辑uwsgi.ini文件

[uwsgi]
#使用nginx连接时使用
socket=127.0.0.1:8001
#直接做web服务器使用 python manage.py runserver ip:port
#http=127.0.0.1:8080
#项目目录
chdir=/var/web/CloudArchives
#项目中wsgi.py文件的目录,相对于项目目录
wsgi-file=CloudArchives/wsgi.py
#指定启动的工作进程数
processes=4
#指定工作进程中的线程数
threads=2
master=True
#保存启动之后主进程的pid
pidfile=uwsgi.pid
#设置uwsgi后台运行,uwsgi.log保存日志信息
daemonize=uwsgi.log
#设置虚拟环境的路径
#virtualenv=/Users/smart/.virtualenvs/dailyfresh
AI 代码解读

5.1、运行django项目

django manage.py runserver
AI 代码解读

5.2、给uwsgi建立软连接

ln -s /usr/local/python3/bin/uwsgi /usr/bin/uwsgi
AI 代码解读

6、进入项目根目录,启动uwsgi

uwsgi --ini uwsgi.ini
AI 代码解读

img

重启Nginx

./nginx -s reload
AI 代码解读

在这里插入图片描述

附:nginx常用命令

启动:start nginx 默认是根据nginx.conf来启动的

如果要指定配置文件来启动则使用以下命令即可:nginx -c ./conf/jason.conf

关闭:nginx -s stop 快速关闭nginx服务。

nginx -s quit 优雅的关闭,优雅是指当一个请求被处理完成之后才被关闭。

在linux下进行关闭nginx:

1、优雅关闭
先找出nginx的进程号:`ps -ef|grep nginx
执行命令:kill -QUIT pid
2、快速关闭
也是要先找出nginx的进程号,然后执行kill -TERM pid
AI 代码解读

nginx -t 检查配置是否有错误

nginx -s reload 刷新nginx配置文件

二、前端

1、下载nodejs压缩包

用命令行形式进行下载

wget https://nodejs.org/dist/v14.15.4/node-v14.15.4-linux-x64.tar.xz
AI 代码解读

img

解压缩包

tar -xvf node-v14.15.4-linux-x64.tar.xz
mkdir -p /usr/local/nodejs
mv node-v14.15.4-linux-x64/* /usr/local/nodejs/
AI 代码解读

2、创建软链接

# 建立node软链接
ln -s /usr/local/nodejs/bin/node /usr/local/bin
# 建立npm 软链接
ln -s /usr/local/nodejs/bin/npm /usr/local/bin
AI 代码解读

3、更换镜像源

# 设置国内淘宝镜像源
npm config set registry https://registry.npm.taobao.org
# 查看设置信息
npm config list
AI 代码解读

image.png

附:验证是否安装成功

node -v
npm -v
AI 代码解读

image.png

4、前端打包项目

npm run build (打包项目)

将前端project执行npm run build命令。执行完的dist文件夹才几MB。

img

5、前端项目部署

将dist文件夹上传到服务器

可以上传到服务器随便一个地方,我是/usr/share/nginx/,就是nginx默认开启页面的隔壁。

image.png

6、修改nginx的配置文件

vim /etc/nginx/nginx.conf,然后把dist文件夹引进来

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-G7k3sydC-1645813011893)(C:\Users\huawei\AppData\Roaming\Typora\typora-user-images\image-20220226015104585.png)]

7、重启nginx服务。

service nginx restart
//cd /usr/local/nginx/sbin/
./nginx -s reload
AI 代码解读

浏览器访问ip访问即可
(使用软件MobaXterm_Personal_12.3)

目录
相关文章
告别服务器繁忙,云上部署DeepSeek
本文以 DeepSeek-R1-Distill-Qwen-32B-FP8 为例,向您介绍如何在GPU实例上使用容器来部署量化的 DeepSeek-R1 蒸馏模型。
8752 1
一键部署OpenWebUI+Ollama到阿里云ECS,轻松运行DeepSeek!(保姆级教程)
在当今数据驱动的时代,快速部署和管理大模型成为企业的关键需求。阿里云提供了一键部署OpenWebUI+Ollama的便捷方案,支持本地大模型运行和管理。用户也可以选择连接阿里云百炼的在线模型。
一键部署OpenWebUI+Ollama到阿里云ECS,轻松运行DeepSeek!(保姆级教程)
阿里云出手了,DeepSeek服务器拒绝繁忙,免费部署DeepSeek模型671B满血版
阿里云推出免费部署DeepSeek模型671B满血版服务,通过百炼大模型平台,用户无需编码,最快5分钟、最低0元即可完成部署。平台提供100万免费Token,支持DeepSeek-R1和DeepSeek-V3等多款模型调用,有效解决服务器繁忙问题。新手零基础也能轻松上手,享受高效稳定的API调用和自动弹性扩展功能。教程涵盖开通服务、获取API-KEY及配置Chatbox客户端等步骤,详细指引助您快速实现DeepSeek自由。
122 18
基于ECS部署DeepSeek个人专属AI网站
本方案介绍了如何基于云服务器ECS集成百炼API和Open WebUI服务,一键部署体验DeepSeek个人专属AI网站。用户不仅可以以极低的成本,拥有个人专属的AI网站,进行稳定的AI对话,还能够切换DeepSeek-V3、DeepSeek-R1、Qwen-max等模型进行体验。同时Open WebUI还具备开源能力,支持定制工具的开发。您还可以创建其他子账号,将您的专属AI网站分享给他人使用。
阿里云出手了,基于百炼一键部署DeepSeek满血版,告别服务器繁忙1
阿里云百炼平台推出一键部署DeepSeek-R1满血版671B模型,提供100万免费Token,无需编码,新手5分钟内即可完成部署。通过Chatbox客户端配置API,轻松实现模型调用,解决服务器繁忙问题,支持自动弹性扩展,降低硬件成本。详情及教程见阿里云百炼官网。
202 5
当你的nginx服务器和php服务器不在一起的时候,这个nginx 的root目录问题
两个服务器的网站代码目录需要对齐,docker容器里面也是一样
saltstack批量部署并配置nginx
最近应别的部门要求研究了一下saltstack,感觉很好用哈!虽然我现在生产环境用的puppet,想以后逐渐用这个去替代puppet,至于ansible还没研究,以后有时间再看看吧! 一、Saltstack是什么? saltstack是一种全新的基础设施管理方式,部署轻松,在几分钟内可运行起来,扩展性好,很容易管理上万台服务器,速度够快,服务器之间秒级通讯。
1872 0
Nginx中配置HTTP2协议的方法
Nginx中配置HTTP2协议的方法
257 7
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等