xampplinux_v174beta11在 Linux 下的安装与配置步骤

简介: 将XAMPP安装包上传至服务器(如/opt目录),终端进入该目录,使用`sudo tar -zxvf`解压文件,进入解压后的文件夹并运行`sudo ./xampp start`启动服务。同意协议后,在浏览器访问localhost或服务器IP,显示欢迎页即表示安装成功。

  1. 把文件扔到服务器上

安装包下载: https://pan.quark.cn/s/51842d549892 ,找个地方放这个 xampplinux_v174beta11.tar.gz文件,比如 /opt目录或者你的个人目录都行。

2. 开个终端,进到放文件的目录

cd /opt

(如果你放别的地方了,就把 /opt换成你自己的路径)

3. 解压它

tar命令把这个压缩包解开。z是说它是 .gz格式的,x是解压,v是让你看过程,f后面跟上文件名。

sudo tar -zxvf xampplinux_v174beta11.tar.gz

敲完回车,等一会儿它就给你解压出一个新文件夹,名字大概叫 xampp-linux-xxx...

4. 进去启动

cd命令进到刚解压出来的那个文件夹里。

cd xampp-linux-xxx... # 打几个字母按 Tab 键可以自动补全名字

然后直接运行启动脚本就行:

sudo ./xampp start

第一次启动可能会弹一堆协议让你看,一直按空格看完,最后输入 yes同意。之后服务就启动了。

5. 看看能不能用

打开浏览器,地址栏里输入 http://你这台机器的IP地址(如果是本地机器就用 localhost或者 127.0.0.1),看到 XAMPP 的欢迎页面就说明一切 OK 了。

相关文章
|
8天前
|
SQL 数据库 数据安全/隐私保护
手把手教你安装 SQLServer2014-x64-CHS附详细文步骤与避坑指南
下载解压SQL Server 2014安装包至根目录(路径勿含中文),断网后以管理员身份运行setup.exe。选择评估版,接受协议,勾选数据库引擎、管理工具等核心功能,设置混合验证模式并配置sa密码,将服务设为自动启动。安装完成后检查服务状态,确认“SQL Server (MSSQLSERVER)”正在运行即可使用。(238字)
|
11天前
|
监控 安全 Unix
iOS 崩溃排查不再靠猜!这份分层捕获指南请收好
从 Mach 内核异常到 NSException,从堆栈遍历到僵尸对象检测,阿里云 RUM iOS SDK 基于 KSCrash 构建了一套完整、异步安全、生产可用的崩溃捕获体系,让每一个线上崩溃都能被精准定位。
189 34
|
19天前
|
机器学习/深度学习 人工智能 搜索推荐
构建AI智能体:七十一、模型评估指南:准确率、精确率、F1分数与ROC/AUC的深度解析
本文系统介绍了机器学习模型评估的核心指标与方法。首先阐述了混淆矩阵的构成(TP/FP/FN/TN),并基于此详细讲解了准确率、精确率、召回率和F1分数的计算原理和适用场景。特别指出准确率在不平衡数据中的局限性,强调精确率(减少误报)和召回率(减少漏报)的权衡关系。然后介绍了ROC曲线和AUC值的解读方法,说明如何通过调整分类阈值来优化模型性能。最后总结了不同业务场景下的指标选择策略:高精度场景侧重精确率,高召回场景关注召回率,平衡场景优选F1分数,不平衡数据则推荐使用AUC评估。
222 20
|
19天前
|
人工智能 搜索推荐 机器人
智能体是什么?3 分钟读懂 AI 智能体核心能力与应用场景
AI 智能体是具备自主理解、决策、执行任务能力的新一代 AI 系统,区别于传统 “指令响应式” 工具,它能像人类搭档一样拆解复杂需求、联动多能力模块完成闭环工作。NuwaAI 作为智能体数字人领域的标杆产品,已实现 “一句话生成智能体数字人”,其独创的双脑架构可支撑教育培训、电商直播、文旅表演、企业服务等 8 大场景,帮助用户将表达力转化为生产力,实测能降低 80% 的重复工作人力成本(数据来源:2025 年 AI 智能体行业白皮书)。
|
10天前
|
数据采集 人工智能 运维
AgentRun 实战:快速构建 AI 舆情实时分析专家
搭建“舆情分析专家”,函数计算 AgentRun 快速实现从数据采集到报告生成全自动化 Agent。
366 29
|
23天前
|
存储 缓存 NoSQL
阿里云 Tair 联手 SGLang 共建 HiCache,构建面向“智能体式推理”的缓存新范式
针对智能体式推理对KVCache的挑战,阿里云Tair KVCache团队联合SGLang社区推出HiCache技术,通过多级存储卸载与全局共享机制,实现缓存命中率翻倍、TTFT降低56%、QPS提升2倍,构建面向长上下文、高并发、多智能体协作的下一代推理缓存基础设施。
259 27
阿里云 Tair 联手 SGLang 共建 HiCache,构建面向“智能体式推理”的缓存新范式
|
30天前
|
人工智能 运维 Serverless
一杯咖啡成本搞定多模态微调:FC DevPod + Llama-Factory 极速实战
告别显存不足、环境配置难、成本高昂的微调困境!基于阿里云函数计算FC与Llama-Factory,5分钟搭建微调流水线,一键完成多模态模型的微调。
247 20