The based of tuning

简介: 调优目的: 1、  提高资源利用率 2、  找出性能瓶颈并缓解 3、  通过性能管理实现合理的资源分配,提升硬件性价比   调优分层及效率问题: 业务级调优  eg:1)网站使用的Apache—>业务架构 2)将原有调度器由LVS—>F5/BigIP 3)将原有的调度器由Nginx转换成Haproxy 4)购买CDN、静态页缓存等                             效果最佳 应用级调优  eg:NFS、Samba、Apache、Nginx、MySQL、KVM本身调优、对于日志处理可调整日志等级或延后日志写以避免大量I/O操作。

调优目的:

1、  提高资源利用率

2、  找出性能瓶颈并缓解

3、  通过性能管理实现合理的资源分配,提升硬件性价比

 

调优分层及效率问题:

业务级调优  eg:1)网站使用的Apache—>业务架构 2)将原有调度器由LVS—>F5/BigIP 3)将原有的调度器由Nginx转换成Haproxy 4)购买CDN、静态页缓存等

                            效果最佳

应用级调优  eg:NFS、Samba、Apache、Nginx、MySQL、KVM本身调优、对于日志处理可调整日志等级或延后日志写以避免大量I/O操作。

                            重点考虑

Kernel级调优  操作系统层面,具有普遍性:I/O、CPU、Network、Memory,通常在系统初始完成

自上往下,效果明显程度降低。

-------------------------------------------------------------

作者: 罗穆瑞

转载请保留此段声明,且在文章页面明显位置给出原文链接,谢谢!

------------------------------------------------------------------------------

如果觉得这篇文章对你有小小的帮助的话,记得在右下角点个“推荐”哦,博主在此感谢!

------------------------------------------------------------------------------

目录
相关文章
|
机器学习/深度学习 数据挖掘
【提示学习】HPT: Hierarchy-aware Prompt Tuning for Hierarchical Text Classification
本文是较早把Prompt应用到层级多标签文本分类领域的论文。思路是把层级标签分层编入到Pattern中,然后修改损失函数以适应多标签的分类任务。
279 0
|
3月前
|
机器学习/深度学习 存储 人工智能
【大语言模型】ACL2024论文-01 Quantized Side Tuning: Fast and Memory-Efficient Tuning of Quantized Large Language
本文介绍了Quantized Side Tuning(QST)方法,旨在解决大型语言模型(LLMs)微调过程中的内存效率和速度问题。QST通过将模型权重量化为4位,并引入一个与LLM分离的侧网络,显著减少了内存占用并加快了微调速度,同时保持了与现有技术相当的性能。实验表明,QST可以将总内存占用减少高达2.3倍,并将微调速度提高高达3倍。
96 0
|
7月前
|
机器学习/深度学习 PyTorch 算法框架/工具
Fine-tuning
【7月更文挑战第31天】
88 2
|
9月前
|
TensorFlow 算法框架/工具
[seq2seq]论文实现:Effective Approaches to Attention-based Neural Machine Translation(上)
[seq2seq]论文实现:Effective Approaches to Attention-based Neural Machine Translation(上)
64 1
|
9月前
|
机器学习/深度学习 Python TensorFlow
[seq2seq]论文实现:Effective Approaches to Attention-based Neural Machine Translation(下)
[seq2seq]论文实现:Effective Approaches to Attention-based Neural Machine Translation(下)
60 1
|
9月前
|
机器学习/深度学习 JSON 自然语言处理
[GPT-1]论文实现:Improving Language Understanding by Generative Pre-Training
[GPT-1]论文实现:Improving Language Understanding by Generative Pre-Training
185 1
|
自然语言处理 算法
SIFRank New Baseline for Unsupervised Keyphrase Extraction Based on Pre-Trained Language Model
在社交媒体上,面临着大量的知识和信息,一个有效的关键词抽取算法可以广泛地被应用的信息检索和自然语言处理中。传统的关键词抽取算法很难使用外部的知识信息。
184 0
SIFRank New Baseline for Unsupervised Keyphrase Extraction Based on Pre-Trained Language Model
|
9月前
|
存储 JSON 算法
【论文代码】②.1 STIOCS: Active learning-based semi-supervised training framework for IOC extraction
【论文代码】②.1 STIOCS: Active learning-based semi-supervised training framework for IOC extraction
45 0
|
机器学习/深度学习 自然语言处理 算法
TASLP21-Reinforcement Learning-based Dialogue Guided Event Extraction to Exploit Argument Relations
事件抽取是自然语言处理的一项基本任务。找到事件论元(如事件参与者)的角色对于事件抽取至关重要。
129 0

热门文章

最新文章