暂无个人介绍
传统的OLTP业务,应用系统使用 java 开发,并且不建议使用存储过程,使用 benchmarksql 压测数据库最公平,既可以测试数据库性能,也可以测试JDBC驱动
本文介绍了在BigCloud Enterprise Linux 8.2/8.6和Rocky Linux 8.10上升级OpenSSH的详细步骤。首先配置Telnet服务和GCC编译器以确保远程登录安全,接着备份旧版OpenSSH并下载、编译、安装最新版本(如9.9p1)。然后创建新的sshd系统服务配置文件,调整配置并启动服务。最后验证升级效果,关闭不必要的Telnet服务,并处理可能的防火墙和SELinux问题。通过这些步骤可有效修复低版本OpenSSH带来的高危漏洞。
本文探讨了多核芯片上OLTP工作负载的并发控制问题。作者实现了七种并发控制算法,并通过模拟器将其扩展到1024个核心,以评估其性能。研究发现,所有算法在大规模核心环境下均无法有效扩展,主要瓶颈包括锁抖动、死锁检测、时间戳分配等。实验结果表明,在高争用场景下,非等待死锁预防方案(如NO_WAIT)表现优于死锁检测方案(如DL_DETECT)。基于时间戳排序(T/O)的算法在处理复杂OLTP工作负载时表现较好,但在高吞吐量下受限于时间戳分配瓶颈。作者建议未来需硬件与软件协同设计的新架构来解决这些瓶颈,以充分利用多核芯片潜力。此外,还应探索日志记录和索引实现等方面的优化,以构建真正可扩展的DBMS。
从Linux自带的NFS转向TrueNAS SCALE,因其不仅提供块服务(iSCSI),还内置压缩功能。通过WEB界面开启SSH并设置Allow Password Authentication。安全配置方面,限制特定IP访问NFS输出。对比发现,对于文本文件,TrueNAS SCALE展现出显著的压缩优势,如日志文件压缩率接近90%,大大节省了存储空间,而对已压缩文件则无明显变化。这一转变有效优化了存储效率和安全性。
在 Linux 系统中,内存管理通常自动处理,但业务繁忙时缓存占用过多可能导致内存不足,影响性能。此时可在业务闲时手动释放内存。
Oracle 11g在Linux 8上安装时会遇到link编译环节的问题。官方建议忽略安装中的链接错误,安装完成后应用DBPSU 11.2.0.4.240716补丁及一次性补丁33991024,再重新编译二进制文件,并配置监听器和数据库。但因11g已退出服务期,这些补丁需付费获取。网上信息显示22年1月的PSU补丁也可解决问题,找到该补丁后按常规方式打补丁即可。如有需求或疑问可咨询我。
下载并安装适用于ARM架构的Docker CE二进制文件,解压后移动至/usr/bin目录。创建docker组,配置systemd服务脚本(docker.service、docker.socket、containerd.service),重载systemd配置,启动并启用docker服务。编辑daemon.json配置存储驱动、镜像加速地址等,最后拉取所需镜像。
某项目最近在 SQL Loader 导数据时偶尔会报错,类似如下: SQL loader ORA-01658 unable to creale INITIAL extent for segment in tablespace ADS5GP2P_1 这个报错的意思是,没有足够的连续空间为表或索引创建 INITIAL extent
前不久一个系统死锁导致部分业务受到影响,今次补上详细的节点日志分析过程。
如本文标题,MySQL PXC集群多个节点同时大量并发update同一行数据,会怎样? 为此,本人做了一个测试,来验证到底会怎样!
实现 MongoDB Cluster-to-Cluster 即集群同步的工具是:mongosync 详情可参考如下官方文档: https://www.mongodb.com/zh-cn/docs/cluster-to-cluster-sync/current/quickstart/ 以上这个地址的文档一看就是机器翻译的,可能有不恰当的地方,但基本可参考使用。 以下是本次在某项目地配置集群同步的简要步骤,可参考使用。
借本次数据库迁移实践,再次总结一下MySQL数据库迁移到PXC的最佳操作路径。
本文详细描述了采用二进制安装的各个步骤,具有较强的参考意义,基本可作为标准步骤实施
前阵子为PXC集群配置IPv6支持,遇见奇怪的问题,就是SST同步时总是报错,为此在官网论坛提交了问题,未得到答案,最后偶然得到了答案
本文使用MySQL原生支持的主从同步机制,详细记录了配置步骤及运维操作方法,可供大家直接参考、使用。 本文假设已经部署了两台主机的MySQL软件,且数据库服务正常,详细部署步骤可本站搜索:"mysql二进制安装包部署"
MongoDB分片+副本集高可用集群的启停步骤
结合我们的生产需求,本次详细整理了最新版本 MonogoDB 7.0 集群的规划及部署过程,具有较大的参考价值,基本可照搬使用。 适应数据规模为T级的场景,由于设计了分片支撑,后续如有大数据量需求,可分片横向扩展。
【最佳实践】MongoDB导出导入数据
【最佳实践】MongoDB导入数据时重建索引
对于每个节点,以及集群汇总统计信息中的global cache数据块丢失的统计信息("gc cr block lost" 和/或 "gc current block lost") 代表了私网通信的包处理效率低或者包的处理存在异常。
Linux文件,除了rwx这些权限外,还有一些特殊的权限,如rws、rwt
已有的一个 MySQL PXC 集群环境,因为种种原因仅剩一个节点 node1,需要新增一个集群节点 node2
CMP - 指 Compression Advisor ,是 Oracle 数据库的压缩建议特性,在生成建议时产生的中间过程表,一般会自行删除。这个特性自 11.2.0.4 引入( Oracle 11.2.0.4 BP1 or higher),在某些情况,该功能执行失败后,会遗留下一个系列的数据库对象。 这些对象,可以在 SYS 下进行删除。
LVS+keepalived配置高可用架构和负载均衡机制(2)
LVS+keepalived配置高可用架构和负载均衡机制(1)
漏洞扫描与安全加固之Apache Axis组件
ansible使用
MongoDB数据的导出导入及日志分析
Mysql8.0开始默认采用新的caching_sha2_password的身份验证方式,常规老接口会因此无法连接数据库。 为继续使用老的身份验证方式,需显式指定身份验证方式为 mysql_native_password
实际工作中总会发生数据误删除的场景,在没有备份情况下,如何快速恢复误删数据就显得非常重要。 本文基于MySQL的binlog日志机制,当日志格式设置为“binlog_format=ROW”时,记录一步一步手动解析binlog、恢复误删数据的全过程,供大家参考使用。
计算机硬件有两种储存数据的方式:**大端字节序**(big endian)和**小端字节序**(little endian)
MySQL不同于oracle,没有闪回查询这类概念,但网上流传几个闪回的开源工具如 binglog2sql、MyFlash,可以使用binglog日志进行误操作数据的恢复。
openssl加解密实战
PXC集群第3个节点无法加入故障处理
记录一起误删数据文件的临时救急处理
MySQL低配数据库被大量数据导入时KO
MySQL快速导入千万条数据(3)
MySQL快速导入千万条数据(2)
MySQL快速导入千万条数据(1)
PostgreSQL快速导入千万条数据
PXC集群脑裂导致节点是无法加入无主的集群
MySQL PXC 集群运维指南
MySQL的sql_mode设置导致报错1292
k8s集群部署初体验
MySQL PXC集群大事务提交超限
前期一个项目与外部厂商联调时,由于外部某几个网络环节存在超时或不通的情况,排查到可能需要修改部分网络环节的MSS参数信息,以下对相关操作进行记录,留待后续参考。
高可用mongodb集群(分片+副本):规划及部署
高可用mongodb集群(分片+副本):用户权限配置
高可用mongodb集群(分片+副本):性能测试
想在容器中测试一下docker的简易离线配置步骤,结果遇见几个莫名其妙的错误,记录下排错过程供后续参考。