这是我在一个百万级数据库数据导出遇到的问题
比如这个语句在这个数据库查询很慢:
select a from tms where b like ‘%haha%’ order by time limit 100;
第一种优化方法(注意:这种方法只适用于haha开头的):
//将haha字段和time字段加索引(联合索引还是普通索引自己看情况)
select a from news where b like ‘haha%’ order by time limit 100;
第二种优化方法(注意:这种方法只适用于mysql引擎是myisam的):
//语句不变,将haha字段加为全文索引,time字段变为普通索引
select a from news where b like ‘%haha%’ order by time limit 100;
第三种方法:
这是因为我必须用 %haha% 这种方式,而且还不能更换数据库引擎的情况下。
我是把like的操作放到了java程序中来处理,一次取定量数据进行筛选,如果没取够,再取,再筛选……这样就避免了完全扫表了,只扫部分数据。成功解决。
PS: 如果要select很多字段,其中又有超大类型的字段,比如 longtext,尽量先查询其他字段,然后根据id或者其他唯一字段来查询这个longtext字段。因为大字段影响效率。