首页 > 85万数据量的表,43个字段,25个常用查询字段,频繁增删查改,如何优化?

85万数据量的表,43个字段,25个常用查询字段,频繁增删查改,如何优化?

目前系统有些查询(只是单表查询)不走索引导致系统速度变慢。

问题1:把25个字段全部加上索引是不是一个好的方案,会不会带来其他问题?
问题2:如果表数据量可能会在短期增长到800万,在不考虑分表的情况下,有没有什么比较好的方法?

PS:表引擎是 innodb.
服务器配置:双核cpu 2.4Ghz ,1G内存.. 除了跑mysql还跑了nginx.. 硬件确实有点拙计..


不加硬件的情况下要优化基本只有改善业务逻辑,或者适当加索引(写入速度换读取速度) 或者内存缓存了,不过1G的内存也捉急……

有硬件预算的话自然有一百种方法可以优化,其中最粗暴&低成本的方法是加一块SSD放数据库,800W数据平均一条15K的话240G的差不多够了


使用PostgreSQL的GIN索引,是最简单有效的方法,详细参考:高并发低基数多字段任意组合查询的优化


可针对慢查询优化。索引主要对where后面的条件字段十分有效,可尝试建立。

索引利于查询,增加数据就会变慢,估计索引过多也不好。

【热门文章】
【热门文章】