mysql最快分頁(yè)方法_MySQL
來(lái)源:懂視網(wǎng)
責(zé)編:小采
時(shí)間:2020-11-09 20:04:05
mysql最快分頁(yè)方法_MySQL
mysql最快分頁(yè)方法_MySQL:總所周知,mysql分頁(yè)是這樣寫的: select * from 'yourtable' limit start,rows現(xiàn)在我數(shù)據(jù)庫(kù)一張表里面有9969W條數(shù)據(jù),表名叫tweet_dataselect count(*) from tweet_data執(zhí)行第一條sql語(yǔ)句,就查6000000條開始的10條,看查詢時(shí)間58s這得
導(dǎo)讀mysql最快分頁(yè)方法_MySQL:總所周知,mysql分頁(yè)是這樣寫的: select * from 'yourtable' limit start,rows現(xiàn)在我數(shù)據(jù)庫(kù)一張表里面有9969W條數(shù)據(jù),表名叫tweet_dataselect count(*) from tweet_data執(zhí)行第一條sql語(yǔ)句,就查6000000條開始的10條,看查詢時(shí)間58s這得
總所周知,mysql分頁(yè)是這樣寫的:
select * from 'yourtable' limit start,rows
現(xiàn)在我數(shù)據(jù)庫(kù)一張表里面有9969W條數(shù)據(jù),表名叫tweet_data
select count(*) from tweet_data
執(zhí)行第一條sql語(yǔ)句,就查6000000條開始的10條,看查詢時(shí)間
58s這得有多慢!
解決方案一、
有人立馬想到了利用索引來(lái)提高效率,那么我們就利用主鍵吧,所以,便有了下面這種sql
select *from tweet_data where id >=(select id from tweet_data limit 60000000,1)limit 10
看看效果
果然沒有多大提升,但是如果數(shù)據(jù)量在百萬(wàn)級(jí)別的話,效率還是可以多番幾倍,但是!這明顯沒有達(dá)到我們的要求
那么就有了下面這種sql語(yǔ)句
select * from tweet_data where id_auto_increase between 60000000 and 60000010
有圖為證!
在這里我們只對(duì)一張表上的數(shù)據(jù)進(jìn)行了操作,而且數(shù)據(jù)量在1億條左右,但是如果我們的數(shù)據(jù)量更大呢?
那么就要涉及到更多知識(shí)了!小弟拙見!
聲明:本網(wǎng)頁(yè)內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問(wèn)題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com
mysql最快分頁(yè)方法_MySQL
mysql最快分頁(yè)方法_MySQL:總所周知,mysql分頁(yè)是這樣寫的: select * from 'yourtable' limit start,rows現(xiàn)在我數(shù)據(jù)庫(kù)一張表里面有9969W條數(shù)據(jù),表名叫tweet_dataselect count(*) from tweet_data執(zhí)行第一條sql語(yǔ)句,就查6000000條開始的10條,看查詢時(shí)間58s這得