【PostgreSQL】26万件のデータから120件の抽出に100ミリ秒
関連記事
- 【#PostgreSQL】3ヶ月ぶりぐらいにSQLを眺めているが,判らん!!モルモルモル 【2024年07月25日(木)】
- 【#PostgreSQL】太古の昔から動いているシステムのレコード,手修正作業をするなど,と 【2023年10月06日(金)】
- 【#PostgreSQL】テーブルから取得したレコードセットをCSVへ落とそうとすると,空ファイルが出来る...ドロドロドロ 【2023年03月08日(水)】
- 仕事オワタ 昼寝しよ(GRB爆 【2023年02月23日(木)】
- 【#PostgreSQL】鬼のような4本のSQLを書き上げた 【2023年01月13日(金)】
ほど,かかっていたんであ~だこ~だいじってみた
これ最終的には1000件/26万件ぐらいになりそうなんで500ミリ秒とか行きそうな予感だったもんで?
SQLの構文解析アナライザ通してみたら
group byな節(max()でグルーピングしてるのよ)があって,そこが26万件のシーケンシャルサーチ掛かっている
select max(id) as maxdatid , マスタ1の主キー, マスタ2の主キー from データテーブル where (activefl = true) group by マスタ1の主キー, マスタ2の主キー26万件の中からマスタ1の主キー, マスタ2の主キーでグルーピングして,最新のレコードのみ(今はマスタの登録件数少なくて120件)抽出なクエリ
100行超えのSQLの中の中核部分じゃげな
してこれ,インデックスからひっぱれんのか
あ~だこ~だやったけど
結局,納品中のクエリが一番速いってのがわかった(GRB爆
つまり,今んところ100ミリ秒より速く出来ねぇ~
う~む,現場は耐えられるのかねぇ...
神の味噌汁状態じゃが(微汗

コメント
【#特別重大報道】存立危機事態オワタ:オヤジが亡くなったので諸々の行事を片してきたのぢゃ
【#特別重大報道】存立危機事態キター!有事発生ぢゃ!!なので,ぎんゆぅ~さんはしばらくお休みしまする
21年ぶりに新規航路 宮崎港に東京港と結ぶ貨物専用の定期航路開設へ
【#クマ】「泳ぐ宝石」ニシキゴイ、クマに襲われる…新潟県小千谷市のいけす
【クマ】クマによる人的被害、生活圏7割 環境省まとめ、出没は最多2万件
「ニュウハクシミ」紙を食べる害虫 生息19都道府県に拡大
文化の日な祭日らしい.文化的に休むもうず?
【#HTVX】新型宇宙輸送船HTV-X 油井さんがロボットアームでキャッチ