Тема "распухания" таблиц и индексов из-за реализации MVCC - больная для пользователей и администраторов PostgreSQL.
Однажды я уже поднимал ее в статье "DBA: когда пасует VACUUM
чистим таблицу вручную", разобрав на конкретных примерах,
насколько драматический эффект для производительности запросов
может оказывать невовремя проведенный или бесполезно отработавший
из-за конкурентных транзакций VACUUM
.
Но, помимо влияния на скорость, есть еще и факт влияния на
занятое место. Наверное, вы сильно удивитесь, если таблица с
единственной "живой" записью после успешного прохода
autovacuum
продолжит занимать гигабайты пространства
на дорогих SSD.
Сегодня немного поисследуем структуру хранения данных в файлах и
копнем pg_catalog
- схему с описанием базы PostgreSQL,
чтобы понять, как можно определить таблицы, которые явно
занимают подозрительно много места.
Как быстро наступить на грабли
Для определенности скажем, что все тесты мы проводим на PostgreSQL 12, потому что с каждой новой версией разработчики стараются снизить сайд-эффекты MVCC.
CREATE TABLE bloat AS SELECT 0 i;CREATE INDEX ON bloat(i);-- вспомогательные функции удобно "прятать" в pg_temp, чтобы не зачищать потом вручнуюCREATE OR REPLACE PROCEDURE pg_temp.upd() AS $$ UPDATE bloat SET i = i + 1;$$ LANGUAGE sql; -- и да, это plainSQL-процедура, а не функцияDO $$DECLARE i integer; ts timestamp;BEGIN FOR i IN 1 .. 1 << 14 LOOP ts := clock_timestamp(); CALL pg_temp.upd(); RAISE NOTICE '% : %', i, clock_timestamp() - ts; END LOOP;END;$$ LANGUAGE plpgsql;
В процессе выполнения этого скрипта можно прямо глазами видеть,
насколько сильно деградирует среднее время выполнения
UPDATE
нашей единственной записи. Точно
единственной?
TABLE bloat;
i-----16384
И сколько же все это счастье из единственной записи занимает?
SELECT pg_relation_size('bloat');-- 598016
Оу... больше полумегабайта! Замечу, что при отсутствии индекса
фокус не пройдет, и таблица не разрастется благодаря HOT-update. Но
и тут нам же должен помочь VACUUM
- ведь никаких
мешающих транзакций у нас нету!
VACUUM bloat;-- ... и нет!SELECT pg_relation_size('bloat');-- 598016
Хранение данных в таблице
Чтобы понять, почему так произошло, впору вспомнить про организацию физического хранения данных в PostgreSQL, которая в предельно упрощенном виде выглядит так:
-
каждая таблица - отдельный файл (
pg_class.relfilenode
) -
каждый файл делится на сегменты, не превышающие 1GB
-
каждый сегмент состоит из последовательности страниц данных по (обычно) 8KB
-
страница данных содержит непосредственно набор записей
"Обычный" VACUUM
(неVACUUM FULL
) никак
не перемещает сами записи - ни между страницами, ни в рамках самой
страницы, поэтому может уменьшить размер файла, только отрезав
"хвост" из целиком пустых страниц.
А наша единственная "живая" запись лежит ровно на самой
последней странице, потому что все предыдущие были заняты
"мертвыми" - потому VACUUM
ничего и не срезал.
В недрах pg_catalog
pg_catalog - это системная схема, описывающая все внутреннее мироустройство данной конкретной базы - схемы, таблицы, индексы, поля, статистика, ... Чтобы понять, насколько там всего много, достаточно взглянуть на схему от Joel Jacobson. Но нам сегодня понадобятся всего несколько таблиц, описывающих отдельные аспекты базы:
-
pg_namespace - схемы (schema)
-
pg_class - основные объекты - таблицы, индексы, matview, ...
-
pg_depend - зависимости между объектами, в нашем случае - схем и таблиц
-
pg_attribute - столбцы таблиц
-
pg_statistic - статистика о распределении данных
Теперь попробуем составить алгоритм для оценки "раздутости" нашей таблицы (или нескольких):
-
она относится (
pg_depend
) к конкретной схеме (pg_namespace
)public
(чтобы в анализ не попадали всякие системные таблицы изpg_catalog
иinformation_schema
) -
количество страниц (
pg_class.relpages
) в ней существенно больше необходимого для хранения такого количества записей (pg_class.reltuples
) -
чтобы оценить это самое "необходимое количество" мы по статистике распределения данных (
pg_statistic
) для каждого из столбцов таблицы (pg_attribute
) поймем, сколько там NULL-значений (pg_statistic.stanullfrac
) и средний размер хранимых данных (pg_statistic.stawidth
) с учетом выравнивания (pg_attribute.attalign
) -
и все это попробуем максимально плотно "разложить" в соответствии с компоновкой страницы на минимальное их количество
Упаковываемся на страницу
Итак, в нашем распоряжении есть страница данных - сколько записей реально туда "упаковать"?
Физический размер страницы определяется на моменте компиляции движка PostgreSQL, поэтому обычно его никто не меняет и оставляет равным 8KB. Но более правильным, чем захардкодить константу, будет в явном виде спросить ее у сервера из параметра block_size:
SELECT current_setting('block_size')::integer;-- 8192
Теперь перейдем к логическому размеру, для этого нам необходимо вычесть всю служебную информацию:
структура размещения данных в таблице-
PageHeaderData
- 24 байта заголовка служебной информации о самой странице -
ItemIdData
- по 4 байта указателя на каждую запись -
HeapTupleHeaderData
- по 23 байта служебной информации на каждую запись с учетом выравнивания до разрядности системы (32-bit -> 4 байта, 64-bit -> 8 байт)
Тут стоит обратить внимание, что если начать считать по табличке в документации, то будет упорно выходить 27 байт, если не обратить внимание на один факт:
структура HeapTupleHeaderData
В исходниках, t_cid
и t_xvac
описаны
как C-union, то есть занимают одни и те же 4
байта.
"Почти бесплатные" NULL'ы
Отдельно стоит отметить момент хранения NULL-значений столбцов
записи. Если конкретная запись содержит NULL-значение в любом из
полей, то в HeapTupleHeaderData
к 23 "стабильным"
байтам заголовка будет добавлена битовая маска по количеству
полей.
То есть если у вас в записи 8 полей и любое из них NULL, то добавлен будет 1 байт, что в сумме даст 24 байта заголовка и с учетом выравнивания. А вот если полей 9, то ой... добавится 2 байта, что в сумме даст уже 25, а с учетом выравнивания на 64-bit системах - уже 32 байта.
При этом в "теле" записи NULL не хранится никак и дополнительного места не занимает.
Немного математики
Заметим, что для определения общего размера записи нам
необходимо знать о наличии NULL в любом из ее
полей, а в pg_statistic.stanullfrac
хранится
доля NULL-значений для конкретного поля.
Поэтому, чтобы получить долю записей, содержащих хотя бы один
NULL, нам всего лишь надо перемножить вероятности.
А для этого нам пригодился бы агрегат-произведение, которого, увы,
нету среди стандартных sum/avg/min/max/count
.
Не беда! Тут нам на помощь придет математический "хак", который я приводил в статье "SQL HowTo: 1000 и один способ агрегации":
P = exp(sum(ln(...)))Пора писать код!
Для самопроверки добавим точно такую же таблицу, как наша, но не будем над ней издеваться:
CREATE TABLE nobloat ASSELECT 0 i;CREATE INDEX ON nobloat(i);
-- objects-in-schemeWITH dep AS ( -- https://postgrespro.ru/docs/postgresql/12/catalog-pg-depend SELECT objid FROM pg_depend WHERE ( refclassid , refobjid , classid ) = ( 'pg_namespace'::regclass , ( -- https://postgrespro.ru/docs/postgresql/12/catalog-pg-namespace SELECT oid FROM pg_namespace WHERE nspname = 'public' -- schema LIMIT 1 ) , 'pg_class'::regclass ))-- objects, cl AS ( -- https://postgrespro.ru/docs/postgresql/12/catalog-pg-class SELECT oid , relname , relpages , reltuples FROM pg_class cl WHERE oid = ANY(ARRAY(TABLE dep)::oid[]) AND relkind IN ('r', 'm', 'p') -- relation | matview | partition)SELECT T.*, cl.*, CASE WHEN ratio >= 1 THEN (ratio - 1) * def.PAGESIZE END::bigint repack_effect_sizeFROM ( -- https://postgrespro.ru/docs/postgresql/12/storage-page-layout SELECT current_setting('block_size')::integer PAGESIZE , CASE WHEN version() ~ 'mingw32' OR version() ~ '64-bit' THEN 8 ELSE 4 END MAXALIGN ) def, cl, LATERAL ( WITH cols AS ( SELECT * , (sz + szq - 1) / szq * szq sza -- aligned size FROM ( -- https://postgrespro.ru/docs/postgresql/12/catalog-pg-attribute -- https://postgrespro.ru/docs/postgresql/12/catalog-pg-statistic SELECT attname , attnum , coalesce(st.stanullfrac, 0) nfr , CASE WHEN attlen = -1 THEN CASE WHEN attstorage IN ('p', 'm') OR stawidth < 2048 THEN -- toast_tuple_target stawidth ELSE 8 -- len + toast_id END ELSE attlen END sz , CASE attalign WHEN 'c' THEN 1 WHEN 's' THEN 2 WHEN 'i' THEN 4 WHEN 'd' THEN 8 END szq FROM pg_attribute at LEFT JOIN pg_statistic st ON (st.starelid, st.staattnum) = (at.attrelid, at.attnum) WHERE at.attrelid = cl.oid AND NOT at.attisdropped AND -- without dropped columns at.attnum > 0 -- without system columns (tableoid, ctid, ...) ORDER BY attnum ) T ) SELECT CASE WHEN reltuples = 0 AND relpages = 0 THEN 1 WHEN reltuples = 0 AND relpages > 0 THEN NULL ELSE relpages / ceil( -- need pages reltuples / ( (PAGESIZE - 24) / -- PageHeaderData ceil(szt::double precision / reltuples)::bigint -- avg tuple size ) -- tuples-per-page ) END ratio FROM ( SELECT reltuples * 4 + -- ItemIdData ( (reltuples - fnnt) * hdr_tuple_w_nulls + -- hdr, tuples w/nulls fnnt * hdr_tuple_wo_nulls -- hdr, tuples wo/nulls ) + sztc szt -- size of tuples FROM ( SELECT sztc , fnnt -- aligned headers , ceil(hdr_cols_sys::double precision / MAXALIGN)::integer * MAXALIGN hdr_tuple_wo_nulls , ceil((hdr_cols_sys + hdr_cols_null)::double precision / MAXALIGN)::integer * MAXALIGN hdr_tuple_w_nulls FROM ( SELECT -- https://doxygen.postgresql.org/htup__details_8h_source.html#l00121 -- 4 : t_xmin -- 4 : t_xmax -- 4 : t_cid | t_xvac -- 6 : t_ctid -- 2 : t_infomask2 -- 2 : t_infomask -- 1 : t_hoff 23 hdr_cols_sys , ceil(count(*)::double precision / 8)::integer hdr_cols_null , sum(ceil(sza * reltuples * (1 - nfr))) sztc -- size of tuples cols , trunc(exp(sum(ln(CASE WHEN nfr < 1 THEN 1 - nfr ELSE 1 END))) * reltuples) fnnt -- full-not-null-tuples FROM cols ) T ) T ) T ) T;
Что в результате?
ratio | oid | relname | relpages | reltuples | repack_effect_size------------------------------------------------------------------- 73 | 41333 | bloat | 73 | 15 | 589824 1 | 41337 | nobloat | 1 | 1 | 0
Заметим, что PostgreSQL считает, что в bloat
у нас
15 записей, а не 1, как в реальности - это следствие неактуальной
статистики как результат не выполненного вовремя
ANALYZE
. Ровно по той же причине может получиться, что
ratio
окажется меньше 1.
А дальше - сами определяйтесь, какие из таблиц вы будете "сжимать" и чем: