Matriz de fixtures para ingestao de Parquet

Escolha fixtures Parquet para ingestao colunar, imports em warehouse, colunas aninhadas e validacao de cargas batch.

Como usar esta matriz

  • Cobre dados planos com todos os tipos, linhas com muito binario e layouts com colunas de lista a partir de um corpus parquet real.
  • Util para loaders de warehouse, readers de parquet e validacao do formato de schema em jobs ETL.
  • Ancorado em packs ETL e de warehouse para setup de ingestao com um clique.

Abrir biblioteca principal

Esta matriz esta ancorada na pagina da biblioteca PARQUET e em seu manifesto.

Linhas de fixtures

Variante Perfil Foco do teste Arquivo Tamanho Baixar
All Types Parquet
Good default parquet fixture for reader smoke tests and columnar import validation.
Columnar baseline Primitive type handling parquet_alltypes_plain_sample.parquet 1.8 KB Baixar
Binary Records Parquet
Useful when warehouse and ETL readers need to preserve binary or blob-like columns.
Binary-value dataset Binary column decoding parquet_binary_records_sample.parquet 478 B Baixar
List Columns Parquet
Targets nested-column readers, schema inspection, and downstream flattening logic.
Nested column fixture Repeated/list column handling parquet_list_columns_sample.parquet 2.5 KB Baixar

Pacotes relacionados

Pacote de fixtures para validacao de ETL

Pacote com fixtures reais de Parquet, Avro, SQLite, NDJSON e CSV para staging ETL, cargas em warehouse e validacao de pipelines de ingestao.

etl_validation_fixture_pack.zip · 4.6 KB

Pacote de fixtures para importacao em warehouse

Pacote com fixtures reais de Parquet, Avro, SQLite, CSV e JSON para importacao em warehouse, mapeamento de schema e cargas analiticas.

warehouse_import_fixture_pack.zip · 3.7 KB

Fluxos relacionados

Fixtures para ingestao em lote

Fixtures Parquet, Avro, SQLite, NDJSON e CSV para staging ETL, cargas em warehouse e validacao de ingestao em massa.

Abrir fluxo

Fixtures para evolucao de schema

Fixtures Avro, SQLite, Parquet e JSON para deriva entre producer e consumer, campos nullable e validacao de schema com migracao.

Abrir fluxo