Matriz de fixtures para ingestao de Parquet
Escolha fixtures Parquet para ingestao colunar, imports em warehouse, colunas aninhadas e validacao de cargas batch.
Como usar esta matriz
- Cobre dados planos com todos os tipos, linhas com muito binario e layouts com colunas de lista a partir de um corpus parquet real.
- Util para loaders de warehouse, readers de parquet e validacao do formato de schema em jobs ETL.
- Ancorado em packs ETL e de warehouse para setup de ingestao com um clique.
Abrir biblioteca principal
Esta matriz esta ancorada na pagina da biblioteca PARQUET e em seu manifesto.
Linhas de fixtures
| Variante | Perfil | Foco do teste | Arquivo | Tamanho | Baixar |
|---|---|---|---|---|---|
|
All Types Parquet
Good default parquet fixture for reader smoke tests and columnar import validation.
|
Columnar baseline | Primitive type handling | parquet_alltypes_plain_sample.parquet |
1.8 KB | Baixar |
|
Binary Records Parquet
Useful when warehouse and ETL readers need to preserve binary or blob-like columns.
|
Binary-value dataset | Binary column decoding | parquet_binary_records_sample.parquet |
478 B | Baixar |
|
List Columns Parquet
Targets nested-column readers, schema inspection, and downstream flattening logic.
|
Nested column fixture | Repeated/list column handling | parquet_list_columns_sample.parquet |
2.5 KB | Baixar |
Pacotes relacionados
Pacote de fixtures para validacao de ETL
Pacote com fixtures reais de Parquet, Avro, SQLite, NDJSON e CSV para staging ETL, cargas em warehouse e validacao de pipelines de ingestao.
etl_validation_fixture_pack.zip · 4.6 KB
Pacote de fixtures para importacao em warehouse
Pacote com fixtures reais de Parquet, Avro, SQLite, CSV e JSON para importacao em warehouse, mapeamento de schema e cargas analiticas.
warehouse_import_fixture_pack.zip · 3.7 KB
Fluxos relacionados
Fixtures para ingestao em lote
Fixtures Parquet, Avro, SQLite, NDJSON e CSV para staging ETL, cargas em warehouse e validacao de ingestao em massa.
Abrir fluxoFixtures para evolucao de schema
Fixtures Avro, SQLite, Parquet e JSON para deriva entre producer e consumer, campos nullable e validacao de schema com migracao.
Abrir fluxo