Matriz de fixtures para ingesta de Parquet

Elige fixtures Parquet para ingesta columnar, imports a warehouse, columnas anidadas y validacion de cargas batch.

3 Filas de fixtures
3 Como usar esta matriz
Use the matrix when the validation target is a set of variants rather than one canonical sample.
Como usar esta matriz

Coverage

  • Cubre datos planos de todos los tipos, filas con mucho binario y layouts con columnas de lista a partir de un corpus parquet real.
  • Util para loaders de warehouse, readers de parquet y validacion de forma de schema en jobs ETL.
  • Anclado a packs ETL y de warehouse para setup de ingesta con un clic.
Filas de fixtures

Available Variants

Variante Perfil Foco de prueba Archivo Tamano Descargar
All Types Parquet
Good default parquet fixture for reader smoke tests and columnar import validation.
Columnar baseline Primitive type handling parquet_alltypes_plain_sample.parquet
.parquet SHA256 12a618d20a59...
1.8 KB Descargar
Binary Records Parquet
Useful when warehouse and ETL readers need to preserve binary or blob-like columns.
Binary-value dataset Binary column decoding parquet_binary_records_sample.parquet
.parquet SHA256 b48b756e48a1...
478 B Descargar
List Columns Parquet
Targets nested-column readers, schema inspection, and downstream flattening logic.
Nested column fixture Repeated/list column handling parquet_list_columns_sample.parquet
.parquet SHA256 5988ab91b6cb...
2.5 KB Descargar
Paginas de estrategia relacionadas

Related Packs and Workflows

Packs relacionados

Paquete de fixtures para validacion ETL

Paquete con fixtures reales de Parquet, Avro, SQLite, NDJSON y CSV para staging ETL, cargas en warehouse y validacion de pipelines de ingesta.

etl_validation_fixture_pack.zip · 4.6 KB

Paquete de fixtures para importacion en warehouse

Paquete con fixtures reales de Parquet, Avro, SQLite, CSV y JSON para importacion en warehouse, mapeo de schema y cargas analiticas.

warehouse_import_fixture_pack.zip · 3.7 KB

Flujos relacionados

Fixtures para ingesta por lotes

Fixtures Parquet, Avro, SQLite, NDJSON y CSV para staging ETL, cargas en warehouse y validacion de ingesta masiva.

Abrir flujo

Fixtures para evolucion de schema

Fixtures Avro, SQLite, Parquet y JSON para deriva entre productor y consumidor, campos nullable y validacion de schema con migracion.

Abrir flujo