Matriz de fixtures para ingesta de Parquet
Elige fixtures Parquet para ingesta columnar, imports a warehouse, columnas anidadas y validacion de cargas batch.
Como usar esta matriz
- Cubre datos planos de todos los tipos, filas con mucho binario y layouts con columnas de lista a partir de un corpus parquet real.
- Util para loaders de warehouse, readers de parquet y validacion de forma de schema en jobs ETL.
- Anclado a packs ETL y de warehouse para setup de ingesta con un clic.
Abrir biblioteca principal
Esta matriz esta vinculada a la biblioteca de PARQUET y a su manifiesto.
Filas de fixtures
| Variante | Perfil | Foco de prueba | Archivo | Tamano | Descargar |
|---|---|---|---|---|---|
|
All Types Parquet
Good default parquet fixture for reader smoke tests and columnar import validation.
|
Columnar baseline | Primitive type handling | parquet_alltypes_plain_sample.parquet |
1.8 KB | Descargar |
|
Binary Records Parquet
Useful when warehouse and ETL readers need to preserve binary or blob-like columns.
|
Binary-value dataset | Binary column decoding | parquet_binary_records_sample.parquet |
478 B | Descargar |
|
List Columns Parquet
Targets nested-column readers, schema inspection, and downstream flattening logic.
|
Nested column fixture | Repeated/list column handling | parquet_list_columns_sample.parquet |
2.5 KB | Descargar |
Packs relacionados
Paquete de fixtures para validacion ETL
Paquete con fixtures reales de Parquet, Avro, SQLite, NDJSON y CSV para staging ETL, cargas en warehouse y validacion de pipelines de ingesta.
etl_validation_fixture_pack.zip · 4.6 KB
Paquete de fixtures para importacion en warehouse
Paquete con fixtures reales de Parquet, Avro, SQLite, CSV y JSON para importacion en warehouse, mapeo de schema y cargas analiticas.
warehouse_import_fixture_pack.zip · 3.7 KB
Flujos relacionados
Fixtures para ingesta por lotes
Fixtures Parquet, Avro, SQLite, NDJSON y CSV para staging ETL, cargas en warehouse y validacion de ingesta masiva.
Abrir flujoFixtures para evolucion de schema
Fixtures Avro, SQLite, Parquet y JSON para deriva entre productor y consumidor, campos nullable y validacion de schema con migracion.
Abrir flujo