Matrice de fixtures pour l'ingestion Parquet
Choisissez des fixtures Parquet pour ingestion en colonnes, imports d entrepot, colonnes imbriquees et validation de chargements batch.
Comment utiliser cette matrice
- Couvre des donnees plates tous types, des lignes riches en binaire et des schemas a colonnes de liste issus d un corpus parquet reel.
- Utile pour chargeurs d entrepot, lecteurs parquet et validation de forme de schema dans les jobs ETL.
- Appuye sur les packs ETL et entrepot pour un setup d ingestion en un clic.
Ouvrir la bibliotheque principale
Cette matrice est rattachee a la bibliotheque PARQUET et a son manifeste.
Lignes de fixtures
| Variante | Profil | Objectif de test | Fichier | Taille | Telecharger |
|---|---|---|---|---|---|
|
All Types Parquet
Good default parquet fixture for reader smoke tests and columnar import validation.
|
Columnar baseline | Primitive type handling | parquet_alltypes_plain_sample.parquet |
1.8 KB | Telecharger |
|
Binary Records Parquet
Useful when warehouse and ETL readers need to preserve binary or blob-like columns.
|
Binary-value dataset | Binary column decoding | parquet_binary_records_sample.parquet |
478 B | Telecharger |
|
List Columns Parquet
Targets nested-column readers, schema inspection, and downstream flattening logic.
|
Nested column fixture | Repeated/list column handling | parquet_list_columns_sample.parquet |
2.5 KB | Telecharger |
Packs lies
Pack de fixtures pour validation ETL
Pack de fixtures Parquet, Avro, SQLite, NDJSON et CSV reelles pour le staging ETL, les chargements d'entrepot et la validation de pipelines d'ingestion.
etl_validation_fixture_pack.zip · 4.6 KB
Pack de fixtures pour l'import d'entrepot
Pack de fixtures Parquet, Avro, SQLite, CSV et JSON reelles pour l'import d'entrepot, le mapping de schema et les chargements analytiques.
warehouse_import_fixture_pack.zip · 3.7 KB
Flux lies
Fixtures pour l'ingestion par lots
Fixtures Parquet, Avro, SQLite, NDJSON et CSV pour le staging ETL, les chargements d'entrepot et la validation d'ingestion en masse.
Ouvrir le fluxFixtures pour l'evolution de schema
Fixtures Avro, SQLite, Parquet et JSON pour la derive producteur-consommateur, les champs nullable et la validation de schemas avec migration.
Ouvrir le flux