Interroger les journaux d'événements d'analyse de données
Lorsque vous utilisez Dataplex Universal Catalog pour créer et exécuter une analyse de données, un journal des événements d'analyse de données est généré dans Logging pour le job résultant.
Console
Dans la console Google Cloud , accédez à la page Explorateur de journaux.
Dans la vue Explorateur de journaux, recherchez l'onglet Requête.
Cliquez sur le menu Ressource.
Sélectionnez Cloud Dataplex DataScan. Cliquez sur Apply (Appliquer).
Cliquez sur le menu Nom du journal.
Dans le champ Rechercher des noms de journaux, saisissez dataplex.googleapis.com%2Fdata_scan. Sélectionnez data_scan et cliquez sur Appliquer.
Facultatif : Filtrez les journaux sur un ID ou un emplacement d'analyse de données spécifique en ajoutant les filtres suivants dans la requête de journal :
Pour lire les entrées de journaux d'événements d'analyse de données, utilisez la commande gcloud logging read avec la requête suivante :
gcloud logging read \
'resource.type="dataplex.googleapis.com/DataScan" AND
logName=projects/PROJECT_ID/logs/dataplex.googleapis.com%2Fdata_scan AND
resource.labels.location=LOCATION AND
resource.labels.datascan_id=DATA_SCAN_ID'
--limit 10
Interroger les journaux des résultats des règles d'analyse de la qualité des données
Lorsque vous utilisez Dataplex Universal Catalog pour créer et exécuter une analyse de la qualité des données, un journal des résultats des règles d'analyse de la qualité des données est généré dans Logging pour le job résultant.
Console
Dans la console Google Cloud , accédez à la page Explorateur de journaux.
Dans la vue Explorateur de journaux, recherchez l'onglet Requête.
Cliquez sur le menu Ressource.
Sélectionnez Cloud Dataplex DataScan. Cliquez sur Apply (Appliquer).
Cliquez sur le menu Nom du journal.
Dans le champ Rechercher des noms de journaux, saisissez dataplex.googleapis.com%2Fdata_quality_scan_rule_result. Sélectionnez data_quality_scan_rule_result, puis cliquez sur Appliquer.
Facultatif : Filtrez les journaux sur un ID ou un emplacement d'analyse de données spécifique en ajoutant les filtres suivants dans la requête de journal :
Pour lire les entrées de journaux des résultats de vos règles d'analyse de la qualité des données, utilisez la commande gcloud logging read avec la requête suivante :
gcloud logging read \
'resource.type="dataplex.googleapis.com/DataScan" AND
logName=projects/PROJECT_ID/logs/dataplex.googleapis.com%2Fdata_quality_scan_rule_result AND
resource.labels.location=LOCATION AND
resource.labels.datascan_id=DATA_SCAN_ID'
--limit 10
Pour lire vos entrées de journaux de découverte, utilisez la commande gcloud logging read avec la requête suivante :
gcloud logging read \
'resource.type="dataplex.googleapis.com/Zone" AND
logName=projects/PROJECT_ID/logs/dataplex.googleapis.com%2Fdiscovery AND
resource.labels.location=LOCATION AND
resource.labels.lake_id=LAKE_ID AND
resource.labels.zone_id=ZONE_ID AND
jsonPayload.assetId=ASSET_ID'
--limit 10
Dans la vue Explorateur de journaux, recherchez l'onglet Requête.
Cliquez sur le menu Ressource.
Sélectionnez Job de métadonnées Cloud Dataplex.
Facultatif : Pour filtrer les journaux en fonction d'un emplacement ou d'un ID de job de métadonnées spécifique, sélectionnez un emplacement ou un ID de job.
Cliquez sur Appliquer.
Cliquez sur le menu Nom du journal.
Saisissez dataplex.googleapis.com%2Fmetadata_job, puis sélectionnez metadata_job.
Cliquez sur Appliquer.
gcloud
Pour lire les entrées de journal de vos tâches de métadonnées, utilisez la commande gcloud logging read avec la requête suivante :
gcloud logging read \
'resource.type="dataplex.googleapis.com/MetadataJob" AND
logName=projects/PROJECT_ID/logs/dataplex.googleapis.com%2Fmetadata_job AND
resource.labels.location=LOCATION AND
resource.labels.metadata_job_id=METADATA_JOB_ID
--limit 10
Lorsque vous utilisez Dataplex Universal Catalog pour planifier et exécuter des tâches, un journal de processus est généré dans Logging pour le job résultant.
Console
Dans la console Google Cloud , accédez à la page Explorateur de journaux.
Pour lire vos entrées de journaux de processus, utilisez la commande gcloud logging read avec la requête suivante :
gcloud logging read \
'resource.type="dataplex.googleapis.com/Task" AND
logName=projects/PROJECT_ID/logs/dataplex.googleapis.com%2Fprocess AND
resource.labels.location=LOCATION AND
resource.labels.lake_id=LAKE_ID AND
resource.labels.task_id=TASK_ID'
--limit 10
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/08/19 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/08/19 (UTC)."],[[["\u003cp\u003eDataplex service logs, including data scan event logs, data quality scan rule result logs, discovery logs, metadata job logs, and process logs, are published to Cloud Logging.\u003c/p\u003e\n"],["\u003cp\u003eYou can access, search, filter, and archive Dataplex job logs in Cloud Logging through the Logs Explorer, \u003ccode\u003egcloud logging\u003c/code\u003e commands, or the Logging API.\u003c/p\u003e\n"],["\u003cp\u003eDataplex data scan, data quality scan, discovery, metadata import, and task processes generate logs that can be queried using specific log names and optional filters for location and IDs.\u003c/p\u003e\n"],["\u003cp\u003eYou can route the logs from Logging to Cloud Storage, BigQuery or Pub/Sub, disable all logs, or exclude some logs from logging.\u003c/p\u003e\n"],["\u003cp\u003eLog entries can be accessed and managed using the Google Cloud console, \u003ccode\u003egcloud\u003c/code\u003e command-line tools, or through REST API calls.\u003c/p\u003e\n"]]],[],null,["# Monitor Dataplex Universal Catalog logs\n\nDataplex Universal Catalog job logs can be viewed, searched, filtered, and archived in\n[Cloud Logging](/logging/docs).\n\nTo understand the costs, see [Google Cloud Observability pricing](/stackdriver/pricing).\n\nFor more information about logging retention, see\n[Logs retention periods](/logging/quotas#logs_retention_periods).\n\nTo disable all logs or exclude logs from Logging, see\n[Exclusion filters](/logging/docs/exclusions).\n\nTo route logs from Logging to Cloud Storage,\nBigQuery, or Pub/Sub, see\n[Routing and storage overview](/logging/docs/routing/overview).\n\nAccess Dataplex Universal Catalog service logs in Logging\n---------------------------------------------------------\n\nDataplex Universal Catalog publishes the following service logs to Cloud Logging.\n\nReplace the following:\n\n- \u003cvar translate=\"no\"\u003ePROJECT_ID\u003c/var\u003e: the ID of your project\n\nTo access Logging, you can use the\n[Logs Explorer](/logging/docs/view/logs-explorer-interface) in the\nGoogle Cloud console, the\n[`gcloud logging` commands](/sdk/gcloud/reference/logging), or\nthe [Logging API](/logging/docs/apis).\n\n### Query data scan event logs\n\nWhen you use Dataplex Universal Catalog to\n[create and run a data scan](/dataplex/docs/use-auto-data-quality), a data scan\nevent log is produced in Logging for the resulting job. \n\n### Console\n\n1. In the Google Cloud console, go to the **Logs explorer** page.\n\n\n [Go to Logs explorer](https://console.cloud.google.com/logs/query)\n\n \u003cbr /\u003e\n\n2. In the **Logs Explorer** view, find the **Query** tab.\n\n3. Click the **Resource** menu.\n\n4. Select **Cloud Dataplex DataScan** . Click **Apply**.\n\n5. Click the **Log name** menu.\n\n6. In the **Search log names** field, enter\n `dataplex.googleapis.com%2Fdata_scan`. Select **data_scan** and\n click **Apply**.\n\n7. Optional: Filter the logs to a specific data scan ID or location by\n adding the following filters in the log query:\n\n ```\n resource.labels.location=\"LOCATION\"\n resource.labels.datascan_id=\"DATA_SCAN_ID\"\n ```\n8. Click **Run query**.\n\n### gcloud\n\nTo read your data scan event log entries, use the\n[`gcloud logging read` command](https://cloud.google.com/sdk/gcloud/reference/logging/read)\nwith the following query: \n\n```\ngcloud logging read \\\n 'resource.type=\"dataplex.googleapis.com/DataScan\" AND\n logName=projects/PROJECT_ID/logs/dataplex.googleapis.com%2Fdata_scan AND\n resource.labels.location=LOCATION AND\n resource.labels.datascan_id=DATA_SCAN_ID'\n --limit 10\n```\n\n### REST\n\nTo list log entries, use the\n[`entries.list` method](/logging/docs/reference/v2/rest/v2/entries/list).\n\n### Query data quality scan rule result logs\n\nWhen you use Dataplex Universal Catalog to\n[create and run a data quality scan](/dataplex/docs/use-auto-data-quality), a\ndata quality scan rule result log is produced in Logging for the\nresulting job. \n\n### Console\n\n1. In the Google Cloud console, go to the **Logs explorer** page.\n\n\n [Go to Logs explorer](https://console.cloud.google.com/logs/query)\n\n \u003cbr /\u003e\n\n2. In the **Logs Explorer** view, find the **Query** tab.\n\n3. Click the **Resource** menu.\n\n4. Select **Cloud Dataplex DataScan** . Click **Apply**.\n\n5. Click the **Log name** menu.\n\n6. In the **Search log names** field, enter\n `dataplex.googleapis.com%2Fdata_quality_scan_rule_result`. Select\n **data_quality_scan_rule_result** and click **Apply**.\n\n7. Optional: Filter the logs to a specific data scan ID or location by\n adding the following filters in the log query:\n\n ```\n resource.labels.location=\"LOCATION\"\n resource.labels.datascan_id=\"DATA_SCAN_ID\"\n ```\n8. Click **Run query**.\n\n### gcloud\n\nTo read your data quality scan rule result log entries, use the\n[`gcloud logging read` command](https://cloud.google.com/sdk/gcloud/reference/logging/read)\nwith the following query: \n\n```\ngcloud logging read \\\n 'resource.type=\"dataplex.googleapis.com/DataScan\" AND\n logName=projects/PROJECT_ID/logs/dataplex.googleapis.com%2Fdata_quality_scan_rule_result AND\n resource.labels.location=LOCATION AND\n resource.labels.datascan_id=DATA_SCAN_ID'\n --limit 10\n```\n\n### REST\n\nTo list log entries, use the\n[`entries.list` method](/logging/docs/reference/v2/rest/v2/entries/list).\n\n### Query discovery logs\n\nWhen you use Dataplex Universal Catalog to discover data in assets, a discovery log\nis produced in Logging. \n\n### Console\n\n1. In the Google Cloud console, go to the **Logs explorer** page.\n\n\n [Go to Logs explorer](https://console.cloud.google.com/logs/query)\n\n \u003cbr /\u003e\n\n2. In the **Logs Explorer** view, find the **Query** tab.\n\n3. Click the **Resource** menu.\n\n4. Select **Cloud Dataplex Zone** . Click **Apply**.\n\n5. Click the **Log name** menu.\n\n6. In the **Search log names** field, enter\n `dataplex.googleapis.com%2Fdiscovery`. Select **discovery** and\n click **Apply**.\n\n7. Optional: Filter the logs to a specific asset by adding the following filters in the log query:\n\n ```\n resource.labels.location=\"LOCATION\"\n resource.labels.lake_id=\"LAKE_ID\"\n resource.labels.zone_id=\"ZONE_ID\"\n jsonPayload.assetId=\"ASSET_ID\"\n ```\n8. Click **Run query**.\n\n### gcloud\n\nTo read your discovery log entries, use the\n[`gcloud logging read` command](https://cloud.google.com/sdk/gcloud/reference/logging/read)\nwith the following query: \n\n```\ngcloud logging read \\\n 'resource.type=\"dataplex.googleapis.com/Zone\" AND\n logName=projects/PROJECT_ID/logs/dataplex.googleapis.com%2Fdiscovery AND\n resource.labels.location=LOCATION AND\n resource.labels.lake_id=LAKE_ID AND\n resource.labels.zone_id=ZONE_ID AND\n jsonPayload.assetId=ASSET_ID'\n --limit 10\n```\n\n### REST\n\nTo list log entries, use the\n[`entries.list` method](/logging/docs/reference/v2/rest/v2/entries/list).\n\n### Query metadata job logs\n\nWhen you [run a metadata import job](/dataplex/docs/import-metadata), metadata\njob logs are produced in Logging. \n\n### Console\n\n1. In the Google Cloud console, go to the **Logs explorer** page.\n\n\n [Go to Logs explorer](https://console.cloud.google.com/logs/query)\n\n \u003cbr /\u003e\n\n2. In the **Logs Explorer** view, find the **Query** tab.\n\n3. Click the **Resource** menu.\n\n4. Select **Cloud Dataplex Metadata Job**.\n\n5. Optional: To filter the logs to a specific location or metadata job ID,\n select a location or job ID.\n\n6. Click **Apply**.\n\n7. Click the **Log name** menu.\n\n8. Type `dataplex.googleapis.com%2Fmetadata_job` and then select\n **metadata_job**.\n\n9. Click **Apply**.\n\n### gcloud\n\nTo read your metadata job log entries, use the\n[`gcloud logging read` command](https://cloud.google.com/sdk/gcloud/reference/logging/read)\nwith the following query: \n\n```\ngcloud logging read \\\n 'resource.type=\"dataplex.googleapis.com/MetadataJob\" AND\n logName=projects/PROJECT_ID/logs/dataplex.googleapis.com%2Fmetadata_job AND\n resource.labels.location=LOCATION AND\n resource.labels.metadata_job_id=METADATA_JOB_ID\n --limit 10\n```\n\n### REST\n\nTo list log entries, use the\n[`entries.list` method](/logging/docs/reference/v2/rest/v2/entries/list).\n\n### Query process logs\n\nWhen you use Dataplex Universal Catalog to\n[schedule and run tasks](/dataplex/docs/schedule-custom-spark-tasks), a process\nlog is produced in Logging for the resulting job. \n\n### Console\n\n1. In the Google Cloud console, go to the **Logs explorer** page.\n\n\n [Go to Logs explorer](https://console.cloud.google.com/logs/query)\n\n \u003cbr /\u003e\n\n2. In the **Logs Explorer** view, find the **Query** tab.\n\n3. Click the **Resource** menu.\n\n4. Select **Cloud Dataplex Task** . Click **Apply**.\n\n5. Click the **Log name** menu.\n\n6. In the **Search log names** field, enter\n `dataplex.googleapis.com%2Fprocess`. Select **process** and click\n **Apply**.\n\n7. Optional: Filter the logs to a specific task by adding the following\n filters in the log query:\n\n ```\n resource.labels.location=\"LOCATION\"\n resource.labels.lake_id=\"LAKE_ID\"\n resource.labels.task_id=\"TASK_ID\"\n ```\n8. Click **Run query**.\n\n### gcloud\n\nTo read your process log entries, use the\n[`gcloud logging read` command](https://cloud.google.com/sdk/gcloud/reference/logging/read)\nwith the following query: \n\n```\ngcloud logging read \\\n 'resource.type=\"dataplex.googleapis.com/Task\" AND\n logName=projects/PROJECT_ID/logs/dataplex.googleapis.com%2Fprocess AND\n resource.labels.location=LOCATION AND\n resource.labels.lake_id=LAKE_ID AND\n resource.labels.task_id=TASK_ID'\n --limit 10\n```\n\n### REST\n\nTo list log entries, use the\n[`entries.list` method](/logging/docs/reference/v2/rest/v2/entries/list).\n\nWhat's next\n-----------\n\n- Learn more about [Cloud Logging](/logging/docs).\n- Learn about [Dataplex Universal Catalog monitoring](/dataplex/docs/monitoring)."]]